Mitschrieb zur Vorlesung: Spezielle Matrizen in der Physik Dr. Lang Vorlesung Wintersemester 2006/2007 Letzte Aktualisierung und Verbesserung: 3. Februar 2007 Mitschrieb der Vorlesung Spezielle Matrizen in der Physik von Herrn Dr. Lang im Wintersemester 2006/2007 von Marco Schreck. Dieser Mitschrieb erhebt keinen Anspruch auf Vollständigkeit und Korrektheit. Kommentare, Fehler und Vorschläge und konstruktive Kritik bitte an [email protected]. Inhaltsverzeichnis 1 Einleitung 5 2 Stochastische Matrizen 2.1 Modell von Kerner . . . . . . . . . . . . 2.2 Grundlagen der stochastischen Matrizen 2.3 Glasübergang und Kerner-Modell . . . . 2.3.1 H.Gibbs-Di-Maszio-Gesetz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9 9 9 10 11 3 Allgemeine Eigenschaften von Markow-Ketten 3.1 Zustandsklassifikation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.1.1 Wiederkehrende (rekurrente) und vorübergehende (transiente) Zustände 3.2 Definition der Periode eines Zustands . . . . . . . . . . . . . . . . . . . . . . . . 3.3 Eindimensionale endliche Irrfahrten (random walks) . . . . . . . . . . . . . . . 3.4 Detailliertes Gleichgewicht, Reversibilität . . . . . . . . . . . . . . . . . . . . . 3.4.1 Reversibilität . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.5 Ergodensatz für Markow-Ketten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17 17 17 19 19 20 20 21 Matrizen) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23 23 23 23 4 Zirkulante Matrizen (zirkuläre 4.1 Allgemeine Eigenschaften . . 4.1.1 Definition . . . . . . . 4.1.2 Eigenschaften . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3 Kapitel 1 Einleitung 1.) Stochastische Matrizen (Markow-Ketten diskreter Zeit) Dabei handelt es sich um Matrizen der Form MatN ([0, 1] ⊂ R). Jede Spalte dieser Matrizen entspricht PN einer Wahrscheinlichkeitsverteilung. Es gilt i=1 Mij = 1 ∀ j ∈ {1, . . . , N }. Bei stationären (homogenen) Markow-Ketten mit diskreter Zeitvariablen n ∈ Z≥ treten sie auf als Übergangsmatrizen von Takt n zu Takt n + 1. Wir betrachten Zustände endlicher Zahl N : IN = {1, 2, . . . , N }. j ∈ I sei ein bestimmter (n) (n) (n) Zustand. Zur Zeit n sei die Wahrscheinlichkeitsverteilung P (n) = (P1 , . . . , PN ) gegeben mit Pj = P(Xn = j), wobei X eine Zufallsgröße ist. Es gibt einen Wahrscheinlichkeitsraum (Ω, A, P). P sei normiert über P(Ω) = 1. A ist eine σ-Algebra. Die Übergangsmatrix leistet nun Übergänge von n nach n + 1: (n+1) P (n+1) = M P (n) , Pi = N X (n) Mij Pj j=1 M (n) ist in unseren Fällen zeitunabhängig (stationär). Eine Markow-Kette (mit diskreten Zustandsraum, diskreter Zeitvariable und stationärer Übergangsmatrix) besitzt die sogenannte Markow-Eigenschaft. Es ist Xn = j und Xn+1 = i ∈ IN , egal, was X0 , X1 , . . ., XN −1 war (geschichtslos). Dann gilt P (n) = M n P (0) , wobei P (0) die Wahrscheinlichkeitsverteilung am Anfang war (M 0 = 1N ). Mij = P(Xn+1 = i|X0 = i0 , X1 = i1 , . . . , Xn−1 = in−1 , Xn = j) Mittels dieser Markow-Ketten lässt sich beispielsweise der Glasübergang (R.Kerner, 1991) erklären. Tg (c) = Tg (0) 1 − κC Schaut man sich den Fall eines Se1−c Xc -Glases an, so gilt: Tg (c) = Tg (0) mit hri = 2 + (mx − 2)c 1 − βx (hri(c) − 2) Experimentell wurde βx (mit x = Ge) ein Wert von 0, 65 bis 0, 74 gemessen. Theoretisch gilt hri(c) = 2 + (4 − 2)c und βGe = 1/(2 ln(2)) ≈ 0, 72 (nach Kerner). Eine andere Anwendung wären sogenannte Random Walks (Irrfahrten). 2.) Zirkulante Matrizen ∈ MatN (C) Dabei handelt es sich um Matrizen der Form CN = CN ({ai }N 1 ) mit (CN )ij = ai−j (mod N ). Es gilt a0 = aN usw. und schließlich ar+N = ar mit r ∈ Z (Translationsinvarianz). aN aN −1 aN −2 . . . a1 a1 aN aN −1 . . . a2 .. .. . .. .. . . . . . CN = . . .. .. .. .. .. . . . . aN −1 aN −2 ... a1 aN 5 KAPITEL 1. EINLEITUNG Für die Determinante gilt: µ ¶ N N N X Y Y 2π (N ) jk det(CN ) = λk = aj %N mit %N = exp i N j=1 k=1 k=1 %N sind die N -ten Einheitswurzeln aus der zyklischen Gruppe ZN . aj lässt sich als Fourierreihe schreiben: aj = µ ¶ N 1 X 2π λk exp −i kj N N k=1 (n) λk sind die Fourierkoeffizienten. 1 b λ = F a, (FN )ij = %ij N, F = √ F N Fb ist unitär, es gilt also Fb† Fb = Fb Fb† = 1N . FN4 = 1N (Eigenwerte: ±1, ±i). CN = N X j aj UN mit (UN )ij = δ1,i−j = P j=1 1 N 2 ... 1 2 N −1 N ... N −1 (UN )ij ist auch eine Zirkulante (zyklische Matrix). VN = UN,diag , (VN )ij = δij %iN m n {UN VN } ist eine Basis für MatN (C). Die Basisentwicklung für komplexe Matrizen ist dann gegeben durch: X m1 m2 M= Mm ~ UN UN m1 ,m2 c = a ∗ b, cj = N X ak bk−j , C1 C2 = C3 (c) k=1 Hierbei bedeutet das Symbol ∗“ die Faltung der Folge von a mit der Folge von b. Die U-V-Basis findet ” in der Quantenmechanik ihre Anwendung. ³ π ´ 1 1 1 m1 m2 2 m1 m2 2 p (p; m1 , m2 ) := (% 2 )p (%N ) UN VN mit (%N ) = exp i p N Matrixprodukt: (p; m)(q; ~ ~n) = (p + q − m ~ × ~n, m ~ + ~n) = (p + q − (m1 n2 − m2 n1 ), m ~ + ~n) Kontinuierliche Heisenberggruppe H1 : g(t; z) = exp(i(t1 + za + a† z)) Die Heisenbergalgebra ist gegeben durch: 1 1 [q, p] = i1 mit a = √ (q + ip), a† = √ (q − ip), [a, a† ] = 1 2 2 Als Übung kann folgendes gezeigt werden: µ ¶ i g(t, z)g(s, w) = g t + s − (zw − zw)z + w 2 3.) E.T.-Bell-Matrizen (Polynome, Partitionspolynome (1927)) (N ) Sm ~ 1 m1 n 1 2 m1 m2 ) UN = (%N VN π (m ~ × ~n) N Dabei handelt es sich um die projektive Darstellung der Torusgruppe ZN × ZN (nach Kerner-DuBoisMolette-Madore, 1900). Im Kontinuumlimes N 7→ ∞ kommt man zu den quantenmechanischen Variablen p und q. (N ) (N ) Sm ~ S~ n (N ) (N ) = exp(−iα2 (m, ~ ~n))S~n Sm ~ mit α2 = 6 C.) Bell-Matrizen (Polynome) Wir gehen aus von den Potenzreihen ∞ ∞ X X fn n gn n f (x) = x mit f0 = 0 und g(x) = x n! n! n=1 n=1 Gesucht ist F (x) = (f ◦ g)(x) = f (g(x)) = ∞ X n Fn [f ; g] n=1 g1 g2 .. (N ) B [g] = . . .. gN 0 g12 .. . 0 0 .. . ... ... .. . ... ... .. . .. .. .. .. . ... . ... . ... . ... X xn mit Fn [f, g] = Bnk [g1 , . . . , gn−k+1 ]fk n! k=1 0 0 .. . .. . g1N Als Übung kann die n-te Ableitung von f (g)(x) berechnet werden. Spezialfälle: Stirling 1. und 2. Art a.) Eigenwerte von Funktionen, Rekursionen (Riordan) b.) Unterteilung orthogonaler Polynome c.) det(A), Invarianten aus Spur-A-Produkten Eine Anwendung in der Physik ist das Studium realer Gase. 7 KAPITEL 1. EINLEITUNG 8 Kapitel 2 Stochastische Matrizen 2.1 Modell von Kerner Mit diesem Modell wird der Glasübergang beschrieben. Das Gibbs-Di-Mazio-Gesetz arbeitet mit einer diskreten Version von Markow-Ketten, was gleichbedeutend zu stochastischen Matrizen ist. 2.2 Grundlagen der stochastischen Matrizen Definition: Eine stochastische Matrix M ist ∈ MatN (R≥ ) ( M ≥ 0“). Diese Notation bedeutet, dass alle Elemente der ” Matrix ≥ 0 sind. Die Spaltensumme muss gleich 1 sein: N X Mij = 1 ∀ j = 1, . . . , N i=1 Diese Matrizen treten auf als Übergangsmatrizen von j nach i in stationären Markow-Ketten (M ist n( Zeit“)unabhängig mit n ∈ Z≥ ). ” (n) (n) p(n+1) = M p(n) mit p(n) = (p1 , . . . , pN )| (n) pi ist die Wahrscheinlichkeit, dass zur Zeit n einer der möglichen N Zustände des Systems, den mit Nummer i, annimmt. Es ist i ∈ IN = {1, . . . , N }. Ist P (0) normiert, so ist auch p(1) = M p(0) normiert. p(n) = M n p(0) mit M 0 = 1N N X i=1 n Mij − N X i=1 Mik (M n−1 )kj = X n−1 Mik = ... = i N X N X i=1 l=1 Mil Mlj = X Mij = 1 i Im allgemeinen Falle bezeichnet man diese Bedingungen als K-Chapman-Bedingungen. Markow-Ketten (IN , M , p(0) ) sind geschichtlos; das heißt, es interessiert nur der aktuelle Zustand. Was zuvor passiert ist, ist ohne Bedeutung. p ist ein Gleichgewichtszustand, wenn die Bedingung p = M p (von n unabhängig) gilt, wenn also p sich selbst reproduziert. Von einer asymptotischen Verteilung wird gesprochen, falls der Grenzwert n 7→ ∞ gebildet wird. p(∞) = M ∞ p(0) mit M ∞ = lim M n n7→∞ Definition: M ist irreduzibel, wenn es zu je zwei verschiedenen i, j eine gerichtete Pfadverbindung gibt mit positiven Elementen > 0. ∀i, j 6= i : ∃(i1 ,...,ik ) Mii1 Mi1 i2 . . . Mik j > 0 Sonst ist M reduzibel. MN ordnet man einen Digraphen (beim dem die Linien gerichtet ( directed“) sind) zu. ” Diesen Graphen bezeichnen wir mit GMN . Die Vertizes wollen wir mit 1, . . ., N numerieren und eine Linie (Kante) von i nach j wird mit Mji bezeichnet. 9 KAPITEL 2. STOCHASTISCHE MATRIZEN Beispiel: 1 M3 = 2 1 2 0 1 4 1 4 1 2 1 3 2 3 0 Man kann nun den Begriff der Irreduzibilität über solche Graphen definieren: Definition: Je zwei verschiedene Vertizes sind mit gleichsinnig durchlaufenem Pfad zu verbinden (stark zusammenhängender Digraph). Beispiel: 1 M30 = 2 1 4 1 4 0 1 2 1 2 0 2 3 1 3 Da sich die Vertizes nicht gleichsinnig miteinander verbinden lassen, ist die Matrix irreduzibel. Dies entspricht der zuvorigen Definition von Irreduzibilität. Reduzibel via Permutation i1 i2 . . . ik , j1 . . . jk mit Miα ,jβ = 0. µ ¶ A C M= 0 B 2.3 Glasübergang und Kerner-Modell Gläser besitzen keine Kristallstruktur. Es existiert keine langreichweitige Ordnung, sondern nur eine sogenannte Nahordnung. Gläser sind also keine normalen Festkörper, besitzen aber einen gewissen Zusammenhalt/Bingung. Gläser werden nicht beim Schmelzpunkt Tm fest, sondern beim sogenannten Glaspunkt Tg < Tm . Man spricht deshalb von unterkühlten Flüssigkeiten. Silizium Si besitzt einen Schmelzpunkt Tm von 1420◦ C. Tm lässt sich durch Hinzusetzen einen Modifizierers (beispielsweise NaCO3 ) erniedrigen. Glasübergänge sind keine Phasenübergänge erster Art. Ein binäres Glas besteht aus zwei Komponenten wie beispielsweise Selen und Arsen (als Modifizierer). Binäre Gläser können mit dem Kerner-Modell beschrieben werden. Tg ist abhängig von c. Beispielsweise kann Tg mit wachsendem c ansteigen oder auch abfallen. Bei hri ≈ 2, 4 (Koordinationszahl) springt das Glas unter bestimmten Frequenzen. hri folgt aus den Wertigkeiten mi . Beispielsweise gilt mSe = 2, mAs = 3 und mGe = 4. 10 2.3. GLASÜBERGANG UND KERNER-MODELL 2.3.1 Tg (c) = H.Gibbs-Di-Maszio-Gesetz Tg (0) mit hri = 2 + (mM − 2)c 1 − βM (hri − 2) Die −2 im Nenner gilt für Se. Die Messung bei Se1−c Gec wurde 1997 durchgeführt [Feng et al PRL 78 (1997) 4422]. Es gilt beispielsweise Tg (Se) ≈ 43◦ C. Mit c nimmt in diesem Fall auch Tg zu. Man macht nun folgende Annahmen: i.) Beim Abkühlen entstehen aus der Schmelze Keimzentren, die durch Agglomeration größer werden (Cluster). Am Rande der Cluster geschieht das Wachstum. ii.) Stochastik: p ist die Wahrscheinlichkeitsverteilung der Bindungen am Rand iii.) Jeder Entwicklungsschritt (n 7→ n + 1) wird durch eine Übergangsmatrix M beschrieben. P ∞ sei die asymptotische Verteilung. iv.) Se1−c -Asc -Einheiten: zweiwertiges Se (m1 = 2) und dreiwertiges As (m2 = 3) v.) Am Rand jedes Clusters gibt es drei Typen. Typ Glasbildner Modifizierer Es gilt I3 = {x, y, z}. An jede freie Bindung wird eine der zwei Einheiten angelagert. Wir wollen jedoch keine Schleifen betrachten. vi.) Ein neuer Rand entsteht nach Absättigung der freien Bindungen. Boltzmannfaktoren, wobei −E11 , −E12 und −E22 die effektiven Bindungsenergien sind: µ ¶ µ ¶ µ ¶ E11 E12 E22 exp = exp(−ε), exp = exp(−η) und exp = exp(−α) kB T kB T kB T Wichtig ist außerdem die Multiplizität M3 und die Konzentration c. 11 KAPITEL 2. STOCHASTISCHE MATRIZEN Multiplizität Konzentration Boltzmannfaktor 2 1−c exp(−ε) X 3 c exp(−η) Y 2·2 (1 − c)2 exp(−2η) X + X = 2X 2 · 2 · 3 c(1 − c) exp(−η − α) X +Y 3·3 c2 exp(−2α) Y + Y = 2Y 2 1−c exp(−η) X 3 c exp(−α) Y Konstruieren wir nun die erste Spalte von M3 : x 7→ x 2(1 − c) exp(−ε) 2(1 − c) x 7→ y = 3c exp(−η) 7→ 3c exp(ε − η) x 7→ z 0 0 Die zweite Spalte ist gegeben durch: y 7→ x 8(1 − c)2 exp(−2η) + 12c(1 − c) exp(−η − α) 4(1 − c)ξ[(1 − c)ξ + 3cµ] 2(1 − c)ξ y 7→ y = 12c(1 − c) exp(−η − α) + 18c2 exp(−2α) 7→ 6cµ[2(1 − c)ξ + 3cµ] 7→ 3cµ y 7→ z 0 0 0 Es tauchen immer die relativen Größen ξ = exp(ε − η) und µ = exp(ε − α) auf. Kommen wir nun zur dritten Spalte: z 7→ x 2(1 − c) exp(ε − η) 2(1 − c)ξ z 7→ y = 3c exp(ε − α) = 3cµ z 7→ z 0 0 Damit ergibt sich die stochastische Matrix M3 : M3 = 2(1−c) 2(1−c)+3cξ 3cξ 2(1−c)+3cξ 0 2(1−c)ξ 2(1−c)ξ+3cµ 3cµ 2(1−c)ξ+3cµ 0 2(1−c)ξ 2(1−c)ξ+3cµ 3cµ 2(1−c)ξ+3cµ 0 Spezialfall: zweite und dritte Spalte gleich, genau einmal den Eigenwert 1 und |λ| = 1 Eigenwerte keine 12 2.3. GLASÜBERGANG UND KERNER-MODELL Hierbei ist z unwesentlich, man studiert eigentlich nur noch M2 . Als nächstes wollen wir p(n) = M n p(0) ! bestimmen und außerdem M ∞ . Eine weitere Annahme wird später sein, dass p∞ = (1 − c, c)| ist. µ ¶ 2(1 − c)ξ 3cξ 1−A B M2 = mit A = ,B= A 1−B 2(1 − c) + 3xξ 2(1 − c)ξ + 3cµ Es soll nun M2n für n 7→ ∞ berechnet werden. Dabei gibt es folgende Vorgehensweisen: 1.) Eigenwerte und Eigenfunktionen, Diagonalmatrix 2.) Spektralzerlegung (Sylvester-Formel), Eigenwerte Zλ [M ] X F (M ) = F (λ)Zλ [M ] λ 3.) Cayley-Hamilton-Theorem: Aus der charakteristischen Gleichung ϕ(λ) = 0 mit ϕ(λ) = (λ − λ+ )(λ − λ− ) folgen die Eigenwerte. Das Cayley-Hamilton-Theorem besagt, dass dies auch für die Matrix M gilt: ϕ(M ) = (M − λ+ 1)(M − λ− 1) = 0 Das Theorem gilt allgemein für beliebige n × n-Matrizen. Den Beweis findet man beispielsweise in [Courant, Hilbert] oder [Zurmühl]. Zum Beweis wird benötigt: ϕ(λ) = det(M − λ1) = (−1)N (λN − σ1 λN −1 + . . .) Die σn sind elementarsymmetrische Funktionen. Sei ϕ(λ) 6= 0: (M − λ1)−1 = 1 Adj| (M − λ1) ϕ(λ) Im Falle N = 3 gilt Adj| (M − λ1) = λ2 A1 + λ1 A2 + λ0 A3 . 13 = (M − λ1)(M − λ1)−1 ⇒ (−1)3 (λ3 − σ1 λ2 + σ2 λ1 − σ3 λ0 )13 = (. . .)(. . .) Man bestimmt λ0 , . . ., multipliziert diese mit M 0 , . . . und erhält ϕ(M ) = 0. (M − λ+ 1)(M − λ− 1) = 0 ´ ½ 1 p 1³ λ± = Sp(M ) ± (Sp(M ))2 − 4 det(M ) = 1 − (A + B) 2 Was ist nun M n ? M2n = Un−1 (x, y)M − yUn−2 (x, y)1 mit Un = 2xUn−1 − yUn−2 , U0 = 1, U−1 = 0 Die Un sind eine Verallgemeinerung der Tschebyschew-Polynome (y = 1). x= 1 A+B Sp(M ) = 1 − , y = det(M ) = 1 − (A + B) 2 2 Un = 1 (λn+1 − λn+1 − ) λ+ − λ− + Für λ+ = λ− gilt M n = nxn−1 M − (n − 1)xn 1. Wegen A + B = 0 ist dieser Fall jedoch hier uninteressant. Die erzeugende Funktion der Un ist gegeben durch: X n=0 Un (x, y)tn = 1 1 − 2xt + yt2 Für n 7→ ∞ ist λ+ = 1 und |λ− | < 1. Hieraus folgt 1 − (A + B) > −1 (A + B < 2) oder 1 − (A + B) < 1 (A + B > 0). µ ¶ 1 1 1 B B (M − y1) = (M − y1) = M ∞ = lim M n = n7→∞ 1 − λ− 1 − λ− A+B A A 13 KAPITEL 2. STOCHASTISCHE MATRIZEN Aus M ∞ v ∞ = v ∞ folgt: µ ¶ 1 B ∞ v = da λ− 7→ 0 A+B A v ∞ ist die Gleichgewichtsverteilung. Schauen wir uns die erste und zweite Spalte von M an: µ ¶ µ ¶ µ ¶ 1 1 − A n7→∞ B n7→∞ B ←−−−− −−−−→ A 1−B A+B A v ∞ ist auch die asymptotische Verteilung. Man bezeichnet deshalb v ∞ ≡ p∞ auch als asymptotische Gleichgewichtsverteilung. Der Endzustand sollte sich in folgender Form schreiben lassen, was zu einer zusätzlichen Bedingung führt: µ ¶ 1−c ∞ ! p = c Hieraus folgt die Funktion c(T ) und durch Inversion Tg (c). Aus obiger Bedingung folgt B/A = (1 − c)/c. µ ¶ 1 2(1 − c)ξ[2(1 − c) + 3cξ] = − 1 [2(1 − c)ξ + 3cµ] 3cξ c c = 0 und c = 1 sind triviale Lösungen. Die nichttriviale Lösung lautet: c= 1 − 23 ξ 2(2 − 3ξ) = c(T ) = 4 + 9µ − 12ξ 1 + 94 µ − 3ξ Man kann nun noch 0 < c < 1 prüfen. Wir interessieren uns nun für die Steigung der Kurve für c 7→ 0. dT /dc|c7→0 folgt aus dc/dT |ξ7→2/3 . Mit µ ¶ µ ¶ dξ 1 E11 − E12 E11 − E22 ξ0 = = − ξ ln(ξ) wobei ξ = exp − , µ = exp − dT T kB T kB T und µ = 0 (entspricht dem Fall ohne As-As) folgt: ¯ µ ¶ µ ¶ µ ¶ dc ¯¯ 1 2 1 3 1 m2 = ln (−1) = ln = ln dT ¯ξ= 2 T 3 T 2 T m1 3 Die Steigungsgleichung lautet schließlich: ¯ dT ¯¯ Tg (0) = ¡3¢ ¯ dc c7→0 ln 2 Tg steigt mit wachsender Konzentration c. Die Taylorentwicklung um c = 0 hat folgende Form: Tg (c) = Tg (0) + Tg (0) Tg (0) ¡3¢c + . . . = mit 0 < c < 0, 1 1 − ln c3 ln 2 (2) Dabei handelt es sich um die Gibbs-Di-Mazio-Formel. Mittels der Koordinationszahl hri := m1 (1 − c) + m2 c = 2(1 − c) + 3c = 2 + c folgt: Tg (c) = Tg (0) 1− hri−2 ln( 32 ) Oft wird 1/ ln(3/2) ≈ 2, 47 als β bezeichnet. Wir betrachten nun ein Se1−c Gec -Glas (m1 = 2, m2 = 4). exp(−ε) exp(−γ) exp(−ξ) Sei % = exp(ε − γ) und ω = exp(ε − ξ). Wir betrachten nur M2 und nicht M4 , da es reicht, mit den ersten beiden Zuständen zu arbeiten: ! à M2 = 1−c 1−c+2c% 2c% 1−c+2c% (1−c)% (1−c)%+2ωc 2ωc 1−c+2c% 14 2.3. GLASÜBERGANG UND KERNER-MODELL Gemeinsamer Faktor der ersten Spalte ist (1 − c)2 %2 + 4(1 − c)c%ω + 4c2 ω 2 . p∞ ist asymptotische Gleichgewichtszustand mit der Bedingung p∞ = (1 − c, c). Man erhält außer den trivialen Lösungen c = 0, 1: 1 − 2% 1 − 4% + 4ω ¯ dTg ¯¯ Tg (0) = ¡4¢ dc ¯c7→0 ln 2 c= Mittels einer Taylorentwicklung um c = 0 folgt: Tg (c) = Tg (0) 1 mit βSe−Ge = ≈ 0, 72 1 − β(hri − 2) 2 ln(2) Experimentell wurde β = 0, 72 bestimmt! Wir wollen nun ein allgemeines binäres Glas G1−c Mc mit mG = m1 und mM = m2 betrachten. Die mittlere Koordinationszahl ist gegeben durch hrii = m1 (1 − c) + m2 c. Sei % = exp(ξ − γ) und ω = exp(ε − ξ). à ! M(m1 ,m2 ) = m1 (1−c) m1 (1−c)+m2 c% m2 c% m1 (1−c)+m2 c% m1 (1−c)% m1 (1−c)%+m2 cω m2 cω m1 (1−c)%+m2 cω Die erste Spalte besitzt einen gemeinsamen Faktor ¶ m1 − 2 (m1 (1 − c))m1 −(k+2) (m2 c)k %k k m 1 −2 µ X k=0 ebenso wie die zweite Spalte: m 2 −2 µ X k=0 ¶ m2 − 2 (m1 (1 − c))m2 −(k+2) (m2 c)k %m2 −(k+2) ω k k Die entsprechenden Ergebnisse sind dann von folgender Form: ¶ µ ¶ µ 1 B ! 1−c = p∞ = c A+B A Es gibt wieder die trivialen Lösungen c = 0, 1. Die nichttriviale Lösung ist: c= β= m21 m1 (m1 − m2 %) + m2 ω − 2m1 m2 % 1 (m2 − m1 ) ln ³ m2 m1 ´ , Tg (c) = Tg (0) 1 − β(hri − m1 ) 15 KAPITEL 2. STOCHASTISCHE MATRIZEN 16 Kapitel 3 Allgemeine Eigenschaften von Markow-Ketten 3.1 Zustandsklassifikation 3.1.1 Wiederkehrende (rekurrente) und vorübergehende (transiente) Zustände (k) Die Wahrscheinlichkeit, in k Schritten von i nach j zu kommen, soll mit fij bezeichnet werden. Soll das ganze (1) in einem Schritt funktionieren, ist fij = Mij . Weiterhin gilt: X (k) (k+1) fij = fil Mlj l6=i (k) Die Wahrscheinlichkeit, zum selben Zustand j wiederzukehren, ist gegeben durch fj Fj = ∞ X (k) ≡ fjj . (k) fj k=1 Anhand von diesen Größen kann man definieren, wann ein Zustand sicher wiederkehrend ist. Definition: j ist sicher wiederkehrend (rekurrent), falls Fj = 1 ist bzw. vorübergehend (transient) wiederkehrend für Fj < 1. Satz: Mit Mj := ∞ X k Mjj k=1 gilt: Fj = Mj 1 = 1 + Mj 1 + M1j Für Fj = 1 gilt Mj = ∞. Beweis: Wir müssen über alle Wahrscheinlichkeiten summieren, von j nach j zu kommen: (1) (2) (k−1) k−2 (M k )jj = fj Mj j k−1 + fjj Mjj + . . . + fj (k) Mjj + fj 1jj (∗) Wir benutzen die Erzeugendenfunktionen Mj (z) = ∞ X k k (M )jj z , Fj (z) = k=1 ∞ X (k) fj z k mit |z| < 1 k=1 17 KAPITEL 3. ALLGEMEINE EIGENSCHAFTEN VON MARKOW-KETTEN Wir multiplizieren (∗) mit z k und summieren über k: ∞ X (1) (2) 1 0 (M k )jj z k = zf (1) (1) + z 2 [fj Mjj + fj Mjj ] + ... = k=1 (1) (2) 1 2 = zfj (1 + zMjj + z 2 Mjj + . . .) + z 2 fj (1 + . . .) + . . . = Ã∞ ! X (k) = z k fj (1 + Mj (z)) = k=1 Hieraus ergibt sich Fj (z) = Mj (z) 1 + Mj (z) und für z 7→ 1 folgt die Beziehung aus dem Satz. ¤ n = 0 für unendlich viele n (Mj < ∞). j ist rekurrent genau Es gilt auch: j ist transient genau dann, wenn Mjj n dann, wenn Mjj = 1 für unendlich viele n (Mj = ∞). Beispiel: M400 und M3 3 und 4 sind transient (unwesentlich), 1 und 2 sind rekurrent (M400 ). 2 und 3 sind transient (unwesentlich) und 1 (sicher) rekurrent (M3 ). U4 Dies ist eine rekurrente Kette. Ein weiterer Begriff ist die erwartete Rückkehrzeit bei rekurrenten Zuständen (Ergodentheorem!). Wir definieren also den Erwartungswert der Zeit: ¯ ∞ X ¯ d (n) aj = nfj = z Fj (z)¯¯ dz z=1 n=1 n ist die Zeit“. ” Definition: j heißt 0-rekurrent, falls aj = ∞ ist. aj < ∞ bezeichnet man als positiv rekurrent. 18 3.2. DEFINITION DER PERIODE EINES ZUSTANDS Beispiel: M40 1 und 2 sind rekurrent, denn a1 = ∞ X n =2<∞ 2n n=1 Satz: Für irreduzible Ketten gilt aj = 1/paj . Den Beweis findet man im Buch von Norris. 3.2 Definition der Periode eines Zustands k Für den Zustand j definieren wir die Menge dj = ggT{k ∈ N0 |Mjj > 0}. Man bezeichnet dj als Periode. Falls dj = 1 heißt, wird der Zustand als aperiodisch bezeichnet. Beispielsweise gilt für M400 : d1 = d2 = d3 = d4 = 2. 3.3 Eindimensionale endliche Irrfahrten (random walks) Die Wahrscheinlichkeit für einen Sprung nach rechts bzw nach links sei jeweils 1/2. 1.) Absorbierend: a.) links: falls k = 1, bleibe mit Wahrscheinlichkeit 1 da b.) rechts: falls k = N , bleibe mit Wahrscheinlichkeit N da 2.) Reflektierend: a.) links: falls k = 1, springe mit Wahrscheinlichkeit 1 nach 2 b.) rechts: falls k = N , springe mit Wahrscheinlichkeit 1 nach N − 1 Beispiel: M4AA 1 1/2 0 0 0 0 1/2 0 = 0 1/2 0 0 0 0 1/2 1 19 KAPITEL 3. ALLGEMEINE EIGENSCHAFTEN VON MARKOW-KETTEN Der Graph ist reduzibel und besitzt keine Standardform. 1 1 = P 1 2 3 4 0 1/2 1 4 2 3 1/2 0 Es gilt P M P −1 = M40 . 3.4 Detailliertes Gleichgewicht, Reversibilität Der Gleichgewichtszustand ist definiert über M p = p. N X (Mij pj − Mji pi ) ≡ 0 j=1 Man bezeichnet das Gleichgewicht als detailliert, falls Mij pj = Mji pi für alle i, j (keine Summe über i bzw. j!) Die Zahl der Bedingungen ist: N (N − 1) N (N + 1) +N = 2 2 Die obige Gleichung liefert a priori eine Gleichgewichtsverteilung p(0) = p. Als Übung kann man mittels vollständiger Induktion zeigen: (n+1) (M n )ij pj = . . . = (M n )ji pi und pi f p(n) = N X (n) = pi (von n unabhängig) (n) fj p j j=1 Dies gilt von n unabhängig. Bemerkung: Ist p > 0 und befindet sich (M, p) im determinierten Gleichgewicht, so besitzt M nur reelle Eigenwerte λ. ! c| cij := √1 Mij √pj , M cv̂ = λv̂, M c= M M pi 3.4.1 Reversibilität cN zu MN Zeitumkehrkette: M cij pj = Mji pi für alle i, j M c = M |. Falls pi = p gilt für alle i ist M c ist stochastisch. 1.) M c, p) ist im Gleichgewicht, falls (M, p) im Gleichgewicht ist (M cp = p, M p = p). 2.) (M c irreduzibel ist. 3.) Aus der Irreduzibilität von M folgt, dass auch M cii M ci i . . . Mi j pj > 0 Mjin . . . Mi2 i1 Mi1 i pi = M 1 1 2 n c, so ist die Kette reversibel. Ist M = M 20 3.5. ERGODENSATZ FÜR MARKOW-KETTEN Beispiel: i.) M40 : p = 1/2(1, 1, 0, 0) (im determinierten Gleichgewicht, reversibel) ii.) U4 : λ = 1, v1 = 1/4(1, 1, 1, 1) (nicht im determinierten Gleichgewicht, Widerspruch zu 1.4) c2 = W2 (im determinierten Gleichgewicht) iii.) Isingmodell, M iv.) M3 : 0 2/3 1/3 M = 1/3 0 2/3 2/3 1/3 0 c = M | 6= M . Der zum Eigenwert λ = 1 zugehörige Eigenvektor ist 1/3(1, 1, 1). Es gilt M 3.5 Ergodensatz für Markow-Ketten n−1 1X f p(k) n7→∞ n f = lim f n = lim n7→∞ k=0 seien Langzeitmittelwerte von f : I 7→ R. fp = N X ? fi pi = fp(∞) i=1 p(∞) ist der eine Gleichgewichtszustand. Wir könnten dies im irreduziblen, primitiven Fall testen. Eine zusätzliche Bedingung ist, dass die Kette nicht positiv rekurrent ist (aj < ∞ ∀ j, erwartete Wahrscheinlichkeiten (a ) endlich). Beispiel: irreduzible Kette automatisch, da nach dem Satz gilt aj = 1/pj j < ∞ Beispiel: Wir betrachten ein binäres Glas Se1−c Asc . Sei f die Koordinationszahl (m1 = 2, m2 = 3). µ ¶ 1−A B M2 = A 1−B M k = 1k Zλ1 =1 [M ] + λk2 Zλ2 =1−(A+B) [M ] mit Zλ1 =1 = µ | k (0) f p(k) = m M v mit v (0) = ¶ 1−c c 1 A+B µ B A ¶ µ 1 B A , Zλ2 = A A + B −A −B B ¶ f v(k) = m| M k v (0) = f M k v(0) = f Z1 [M ]v(0) + (1 − (A + B))k f Z2 [M ] v (0) = f v∞ + 2.Term linear fn := n−1 X 1 1 f = n n=0 v(k) n n−1 X f v∞ + (1 − (A + B))k f Z2 [M ]v(0) = f v∞ + fZ2 [M ]v(0) k=0 n−1 1X (1 − (A + B))k n k=0 ? f = lim f n = f v(∞) = f p(∞) n7→∞ µ ¶ 1 B p(∞) = A+B A Nichtfluktuationsbedingung: p(0) = v (0) 21 KAPITEL 3. ALLGEMEINE EIGENSCHAFTEN VON MARKOW-KETTEN 22 Kapitel 4 Zirkulante Matrizen (zirkuläre Matrizen) Manchmal werden die Determinanten dieser Matrizen (und nicht unbedingt die Matrizen selbst) als Zirkulanten bezeichnet. 4.1 Allgemeine Eigenschaften 4.1.1 Definition Dabei handelt es sich um komplexe N × N -Matrizen (CN ∈ Matij (C)) −1 CN = CN ({aj }N ) mit (CN )ij = ai−j mod N mit i, j ∈ {0, . . . , N − 1} 0 Die aN sind translationsinvariant; es gilt also aN +r = ar für alle r ∈ Z. a0 aN −1 aN −2 . . . a2 a1 a1 a0 aN −1 . . . a3 a2 CN = . . .. . .. . .. .. . . . .. . aN −1 aN −2 aN −3 . . . a1 a0 R(a0 , aN −1 , . . . , a1 ) = (a1 , a0 , aN −1 , . . . , a2 ) CN = CN (a0 , aN −1 , . . . , a1 ) 4.1.2 Eigenschaften a.) Translationsinvarianz: Cij = Ci+r,j+r für r ∈ Z (c00 =: a0 , charakteristische Eigenschaft) Falls dies für eine Matrix CN gilt, handelt es sich um eine Zirkulante. Die zirkulanten Matrizen sind ein Spezialfall der Toeplitz-Matrizen (TN )ij = ai−j mit i, j ∈ {0, 1, . . . , N − 1} (nicht mod N ). b.) Die Spaltensummen SN sind immer gleich: SN = N −1 X ai i=0 c.) Invarianten: i.) Spur: Sp(CN ) = N a0 ii.) Determinante: det(CN ) = N −1 Y (N ) λk k=0 23 KAPITEL 4. ZIRKULANTE MATRIZEN (ZIRKULÄRE MATRIZEN) Die Eigenwerte λk sind die Fouriertransformierten der Einträge; es gilt also: (N ) λk = N −1 X %jk N aj mit %N j=0 µ ¶ 2π = exp i N Dies soll nun bewiesen werden. Dazu betrachten wir: −1 ΠN = diag[%0N = 1, %1N , . . . , %N ] N 0 i −j = ai,−j %i−j . % ist igrendeine N -te Einheitswurzel. CN = ΠN CN Π−1 N ist Zirkulante, da % (CN )ij % i 1 Die erste Zeile lautet {ai % }N =0 . Addiere zur ersten Zeile die Summe der restlichen N − 1 Zeilen. Die neue erste Zeile besitzt nach (b) N gleiche Elemente: N −1 X ai %i i=0 0 det(CN ) = det(CN )= ÃN −1 X ! ai %i i 1 .. . .. . 1 .. . .. . ... .. . .. . 1 .. . .. . Für jedes % = %kN gilt: 0 det(CN ) = det(CN ) = N −1 Y k=0 ÃN −1 X ! aj (%kN )j ¤ i=0 (N ) −1 d.) Eigenvektoren von CN zu {λk }N 0 (N ) CN uk (N ) (N ) = λk uk mit k = 0, . . . , N − 1 Aufgrund der Struktur der zirkulanten Matrizen, sind die Eigenvektoren sind von aij abhängig. 1 (N ) (uk )j = √ %−kj N N Dies beweisen wir durch: N −1 X (N ) (cN )ij uk,j = N −1 X j j 1 ai−j √ %−kj N N i−j=j 0 = X j0 X 0 1 −(i−j 0 )k 1 1 aj 0 √ %N = √ %−ik aj 0 %j k = √ %−ik N N λk N N N j0 Die Eigenvektoren bilden ein vollständiges Orthonormalsystem: (N ) (N ) huk , ul i= N −1 X u∗k,j ul,j = j=0 N −1 1 X (k−l)j % = δk,l = δk−l,0 N j=0 N Dies folgt über die Kreisteilergleichung (geometrische Reihe!): N −1 X (k−l)j %N = N δkl j=0 Analog ergibt sich die Vollständigkeit: N −1 X (N ) ∗ (uj (N ) )i (uk )j = δi,j k=0 e.) Fourier-Transformation (diskrete) ZN Fouriertransformation von {aj }j∈Z ½ ZN 7→ C a: j 7→ aj mod N : aj+N = aj 24 4.1. ALLGEMEINE EIGENSCHAFTEN [a(x), a(x + T ) = a(x)] (N ) λk = N −1 X %jk N aj j=0 −1 b| b Fouriertransformation der {ai }N , λ = Fba, Fb = FbN : (FbN )ij = %ij 0 N (FN = FN ) 1 1 FN = √ Fb wobei (FN )ij = √ %ij N N N √ Hierbei gilt FbN† FbN = N 1N bzw. FN† FN = 1N = FN FN† . Außerdem ist λ = ( N F )a. Für den Fall N = 4 gilt: 1 0 0 0 0 0 0 1 F42 = 0 0 1 0 = P 0 1 2 3 = P(13) 0 3 2 1 0 1 0 0 Man stellt fest, dass F44 = 14 ist. Allgemein gilt: FN2 = P 0 1 0 N1 2 N −2 ... ... N − 1 1 = P((1,N −1)(2,N −2)...) ¡N ¢ 2 − 1, N2 + 1 für N gerade ¡ N −1 für N ungerade 2 , N2+1 ¢ Auch allgemein ist FN4 = 1N . FN ist unitär und besitzt Eigenwerte, die der Gleichung λ4 = 1 genügen, also {+1, −1, +i, −i}. Die Umkehrung der Transformation ist gegeben durch: 1 1 √ a = √ FN∗ λ = ( N FN−1 )λ wobei FN∗ = FN† = FN−1 N N Darüber hinaus besitzt die Parsevalsche Gleichung ihre Gültigkeit: a† a = 1 1 † λ FN FN−1 λ = λ† λ N N Beispielsweise 0 % 1 %0 F4 = √ 0 4 % %0 gilt: %0 %1 %2 %3 %0 %2 %4 %6 %0 1 1 1 %14 %3 = %6 1 1 %8 1 %24 1 µ ¶ %34 mit %4 = exp 2πi 4 Die 3 × 3-Untermatrix (ohne die Einsen) ist vom Typ einer Vandermondeschen Matrix: 0 . . . x0N −1 x01 x0 x10 x21 . . . x1N −1 i (VN )ij = xj : .. .. .. = VN (x0 , x1 , . . . , xN −1 ) .. . . . . N −1 N −1 N −1 x0 x1 . . . xN −1 −1 FN = VN [%0 = 1, %1N , . . . , %N ] N Die Determinante einer solchen Vandermondeschen Matrix ist von folgender Gestalt (Rekursionsformel): Y det(VN ) = (xN −1 − xN −2 ) · (xN −1 − xN −3 ) · . . . · (xN −1 − x0 ) det(VN −1 ) ⇒ det(VN ) = (xj − xi ) N −1≥j≥i≥0 Zum Beweis der Rekursionsformel schauen wir uns den Fall N = 3 an: 1 1 1 det(V3 ) = det x0 x1 x2 = (−1)3−1 (x0 − x2 ) · (x1 − x2 ) x20 x21 x22 25 KAPITEL 4. ZIRKULANTE MATRIZEN (ZIRKULÄRE MATRIZEN) f.) Diagonalisiere CN : † † CN ist normal, hat also die Eigenschaft CN CN = CN CN . Nach einem mathematischen Satz lässt sich jede normale Matrix unitär diagonalisieren. Als Übung kann man X X ! ai−j a∗k−j = a∗j−i aj−k j j zeigen und zwar durch Umbenennen der Indizes. b †M U b = D, U b †U b =1=U bU b † mit M † M = M M † U bN = U bN DN . b hat in Spalten die orthonormierten Eigenvektoren von M . Hier gilt CN U U X ai−j %−jk = N X j0 j X 0 1 −(i−j 0 )k 1 a j √ %N = √ %−ik aj 0 %jNk N N j0 bN = F −1 = F † = FN∗ U N N b DU b †. i.) Die Spektralzerlegung der CN ist Zk [M ], falls M = U (N ) (Zk [CN ])ij = (Pk )ij = 1 −k(i−j) % mit k = 0, . . . , N − 1 N N (N ) Als Übung kann man die Projektionseigenschaften von Pk Zirkulante mit den Eigenwerten (λk )l = δkl . (N ) zeigen. Jedes Pk ist außerdem eine ii.) Jede Diagonalmatrix ist unitär äquivalent zu einer Zirkulante. g.) Faltungen (Konvolutionen): −1 −1 {aj }N mit {bj }N gefaltet, führt auf: 0 0 (a ⊗ b)j = N −1 X ak bj−k = k=0 λ= √ N −1 X bk aj−k = (b ⊗ a)i k=0 N F a, µ = √ N F b, ν = λµ (νi = λi µi ) √ Hieraus ergibt sich ν = N F c mit c = a ⊗ b, was als Übung gezeigt werden kann. Die Faltung ist assoziativ: (a ⊗ b) ⊗ c = a ⊗ (b ⊗ c) Beispiel: Wir betrachten a0 C3 [a0 , a2 , a1 ] = a1 a2 a2 a0 a1 a1 a2 a0 det(C3 ) = a30 + a31 + a32 − 3a0 a1 a2 = (a0 + a1 + a2 )(a0 + a1 %13 + a2 %23 )(a0 + a1 %23 + a2 %43 ) 26