Zufällige Matrizen – Eine Einführung – Jan Nagel Ruhr-Universität Bochum 21. Januar 2010 1 / 61 Prolog Wir betrachten Zufallsvariablen, welche Werte X ∈ Kn×n annehmen, K ∈ {R, C, H}. Dabei beschränken wir uns auf selbstadjungierte Matrizen X ∗ = X . Wir werden sehen, dass das eigentliches Interesse dabei der Verteilung der Eigenwerte einer zufälligen Matrix X gilt. Spektralsatz: Es sei X ∈ Kn×n eine Matrix mit X ∗ = X , dann existiert eine Matrix U ∈ Kn×n mit UU ∗ = I , so dass gilt UXU ∗ = Λ, wobei Λ eine reelle Diagonalmatrix ist, welche die Eigenwerte von X enthält. 2 / 61 Übersicht 1 Beispiele 2 Verteilung der Eigenwerte 3 Asymptotische Eigenwertverteilung 4 Freie Wahrscheinlichkeitstheorie 3 / 61 Beispiele ZM in der Physik 1 Beispiele ZM in der Physik Untersucht wird ein quantenmechanisches System, dessen mögliche Zustände ψ einen Hilbertraum H bilden (H ∈ {Rn , Cn , Hn }). Wir interagieren mit dem System durch einen linearen Operator H : H −→ H. Problem: Wir kennen weder H, noch können wir ψ oder Hψ beobachten. Beobachtbar sind die Eigenwerte λ1 , . . . , λn von H. 4 / 61 Beispiele ZM in der Physik Wie können wir Aussagen über H bzw. die Eigenwerte von H treffen, wenn wir den Operator nicht kennen? Der Wahrscheinlichkeitstheoretische Ansatz betrachtet die Einträge von H als Zufallsvariablen. Aus den physikalischen Anforderungen an H folgt: H∗ = H Die reellen Einträge von H sind stochastisch unabhängig (unter Berücksichtigung der Symmetriebedingung). Die reellen Einträge von H sind normalverteilt mit Erwartungswert 0 und Varianz 1 auf der Diagonalen und 1/2 außerhalb der Diagonalen, d.h. (K = R) Hii ∼ N (0, 1), Hij ∼ N (0, 1/2) (i < j) (K = C) Hii ∼ N (0, 1), Hij ∼ N (0, 1/2) + iN (0, 1/2) (i < j) 5 / 61 Beispiele ZM in der Physik Unter der Dichte einer zufälligen selbstadjungierten Matrix X verstehen wir die Dichte bezüglich (Q Q n dXii i<j dXij ,K = R dX = Qi=1 Q n dX dRe(X )dIm(X ) ,K = C ii ij ij i=1 i<j d.h. die gemeinsame Dichte aller unabhängigen reellen Einträge. Die Dichte unseres Quantenmechanischen Operators H mit normalverteilten Einträgen ist damit P P 2 exp − 1 n Xii2 − ,K = R i=1 i<j Xij 2 f (X ) ∝ exp − 1 Pn Xii2 − P Re(Xij )2 + Im(Xij )2 ,K = C i=1 i<j 2 =exp − 21 tr X 2 . Die Verteilung mit Dichte f heißt Gaußsches Ensemble (GE ). 6 / 61 Beispiele ZM in der Physik Histogramm der Eigenwerte des reellen GE (n = 50, 100 Widerholungen) 7 / 61 Beispiele ZM in der Physik Histogramm der Eigenwerte des reellen GE (n = 500, 100 Widerholungen) 8 / 61 Beispiele ZM in der Statistik I ZM in der Statistik I: Der Kovarianzschätzer Wir beobachten unabhängige multivariat normalverteilte Datenvektoren x1 , . . . , xm ∼ Nn (0, Σ) (m ≥ n), und schätzen die Kovarianzmatrix Σ durch W = m X xi xiT = XX T ∈ Rn×n mit X = (x1 | . . . |xm ) ∈ Rn×m i=1 Wishart zeigte 1928, dass die Dichte von W für Σ = I die Form f (W ) ∝ det W a exp − 12 tr W I {W > 0} besitzt, mit a = 21 (m − n − 1). Die Verteilung von W heißt Wishart Ensemble (WE ) mit Parameter a. Viele Teststatistiken basieren auf den Eigenwerten λ1 , . . . , λn von W , z.B.: det W =λ1 . . . λn q √ ||W ||F = tr W 2 = λ21 + · · · + λ2n Wie sieht also die Verteilung der Eigenwerte aus? 9 / 61 Beispiele ZM in der Statistik I Histogramm der Eigenwerte des reellen WE (n = 50, a = 10, 100 Widerholungen) 10 / 61 Beispiele ZM in der Statistik I Histogramm der Eigenwerte des reellen WE (n = 200, a = 10, 100 Widerholungen) 11 / 61 Beispiele ZM in der Statistik II ZM in der Statistik II: MANOVA Es seien yij ∼ Nn (µi , Σ), 1 ≤ i ≤ k, 1 ≤ j ≤ mi unabhängig, dann testet die multivariate Varianzanalyse die Hypothese H0 : µ1 = · · · = µk . Als Basis für die Teststatistik dienen die Matrizen F =W −1/2 BW −1/2 , J =(W + B)−1/2 B(W + B)−1/2 , dabei sind B und W unabhängige Schätzer für Σ und verteilt bezüglich dem Wishart Ensemble. Beliebte Teststatistiken sind z.B. Pillai’s trace : tr J, Wilk’s lambda : det J, welche wieder eine Funktion der Eigenwerte sind. Die Verteilung der zufälligen Matrix J besitzt die Dichte f (X ) ∝ det X a det(I − X )b I {0 < X < I } und heißt Jacobi Ensemble (JE ) mit Parametern a = 21 (k − n − 1), b = 12 (m − k − n). 12 / 61 Beispiele ZM in der Statistik II Histogramm der Eigenwerte des reellen JE (n = 50, a = b = 10, 100 Widerholungen) 13 / 61 Beispiele ZM in der Statistik II Histogramm der Eigenwerte des reellen JE (n = 200, a = b = 10, 100 Widerholungen) 14 / 61 Beispiele ZM in der Statistik II Diese drei Ensembles sind die zentralen Verteilungen in der Theorie zufälliger Matrizen: GE f (X ) ∝exp − 12 tr X 2 WE f (X ) ∝ det X a exp − 21 tr X I {X > 0} JE f (X ) ∝ det X a det(I − X )b I {0 < X < I } Die Dichten dieser Ensembles besitzen die Invarianzeigenschaft f (X ) = f (UXU ∗ ), falls UU ∗ = I . Es gilt damit sogar X ∼ f =⇒ UXU ∗ ∼ f . Die Verteilungen sind abhängig von dem zusätzlichen Parameter β = dimR K. Bei den meisten Anwendungen gilt das Hauptinteresse den Eigenwerten. 15 / 61 Verteilung der Eigenwerte Die Eigenwertdichte 2 Verteilung der Eigenwerte Satz: Es sei X = X ∗ ∈ Kn×n eine zufällige Matrix mit Dichte f . Gilt f (UXU ∗ ) = f (X ) für alle Matrizen U mit UU ∗ = I , dann besitzen die Eigenwerte λ1 , . . . , λn von X die gemeinsame Dichte g (λ) = c|∆(λ)|β f (Λ), Q mit Λ = diag (λ1 , . . . , λn ), ∆(λ) = i<j (λj − λi ) (Vandermonde-Determinante) und β = dimR K. Beweis: (nur K = R). Nach dem Spektralsatz ist X = UΛU T mit U orthogonal und die Abbildung X 7→ (U, Λ) ist wohldefiniert, wenn wir voraussetzen, dass die Eigenwerte λ1 < · · · < λn geordnet sind und U positive Phasen besitzt. Es bezeichne p1 , . . . , pm die unabhängigen Einträge von U (Beachte: n + m = n + 21 n(n − 1) = 12 n(n + 1)). Dann gilt Z g (λ) = f (UΛU ∗ )| det J(p, λ)|dp mit J(p, λ) = 1 1 ∂(x11 , . . . , xnn , x12 , . . . , xn−1,n ) ∈ R 2 n(n+1)× 2 n(n+1) . ∂(λ1 , . . . , λn , p1 , . . . pm ) 16 / 61 Verteilung der Eigenwerte Die Eigenwertdichte ∂U T ∂U U U = I =⇒ U + UT =0 ∂pr ∂pr ∂M = ∂x T ∂Mij ∂x ! , ij ∂U die Matrix S (r ) = U T ∂p ist also schiefsymmetrisch. r ∂U ∂U T ∂X ∂X = ΛU T + UΛ =⇒ U T U = S (r ) Λ − ΛS (r ) , ∂pr ∂pr ∂pr ∂pr ∂X (r ) (U T U)αβ = Sαβ (λβ − λα ) ∂pr Analog erhalten wir: UT ∂Λ ∂X ∂X U= =⇒ (U T U)αβ = δαβ δαs ∂λs ∂λs ∂λs Die Jacobimatrix J(λ, p) besitzt die Struktur T ∂Xjj ∂λs J(λ, p) = ∂Xjj sj ∂pr rj ∂Xij ∂λs ∂Xij ∂pr s,i<j . r ,i<j 17 / 61 Verteilung der Eigenwerte Die Eigenwertdichte Wir definieren nun die Matrix V = (Ujα Ujβ )j,α≤β 2(Ujα Uiβ )i<j,α≤β , dann gilt ∂X (U T ∂λ U)αβ (δαβ δαs )s,α≤β s s,α≤β = J(λ, p) V = T ∂X . (r ) (Sαβ (λβ − λα ))r ,α≤β (U ∂pr U)αβ T r ,α≤β Y (δαβ δαs )s,α≤β =⇒ det J(λ, p)T V = (λβ − λα ) · det (r ) (Sαβ )r ,α≤β α<β Es folgt det J(λ, p) = Y (λβ − λα ) · h(p). α<β 18 / 61 Verteilung der Eigenwerte Die Eigenwertdichte Aus obigem Satz erhalten wir leicht die Eigenwertdichten der Ensembles: GE : g (λ) ∝|∆(λ)|β n Y 1 2 e − 2 λi i=1 WE : g (λ) ∝|∆(λ)| n Y β 1 λai e − 2 λi I {λi > 0} i=1 JE : g (λ) ∝|∆(λ)| n Y β λai (1 − λi )b I {0 < λi < 1} i=1 Die Verteilungen sind symmetrisch in den Eigenwerten. Die Wahrscheinlichkeit, dass zwei Eigenwerte nahe beieinander liegen ist klein. Auch wenn die Einträge der Matrix stochastisch unabhängig sind, zeigen die Eigenwerte eine komplizierte Abhängigkeitsstruktur. Eigenwertdichten der Form c|∆(λ)|β n Y w (λi ) i=1 bilden den Ausgangspunkt der klassischen Theorie zufälliger Matrizen. 19 / 61 Verteilung der Eigenwerte Das Coulombgasmodell Das Coulombgasmodell Betrachte n Teilchen an den Positionen x1 , . . . xn , welche einem Potential V (x) ausgesetzt werden bei einer Temperatur T = (kβ)−1 . Die potentielle Energie der Teilchen ist dann X X Wn (x) = V (xi ) − β log |xi − xj |. i i<j Die Wahrscheinlichkeitsdichte der Teichen im themodynamischen Gleichgewicht ist proportional zu Y Y −V (x ) i e −Wn (x) = | (λi − λj )|β e . i<j i D.h. die Teilchen verhalten sich so wie die Eigenwerte einer zufälligen Matrix. 20 / 61 Verteilung der Eigenwerte Das Coulombgasmodell Histogramm der Teilchenpositionen zum Potential V (x) = 12 x 2 für n = 4: β = 1, β = 2, β = 4 21 / 61 Verteilung der Eigenwerte Tridiagonalmodelle Die Tridiagonalmodelle Existieren Matrixmodelle mit der Eigenwertdichte der klassischen Ensembles für beliebiges β > 0? Ja: Die Eigenwerte der Tridiagonalmatrix N (0, 2) χ(n−1)β χ(n−1)β N (0, 2) 1 .. X ∼ √ . 2 χ(n−2)β .. . χ2β sind verteilt bezüglich der Dichte g (λ) ∝ |∆(λ)|β Qn i=1 .. . N (0, 2) χβ χβ N (0, 2) 1 2 e − 2 λi für alle β > 0. Für das Wishart Ensemble und das Jacobi Ensemble existieren ebenfalls reelle, tridiagonale Modelle. 22 / 61 Verteilung der Eigenwerte Tridiagonalmodelle Beweis der Tridiagonaldarstellung (nur für β = 1): Es sei X ∈ Rn×n verteilt bezüglich dem Gaußschen Ensemble, an x T X = , x Y wobei an ∼ N (0, 1), x ist ein Vektor von n − 1 unabhängigen, N (0, 1/2)-verteilten Zufallsvariabeln und Y ist eine (n − 1) × (n − 1) Matrix des GE . an , x und Y sind unabhängig. Sei nun H eine (n − 1) × (n − 1) Orthogonalmatrix (unabhängig von an , Y ) mit Hx = (||x||, 0, . . . , 0)T = ||x||e1 . Dann besitzt X dieselben Eigenwerte wie die Matrix T 1 0 1 0 an ||x||e1T an x T = , 0 H 0 H x Y ||x||e1 HYH T √ an ∼ N (0, 1), ||x|| ∼ (1/ 2)χn−1 und wegen der Invarianz des GE unter der Konjugation Y 7→ HYH T ist wieder HYH T ∼ GE . Per Induktion reduziert man nun die Matrix X durch weitere Ähnlichkeitstransformationen auf Tridiagonalgestalt. 23 / 61 Verteilung der Eigenwerte Die m-Punkt Korrelationsfunktion Die m-Punkt Korrelationsfunktion Im Folgenden seien die Eigenwerte λ1 , . . . , λn verteilt bezüglich der Dichte g (λ) = cn |∆(λ)|β n Y w (λi ), i=1 wobei für die Gewichtsfunktion w gelte Z x k w (x)dx < ∞ für alle k ∈ N. Wir definieren die m-Punkt Korrelationsfunktion durch Z n! (n) χm (λ1 , . . . , λm ) := g (λ)dλm+1 . . . dλn . (n − m)! Insbesondere interessieren wir uns für die marginale Dichte eines Eigenwerts Z 1 (n) ρ(λ1 ) = g (λ)dλ2 . . . dλn = χ1 (λ1 ). n 24 / 61 Verteilung der Eigenwerte Die m-Punkt Korrelationsfunktion Orthogonale Polynome Wir definieren auf dem Vektorraum der Polynome ein Skalarprodukt durch Z < f , g >= f (x)g (x)w (x)dx. Durch Anwendung des Gram-Schmidt-Orthonormalisierungsverfahrens erhalten wir eine Folge (pn )n≥0 von Orthonormalpolynomen bezüglich < ·, · >, d.h. < pn , pm >= δnm . Diese Polynome erfüllen eine 3-Schritt Rekursion der Form xPn (x) = an+1 pn+1 (x) + bn pn (x) + an pn−1 (x). Es gilt: Die Nullstellen eines orthogonalen Polynoms sind alle reell und liegen im Inneren des Trägers von w . Beispiel: Die Hermite Polynome (hn )n≥0 sind orthogonal bezüglich der Gewichtsfunktion 2 w (x) = e −x /2 und erfüllen die Rekursion √ √ xhn (x) = n + 1hn+1 (x) + nhn−1 (x) n ≥ 1, mit h0 (x) = (2π)−1/4 , h1 (x) = x(2π)−1/4 . 25 / 61 Verteilung der Eigenwerte Die m-Punkt Korrelationsfunktion Satz: Für β = 2 gilt χ(n) m (x1 , . . . , xm ) = det (Kn (xi , xj ))i,j≤m mit Kn (x, y ) = p P w (x)w (y ) n−1 k=0 pk (x)pk (y ). Bemerkung: Für β = 1, 4 existiert ein analoges Resultat, wobei in diesen Fällen das Skalarprodukt ersetzt wird durch Z β=4: < f , g > = (f (x)g 0 (x) − f 0 (x)g (x))w (x)dx β=1: biorthogonale Polynome ZZ < f,g > = f (x)g (y )w (x)w (y ) 21 sgn(y − x)dxdy schieforthogonale Polynome 26 / 61 Verteilung der Eigenwerte Die m-Punkt Korrelationsfunktion Beweis: det (Kn (xi , xj ))i,j≤n = det n X ! pk−1 (xi )pk−1 (xj ) p w (xi )w (xj ) k=1 = det n X i,j ! pk−1 (xi )pk−1 (xj ) = det (pj−1 (xi ))2i,j n Y w (xi ) k=1 !2 n n X Y k−1 aj,k xi w (xi ) k=1 i,j k=1 2 = det (aj,k )2j,k det xik−1 k,i = n Y w (xi ) i,j k=1 k=1 = det n Y !2 aj−1,j−1 |∆(x)|2 j=1 =(n!cn )−1 n Y w (xi ) k=1 n Y w (xi ) k=1 n Y !2 aj−1,j−1 χ(n) n (x1 , . . . , xn ) j=1 27 / 61 Verteilung der Eigenwerte Die m-Punkt Korrelationsfunktion Es gilt Z Kn (x, x)dx = Z X n−1 pk (x)2 w (x)dx = n k=0 und Z Kn (x, y )Kn (y , z)dy = X Z p p pk (x) w (x) pk (y )pl (y )w (y )dypl (z) w (z) k,l =Kn (x, z). Wir verwenden nun folgendes 2 RLemma: Es sei K : R → R eine integrierbare Funktion mit K (x, y )K (y , z)dy = K (x, z), dann ist Z det(K (xi , xj ))i,j≤k dxk = (d − k + 1) det(K (xi , xj ))i,j≤k−1 wobei d = R K (x, x)dx. 28 / 61 Verteilung der Eigenwerte Die m-Punkt Korrelationsfunktion Aus dem Lemma folgt Z det(K (xi , xj ))i,j≤n dx1 . . . dxn = n!, 1 also cn = n! !2 Y aj−1,j−1 j und Z 1 χ(n) n (x1 , . . . , xn )dxm+1 . . . dxn (n − m)! Z 1 = det(K (xi , xj ))i,j≤n dxm+1 . . . dxn = det(K (xi , xj ))i,j≤k . (n − m)! χ(n) m (x1 , . . . xm ) = Die marginale Dichte eines Eigenwerts hat damit die Form n−1 ρ(λ1 ) = X 1 1 Kn (λ1 , λ1 ) = w (λ1 ) pk (λ1 )2 . n n k=0 Für die GE WE JE klassischen Ensembles 2 w (x) = e −x /2 w (x) = x a e −x/2 w (x) = x a (1 − x)b erhalten wir wohlbekannte Polynome: Hermitepolynome Laguerrepolynome Jacobipolynome 29 / 61 Verteilung der Eigenwerte Die m-Punkt Korrelationsfunktion Die m-Punkt Korrelationsfunktion kann noch mehr! Z (n) χ1 (x)dx = nP (λ1 ∈ A) = E [#{i|λi ∈ A}] A ZZ (n) χ2 (x, y )dxdy = n(n − 1)P ((λ1 , λ2 ) ∈ B) = E [#{(i, j)|(λi , λj ) ∈ B, i 6= j}] B (n) Über χ2 lassen sich verschiedene Eigenwertstatistiken berechnen, wie z.B. die Verteilung des Abstandes zwischen zwei Eigenwerten, Rn (h) = P ( |λi − λj | < h für ein Paar i 6= j) Dyson (1970): Für die skalierten Eigenwerte λ̃k = Kn (0, 0)λk des komplexen Gaußschen Ensenbles gilt 2 Z h h i sin(πu) 1− du. E #{(i, j)|i 6= j, |λ̃i − λ̃j | < h} −−−→ n→∞ πu 0 30 / 61 Verteilung der Eigenwerte Die m-Punkt Korrelationsfunktion Die Riemannsche Zetafunktion ζ(s) = ∞ X 1 s n n=1 Re(s) > 1 Riemannsche Vermutung: Alle nichttrivialen Nullstellen der meromorphen Fortsetzung von ζ sind von der Form 1/2 + iγ, γ ∈ R. Bisher wurden nur Nullstellen 1/2 + iγ1 , . . . , 1/2 + iγn gefunden (derzeit n ≈ 1014 ). Montgomery (1970): Falls die Riemannsche Vermutung stimmt, so ist die empirische Abstandsverteilung der skalierten Nullstellen γ̃k = γk log γk /2π konvergent und 2 Z h sin(πu) 1 #{(i, j)|i 6= j, |γ̃i − γ̃j | < h} −−−→ 1− du. n→∞ n πu 0 31 / 61 Verteilung der Eigenwerte Die m-Punkt Korrelationsfunktion Dichte der asymptotischen Abstandsverteilung des GE (durchgezogene Linie) und Histogramm der Abstände von 79 Millionen skalierten Nullstellen der Zetafunktion (Punkte). 32 / 61 Asymptotische Eigenwertverteilung 3 Die Asymptotische Eigenwertverteilung Die komplizierte Abhängigkeitsstrukur zwischen den Eigenwerten mit Dichte g (λ) = cn |∆(λ)|β n Y w (λi ) i=1 verhindert die Angabe der Marginalverteilung eines Eigenwerts oder der Korrelationsfunktion in expliziter Form. In diesem Abschnitt möchten wir das asymptotische Verhalten der empirischen Eigenwertverteilung µn = n 1X δλk n k=1 für n → ∞ untersuchen. 33 / 61 Asymptotische Eigenwertverteilung Die Korrelationsfunktion Grenzwertbetrachtung der 1-Punkt Korrelationsfunktion n 1X P(λk ∈ A) = P(λ1 ∈ A) n k=1 Z n Z 1X pk−1 (x)2 w (x)dx = ρ(x)dx = n A A E [µn (A)] = k=1 Das Verhalten der orthogonalen Polynome der klassischen Ensembles ist für β = 2 bekannt und wir können den Grenzwert von E [µn (A)] bestimmen. Ist β 6= 2, so ist praktisch nichts bekannt. Wir erhalten nur die schwache Konvergenz im Erwartungswert. 34 / 61 Asymptotische Eigenwertverteilung Die Tridiagonaldarstellung Die Tridiagonaldarstellung Die Eigenwerte des GE besitzen dieselbe Verteilung wie die Eigenwerte von N (0, 2) χ(n−1)β χ(n−1)β N (0, 2) χ(n−2)β 1 . . . . . . Xn ∼ √ . . . . 2 χ2β N (0, 2) χβ χβ N (0, 2) p Idee: Die (skalierten?) Eigenwerte von 2/βXn sollten sich so verhalten wie die Eigenwerte von √ n−1 √ √ 0 n−1 0 n−2 . . . .. .. .. Cn = . √ 2 0 1 1 0 Die Eigenwerte von Cn sind die Nullstellen von rn (x) := det(xI − Cn ). 35 / 61 Asymptotische Eigenwertverteilung Die Tridiagonaldarstellung rn (x) =xrn−1 (x) − (n − 1)rn−2 (x) ⇔ xrn−1 (x) =rn (x) + (n − 1)rn−2 (x) p −1 (n − 1)! liefert die Rekursion √ √ x (dn−1 rn−1 (x)) = n (dn rn (x)) + n − 1 (dn−2 rn−2 (x)) . Erweitern mit dn−1 = Setzen wir r−1 (x) = 0, r0 (x) = (2π)−1/4 , so gilt diese Rekursion für alle n ≥ 1 und ein Vergleich mit der Rekursion der Hermitepolynome (hn )n zeigt dn rn (x) = hn (x). Die Eigenwerte von Cn sind also die Nullstellen x1 , . . . , xn von hn . Die Asymptotik der xi ist bekannt, es gilt Fnx (z) = n 1X I { √1n xk ≤ z} −−−→ Fs (z), n→∞ n k=1 wobei Fs die Verteilungsfunktion der Halbkreisverteilung ist mit Dichte 1 p fs (x) = 4 − x 2 I(−2,2) (z). 2π 36 / 61 Asymptotische Eigenwertverteilung Die Tridiagonaldarstellung Definiere die empirische Verteilungsfunktion der skalierten Eigenwerte von Xn , Fnλ (z) := n 1X q2 { nβ λk ≤ z} n k=1 und den Lévy-Abstand zweier Verteilungsfunktionen L(F , G ) = inf { > 0 : F (x − ) − ≤ G (x) ≤ F (x + ) + ∀x ∈ R} . Dann gilt L(Fnλ , Fnx )3 ≤ max | q k 2 λ nβ k − √1 xk | n (wobei die Eigenwerte und Nullstellen der Größe nach geordnet sind). Aus Weyl’s Ungleichung max |λAk − λBk | ≤ max |λA−B | k k k und der Ungleichung für den Spektralradius max |λA−B | ≤ max |Aij − Bij | k k i,j folgt dann: p 1 L(Fnλ , Fnx )3 ≤ √ max | 2/β(Xn )i,j − (Cn )i,j | i,j n 37 / 61 Asymptotische Eigenwertverteilung Die Tridiagonaldarstellung p √ ⇒ P L(Fnλ , Fnx )3 > ≤P max | 2/β(Xn )i,j − (Cn )i,j | > n i,j ≤ n X n−1 √ √ X √ P |Nk | > n + P |Zkβ − k| > n k=1 k=1 p mit Nk ∼ N (0, 2/β), Zkβ ∼ 2/β χkβ unabhängig. Mit der Markovungleichung leitet man die folgenden Ungleichungen her: √ 2 2 P(|Nk | > n) ≤e −nβ /2 p √ 2 2 P(|Zkβ − kβ| > n) ≤2e −nβ Die Wahrscheinlichkeit 2 2 2 2 P L(Fnλ , Fnx )3 > ≤ ne −nβ /2 + 2(n − 1)e −nβ fällt damit exponentiell schnell ab und nach dem Lemma von Borel-Cantelli gilt f .s. L(Fnλ , Fnx ) −−−→ 0 n→∞ f .s. =⇒ L(Fnλ , Fs ) ≤ L(Fnλ , Fnx ) + L(Fnx , Fs ) −−−→ 0 n→∞ 38 / 61 Asymptotische Eigenwertverteilung Die Tridiagonaldarstellung Satz: Es seien λ1 , . . . , λn die Eigenwerte des Gaußschen Ensembles. Dann konvergiert die empirische Verteilung µn der skalierten Eigenwerte r 2 λ̃k = λk βn fast sicher schwach gegen die Halbkreisverteilung. Dichte der Halbkreisverteilung und Histogramm der skalierten Eigenwerte von Xn ∼ GEn (n=1000). 39 / 61 Asymptotische Eigenwertverteilung Die Tridiagonaldarstellung Satz: Es seien λ1 , . . . , λn die Eigenwerte des Wishart Ensembles. Dann konvergiert die empirische Verteilung µn der skalierten Eigenwerte 1 λ̃k = √ λk βn fast sicher schwach gegen die Marchenko-Pastur-Verteilung mit Dichte p x(4 − x) I(0,4) (x). fmp (x) = 2πx Dichte der M-P-Verteilung und Histogramm der skalierten Eigenwerte von Xn ∼ WEn (n=1000). 40 / 61 Asymptotische Eigenwertverteilung Die Tridiagonaldarstellung Satz: Die empirische Verteilung µn der Eigenwerte des Jacobi Ensembles konvergiert fast sicher schwach gegen die Arcussinusverteilung mit Dichte fa (x) = 1 p I(0,1) (x). π x(1 − x) Dichte der Arcussinusverteilung und Histogramm der Eigenwerte von Xn ∼ JEn (n=1000). 41 / 61 Asymptotische Eigenwertverteilung Momentenmethode Die Momentenmethode Satz: Es seien µ, µ1 , µ2 , . . . W-Maße mit Z Z x k dµn (x) −−−→ x k dµ(x) n→∞ ∀ k ∈ N. Ist µ durch seine Momente eindeutig bestimmt, so konvergiert µn schwach gegen µ. Ein hinreichendes Kriterium dafür, dass ein W-Maß durch seine Momentenfolge m0 , m1 , . . . eindeutig bestimmt ist, liefert Carlemans Bedingung: n X − 1 m2k 2k = ∞. k=0 Dies gilt für alle Maße mit kompaktem Träger, aber z.B. auch für die Normalverteilung. 42 / 61 Asymptotische Eigenwertverteilung Momentenmethode Ist µn die empirische Eigenwertverteilung einer zufällige Matrix Xn , so ist Z 1 1 x k dµk (x) = (λk1 + · · · + λkn ) = tr X k . n n Wigner zeigte 1955 für Xn ∼ GEn die Konvergenz Z 2 1 1 p f .s. k 1 √ 4 − x 2 dx. tr( n Xn ) −−−→ xk n→∞ n 2π −2 Wigners Vermutung: Ist Xn eine zufällige symmetrische Matrix mit unabhängigen Einträgen auf und oberhalb der Diagonalen und sind die Einträge zentriert mit Varianz 1/n bzw. 1/2n, dann konvergiert µn fast sicher schwach gegen die Halbkreisverteilung. Bemerkung 1: Unter der zusätzlichen Bedingung max E [|Xij |4 ] ≤ κ i,j für ein κ ∈ R gilt Wigners Vermutung. 43 / 61 Asymptotische Eigenwertverteilung Momentenmethode Bemerkung 2: Das 2k-te Moment der Halbkreisverteilung Z x 2k 1 p 1 2k 4 − x 2 dx = 2π k +1 k ! ist die k-te Catalanzahl ck . Es ist ck die Zahl der Pfade in Z2 von (0, 0) nach (0, 2k), wobei der Pfad nur Schritte der Form (1, 1) oder (1, −1) macht und nicht unterhalb der x-Achse verläuft (ein solcher Pfad heißt Catalanpfad). Die Catalanpfade für k = 3: 44 / 61 Freie Wahrscheinlichkeitstheorie 4 Freie Wahrscheinlichkeitstheorie Die freie Wahrscheinlichkeitstheorie wurde um 1986 von Voiculescu eingeführt um Algebren von allgemeinen nichtkommutativen Operatoren zu untersuchen. Seit den 90ern wird sein Ansatz verwendet, um die folgende Frage in der Theorie zufälliger Matrizen zu beantworten: Gegeben zufällige Matrizen A, B mit bekannten asymptotischen Eigenwertverteilungen, was ist die asymptotische Eigenwertverteilung von A + B? 45 / 61 Freie Wahrscheinlichkeitstheorie Der freie Wahrscheinlichkeitsraum Der freie Wahrscheinlichkeitsraum Ein freier Wahrscheinlichkeitsraum ist ein Tupel (A, ϕ) aus einer Algebra A (über R) und einem R-linearen Funktional ϕ : A −→ R mit (1) ϕ(1) = 1, (2) ϕ(AB) = ϕ(BA). Die Elemente A ∈ A heißen Zufallsvariablen, für k ∈ N heißt ϕ(Ak ) k-tes Moment von A. Als Verteilung von A bezeichnen wir die Folge (ϕ(Ak ))k . D Eine Folge (AN )N ⊂ A konvergiert in Verteilung gegen A (AN −−−→ A), wenn gilt n→∞ ϕ(AkN ) −−−−→ ϕ(Ak ) N→∞ ∀k≥0 46 / 61 Freie Wahrscheinlichkeitstheorie Der freie Wahrscheinlichkeitsraum Freie W-Theorie und ZM Setze A := {(Xn )n |(Xn )n Folge symmetrischer zufälliger n × n Matrizen s.d. µn konvergiert} Zusammen mit dem Funktional ϕ((Xn )n ) := lim n→∞ 1 tr E [Xn ] n (sofern der Limes existiert) erhalten wir einen freien W-Raum (A, ϕ). Die Verteilung einer Folge X = (Xn )n ist die Folge der Momente 1 1 tr E [Xnk ] = lim E [λk1 + · · · + λkn ] ϕ(X k ) =ϕ((Xnk )n ) = lim n→∞ n n→∞ n Z = lim E x k dµn (x) . n→∞ Die Verteilung von X ∈ A ist damit die Folge der Momente des Grenzwerts von µn . Ist X = ( √1n Xn )n eine Folge von skalierten Matrizen des GE , so bedeutet das klassische Resultat von Wigner gerade ϕ(X 2k ) = ck , ϕ(X 2k+1 ) = 0. Wir schreiben in diesem Fall X ∼ s. 47 / 61 Freie Wahrscheinlichkeitstheorie Freie Zufallsvariabeln Freie Zufallsvariablen Eine Familie von Zufallsvariabeln (Ai )I ⊂ A aus (A, ϕ) heißt frei, falls ϕ(p1 (Ai(1) ) . . . pm (Ai(m) )) = 0 für alle Polynome p1 , . . . , pm mit ϕ(pj (Ai(j) )) = 0 und Indexmenge i(1) 6= i(2) 6= · · · 6= i(m). Sind A, B frei, lassen sich alle gemischten Momente aus den Momenten von A und B errechnen: 0 = ϕ (A − ϕ(A) · 1)(B − ϕ(B) · 1) = ϕ(AB) − ϕ(A)ϕ(B) also ϕ(AB) = ϕ(A)ϕ(B). Ebenso erhält man aus ϕ (A − ϕ(A) · 1)(B − ϕ(B) · 1)(A − ϕ(A) · 1)(B − ϕ(B) · 1) = 0 die Identität ϕ(ABAB) = ϕ(AA)ϕ(B)ϕ(B) + ϕ(A)ϕ(A)ϕ(BB) − ϕ(A)ϕ(B)ϕ(A)ϕ(B). 48 / 61 Freie Wahrscheinlichkeitstheorie Freie Zufallsvariabeln Freiheit und stochastische Unabhängigkeit Stochastisch unabhängige Matrizen sind i.A. nicht frei! Sind x1 , x2 reelle, unabhängige ZV mit E [xi ] = 0, E [xi2 ] > 0, dann sind A = (x1 In )n und B = (x2 In )n nicht frei: ϕ(ABAB) = ϕ(A2 B 2 ) = ϕ(A2 )ϕ(B 2 ) = E [x12 ]E [x22 ] > 0 Freie ZV sind i.A. nicht stochastisch unabhängig! Wenn Xn , Yn ∼ GEn unabhängige Matrizen sind und Zn die Matrix, die man erhält, wenn eine Untermatrix fester Größe von Yn durch die entsprechende Untermatrix von Xn ersetzt wird, so sind √1 Xn √1 Zn und n n n n frei, aber nicht stochastisch unabhängig. 49 / 61 Freie Wahrscheinlichkeitstheorie Freie Zufallsvariabeln Warum Freiheit? Um die Verteilung von A + B zu bestimmen müssen wir die Momente ϕ((A + B)k ) berechnen. Sind A, B stochastisch unabhängig, erhalten wir zwar ϕ(Ar B s ) = ϕ(Ar )ϕ(B s ) nicht jedoch ϕ(ABAB). Sind A, B frei, lassen sich alle gemischten Momente durch die von A und B ausdrücken. Ist O = (On )n eine feste Folge orthogonaler (unitärer) Matrizen, dann ist die Verteilung von A dieselbe wie die von OAO ∗ , die Verteilung von A + B stimmt allerdings nicht mehr überein mit der von OAO ∗ + B. Sind A, B frei, so gilt dies i.A. nicht mehr für OAO ∗ und B. 50 / 61 Freie Wahrscheinlichkeitstheorie Freie Zufallsvariabeln Die guten Nachrichten: Sind A, B stochastisch unabhängig und O = (On )n eine Folge von Matrizen, die bezüglich des Haarmaßes auf der Orthogonalen Gruppe verteilt sind, dann sind A und OBO ∗ frei. Stochastisch unabhängige Matrizen der klassischen Ensemble sind frei. 51 / 61 Freie Wahrscheinlichkeitstheorie Der freie ZGWS Der freie zentrale Grenzwertsatz Es sei A1 , A2 , . . . eine Folge freier ZV aus (A, ϕ) mit identischer Verteilung und ϕ(A1 ) = 0, ϕ(A21 ) = 1. Dann gilt 1 D √ (A1 + · · · + AN ) −−−−→ s. N→∞ N Beweis: ϕ (A1 + · · · + AN )k = X ϕ(Ar1 . . . Ark ) 1≤r1 ,...,rk ≤N Da alle ZV identisch verteilt sind, ist ϕ(Ar1 . . . Ark ) = ϕ(Ap1 . . . Apk ) falls gilt ri = rj ⇐⇒ pi = pj ∀ 1 ≤ i, j ≤ k. Der Wert von ϕ(Ar1 . . . Ark ) hängt also nur davon ab, welche Indizes übereinstimmen. 52 / 61 Freie Wahrscheinlichkeitstheorie Der freie ZGWS Wir beschreiben die Information, welche Indizes übereinstimmen wie folgt durch eine Partition π = {V1 , . . . , Vs } der Menge {1, . . . , k}: ri = rj ⇐⇒ i, j ∈ Vm für ein m ∧ und schreiben in diesem Fall (r1 , . . . rk ) = π. Es bezeichne in diesem Fall kπ der Wert von ϕ(Ar1 . . . Ark ). Beispielsweise ist ϕ(A1 A2 A1 A1 A2 A3 ) = ϕ(A5 A2 A5 A5 A2 A7 ) = k{(1,3,4),(2,5),(6)} Dann gilt X ϕ (A1 + · · · + AN )k = kπ AN π, π wobei ∧ ANπ =#{(r1 , . . . rk )|π = (r1 , . . . rk )} =N(N − 1) . . . (N − |π| + 1). =⇒ lim ϕ N→∞ 1 √ (A1 + · · · + AN )k N = lim X = lim X N→∞ N→∞ N −k/2 kπ AN π π N |π|−k/2 kπ π 53 / 61 Freie Wahrscheinlichkeitstheorie Der freie ZGWS Da die Ai zentriert und frei sind, tragen Partitionen π = {V1 , . . . Vs } mit #Vq = 1 für ein q nicht zur Summe bei. Wir betrachten also nur Partitionen π mit |π| ≤ k/2. Partitionen mit |π| < k/2 spielen im Grenzwert ebenfalls keine Rolle und wir können uns auf Paarpartitionen (|π| = k/2) beschränken. =⇒ lim ϕ N→∞ 1 √ (A1 + · · · + AN )k N X = lim N→∞ π kπ Paarpartition Insbesondere verschwinden die ungeraden Momente im Grenzwert. 54 / 61 Freie Wahrscheinlichkeitstheorie Der freie ZGWS Exkurs: Der kommutative Fall Wir betrachten kurz unabhängige, kommutative Zufallsvariablen, dann faktorisiert kπ in ein Produkt zweiter Momente, also kπ = 1 und 1 k lim ϕ √ (A1 + · · · + AN ) =# { Paarpartitionen von {1, . . . , k}} N→∞ N ( 0 k ungerade = (k − 1)(k − 3) · · · · · 3 · 1 k gerade Z 2 1 √ = t k e −t /2 dt. 2π Satz: Sind A1 , A2 , . . . kommutative i.i.d. Zufallsvariabeln mit ϕ(A1 ) = 0, ϕ(A21 ) = 1, dann gilt 1 D √ (A1 + · · · + AN ) −−−−→ N (0, 1) N→∞ N 55 / 61 Freie Wahrscheinlichkeitstheorie Der freie ZGWS Zurück zum freien Fall: Für eine Paarpartition π gibt es die folgenden Möglichkeiten: (1) Aufeinanderfolgende Indizes sind verschieden: r1 6= r2 6= · · · 6= rk , dann gilt wegen ϕ(Ari ) = 0 kπ = ϕ(Ar1 . . . Ark ) = 0. (2) Zwei aufeinanderfolgende Indizes stimmen überein, ri = ri+1 = r , dann ist Ari Ari+1 = A2r frei von allen anderen Faktoren und ϕ(Ar1 . . . Ari Ari+1 . . . Ark ) =ϕ(Ari Ari+1 Ari+2 . . . Ark Ar1 . . . Ari−1 ) =ϕ(A2r )ϕ(Ari+2 . . . Ari−1 ) = ϕ(Ari+2 . . . Ari−1 ). Gilt (2), erhalten wir eine kürzere Partition, auf die wir erneut die Fallunterscheidung anwenden können. Für den Grenzwert spielen nur die Partitionen eine Rolle, bei denen in jedem Reduktionsschritt der Fall (2) eintritt. 56 / 61 Freie Wahrscheinlichkeitstheorie Der freie ZGWS Partitionen, welche nicht vollständig wie in (2) aufgelößt werden können, sind genau die für die gilt ∃ p1 < q1 < p2 < q2 : p1 ist gepaart mit p2 und q1 mit q2 . Wir bezeichnen solche Partitionen als kreuzend, sonst als nichtkreuzend. Beispielsweise ist nichtkreuzend, wohingegen kreuzend ist. =⇒ lim ϕ N→∞ 1 √ (A1 + · · · + AN )2k N = dk wobei dk = #{π|π ist nichtkreuzende Paarpartition von {1, . . . 2k}}. 57 / 61 Freie Wahrscheinlichkeitstheorie Der freie ZGWS Die ersten Werte von dk sind: d1 = 1 d2 = 2 d3 = 5 58 / 61 Freie Wahrscheinlichkeitstheorie Der freie ZGWS Lemma: Die Zahl dk von nichtkreuzenden Paarpartitionen der Menge {1, . . . , 2k} ist die k-te Catalanzahl ck . Beweis: Wir identifizieren eine nichtkreuzende Paarpartition π folgendermaßen mit einem Catalanpfad c(π) der Länge 2k: Der Pfad c(π) bewegt sich im i-ten Schritt nach oben, falls i durch π mit einer Zahl j > i gepaart wird, sonst nach unten. Beispiel: c ist eine bijektive Abbildung von der Menge aller nichtkreuzenden Partitionen von {1, . . . , 2k} in die Menge aller Catalanpfade der Länge 2k. 59 / 61 Freie Wahrscheinlichkeitstheorie Der freie ZGWS Wir haben damit gezeigt: lim ϕ N→∞ 1 √ (A1 + · · · + AN )k N ( 0 = ck/2 k ungerade k gerade =ϕ(X k ) mit X ∼ s. 60 / 61 Literatur M. L. Mehta (2004). Random Matrices. Elsevier Academic Press, Amsterdam. A. M. Tulino, S. Verdu (2004). Random Matrix Theory and Wireless Communications. now Publishers, Hanover. P. Deift (2000). Orthogonal Polynomials and Random Matrices: A Riemann-Hilbert Approach. Courant Institute, New York. Z. D. Bai (1999). Methodologies in spectral analysis of large dimensional random matrices, a review. Statist. Sinica, 9, pp. 611–677. I. Dumitriu and A. Edelman (2002). Matrix models for beta-ensembles. J. Math. Phys., 43, pp. 5830–5847. H. Dette and L. A. Imhof (2007). Uniform approximation of eigenvalues in Laguerre and Hermite β-ensembles by roots of orthogonal polynomials. Trans. Amer. Math. Soc., 359, pp. 4999–5018. A. Nica, R. Speicher (2006). Lectures on the combinatorics of free probability. Cambridge University Press, Cambridge. 61 / 61