Zufällige Matrizen - -- Eine Einführung - Ruhr

Werbung
Zufällige Matrizen
– Eine Einführung –
Jan Nagel
Ruhr-Universität Bochum
21. Januar 2010
1 / 61
Prolog
Wir betrachten Zufallsvariablen, welche Werte X ∈ Kn×n annehmen, K ∈ {R, C, H}.
Dabei beschränken wir uns auf selbstadjungierte Matrizen X ∗ = X . Wir werden sehen,
dass das eigentliches Interesse dabei der Verteilung der Eigenwerte einer zufälligen Matrix
X gilt.
Spektralsatz: Es sei X ∈ Kn×n eine Matrix mit X ∗ = X , dann existiert eine Matrix
U ∈ Kn×n mit UU ∗ = I , so dass gilt
UXU ∗ = Λ,
wobei Λ eine reelle Diagonalmatrix ist, welche die Eigenwerte von X enthält.
2 / 61
Übersicht
1
Beispiele
2
Verteilung der Eigenwerte
3
Asymptotische Eigenwertverteilung
4
Freie Wahrscheinlichkeitstheorie
3 / 61
Beispiele
ZM in der Physik
1 Beispiele
ZM in der Physik
Untersucht wird ein quantenmechanisches System, dessen mögliche Zustände ψ einen
Hilbertraum H bilden (H ∈ {Rn , Cn , Hn }). Wir interagieren mit dem System durch einen
linearen Operator
H : H −→ H.
Problem: Wir kennen weder H, noch können wir ψ oder Hψ beobachten.
Beobachtbar sind die Eigenwerte λ1 , . . . , λn von H.
4 / 61
Beispiele
ZM in der Physik
Wie können wir Aussagen über H bzw. die Eigenwerte von H treffen, wenn wir den
Operator nicht kennen?
Der Wahrscheinlichkeitstheoretische Ansatz betrachtet die Einträge von H als
Zufallsvariablen. Aus den physikalischen Anforderungen an H folgt:
H∗ = H
Die reellen Einträge von H sind stochastisch unabhängig (unter Berücksichtigung
der Symmetriebedingung).
Die reellen Einträge von H sind normalverteilt mit Erwartungswert 0 und Varianz 1
auf der Diagonalen und 1/2 außerhalb der Diagonalen, d.h.
(K = R)
Hii ∼ N (0, 1),
Hij ∼ N (0, 1/2) (i < j)
(K = C)
Hii ∼ N (0, 1),
Hij ∼ N (0, 1/2) + iN (0, 1/2) (i < j)
5 / 61
Beispiele
ZM in der Physik
Unter der Dichte einer zufälligen selbstadjungierten Matrix X verstehen wir die Dichte
bezüglich
(Q
Q
n
dXii i<j dXij
,K = R
dX = Qi=1
Q
n
dX
dRe(X
)dIm(X
)
,K = C
ii
ij
ij
i=1
i<j
d.h. die gemeinsame Dichte aller unabhängigen reellen Einträge. Die Dichte unseres
Quantenmechanischen Operators H mit normalverteilten Einträgen ist damit

P
P
2
exp − 1 n Xii2 −
,K = R
i=1
i<j Xij
2
f (X ) ∝
exp − 1 Pn Xii2 − P Re(Xij )2 + Im(Xij )2
,K = C
i=1
i<j
2
=exp − 21 tr X 2 .
Die Verteilung mit Dichte f heißt Gaußsches Ensemble (GE ).
6 / 61
Beispiele
ZM in der Physik
Histogramm der Eigenwerte des reellen GE (n = 50, 100 Widerholungen)
7 / 61
Beispiele
ZM in der Physik
Histogramm der Eigenwerte des reellen GE (n = 500, 100 Widerholungen)
8 / 61
Beispiele
ZM in der Statistik I
ZM in der Statistik I: Der Kovarianzschätzer
Wir beobachten unabhängige multivariat normalverteilte Datenvektoren
x1 , . . . , xm ∼ Nn (0, Σ) (m ≥ n), und schätzen die Kovarianzmatrix Σ durch
W =
m
X
xi xiT = XX T ∈ Rn×n
mit X = (x1 | . . . |xm ) ∈ Rn×m
i=1
Wishart zeigte 1928, dass die Dichte von W für Σ = I die Form
f (W ) ∝ det W a exp − 12 tr W I {W > 0}
besitzt, mit a = 21 (m − n − 1). Die Verteilung von W heißt Wishart Ensemble (WE ) mit
Parameter a.
Viele Teststatistiken basieren auf den Eigenwerten λ1 , . . . , λn von W , z.B.:
det W =λ1 . . . λn
q
√
||W ||F = tr W 2 = λ21 + · · · + λ2n
Wie sieht also die Verteilung der Eigenwerte aus?
9 / 61
Beispiele
ZM in der Statistik I
Histogramm der Eigenwerte des reellen WE (n = 50, a = 10, 100
Widerholungen)
10 / 61
Beispiele
ZM in der Statistik I
Histogramm der Eigenwerte des reellen WE (n = 200, a = 10, 100
Widerholungen)
11 / 61
Beispiele
ZM in der Statistik II
ZM in der Statistik II: MANOVA
Es seien yij ∼ Nn (µi , Σ), 1 ≤ i ≤ k, 1 ≤ j ≤ mi unabhängig, dann testet die multivariate
Varianzanalyse die Hypothese H0 : µ1 = · · · = µk . Als Basis für die Teststatistik dienen
die Matrizen
F =W −1/2 BW −1/2 ,
J =(W + B)−1/2 B(W + B)−1/2 ,
dabei sind B und W unabhängige Schätzer für Σ und verteilt bezüglich dem Wishart
Ensemble. Beliebte Teststatistiken sind z.B.
Pillai’s trace : tr J,
Wilk’s lambda : det J,
welche wieder eine Funktion der Eigenwerte sind. Die Verteilung der zufälligen Matrix J
besitzt die Dichte
f (X ) ∝ det X a det(I − X )b I {0 < X < I }
und heißt Jacobi Ensemble (JE ) mit Parametern a = 21 (k − n − 1), b = 12 (m − k − n).
12 / 61
Beispiele
ZM in der Statistik II
Histogramm der Eigenwerte des reellen JE (n = 50, a = b = 10, 100
Widerholungen)
13 / 61
Beispiele
ZM in der Statistik II
Histogramm der Eigenwerte des reellen JE (n = 200, a = b = 10, 100
Widerholungen)
14 / 61
Beispiele
ZM in der Statistik II
Diese drei Ensembles sind die zentralen Verteilungen in der Theorie zufälliger
Matrizen:
GE
f (X ) ∝exp − 12 tr X 2
WE
f (X ) ∝ det X a exp − 21 tr X I {X > 0}
JE
f (X ) ∝ det X a det(I − X )b I {0 < X < I }
Die Dichten dieser Ensembles besitzen die Invarianzeigenschaft f (X ) = f (UXU ∗ ),
falls UU ∗ = I . Es gilt damit sogar
X ∼ f =⇒ UXU ∗ ∼ f .
Die Verteilungen sind abhängig von dem zusätzlichen Parameter β = dimR K.
Bei den meisten Anwendungen gilt das Hauptinteresse den Eigenwerten.
15 / 61
Verteilung der Eigenwerte
Die Eigenwertdichte
2 Verteilung der Eigenwerte
Satz: Es sei X = X ∗ ∈ Kn×n eine zufällige Matrix mit Dichte f . Gilt f (UXU ∗ ) = f (X )
für alle Matrizen U mit UU ∗ = I , dann besitzen die Eigenwerte λ1 , . . . , λn von X die
gemeinsame Dichte
g (λ) = c|∆(λ)|β f (Λ),
Q
mit Λ = diag (λ1 , . . . , λn ), ∆(λ) = i<j (λj − λi ) (Vandermonde-Determinante) und
β = dimR K.
Beweis: (nur K = R). Nach dem Spektralsatz ist X = UΛU T mit U orthogonal und die
Abbildung X 7→ (U, Λ) ist wohldefiniert, wenn wir voraussetzen, dass die Eigenwerte
λ1 < · · · < λn geordnet sind und U positive Phasen besitzt. Es bezeichne p1 , . . . , pm die
unabhängigen Einträge von U (Beachte: n + m = n + 21 n(n − 1) = 12 n(n + 1)). Dann gilt
Z
g (λ) = f (UΛU ∗ )| det J(p, λ)|dp
mit
J(p, λ) =
1
1
∂(x11 , . . . , xnn , x12 , . . . , xn−1,n )
∈ R 2 n(n+1)× 2 n(n+1) .
∂(λ1 , . . . , λn , p1 , . . . pm )
16 / 61
Verteilung der Eigenwerte
Die Eigenwertdichte
∂U T
∂U
U U = I =⇒
U + UT
=0
∂pr
∂pr
∂M
=
∂x
T
∂Mij
∂x
!
,
ij
∂U
die Matrix S (r ) = U T ∂p
ist also schiefsymmetrisch.
r
∂U
∂U T
∂X
∂X
=
ΛU T + UΛ
=⇒ U T
U = S (r ) Λ − ΛS (r ) ,
∂pr
∂pr
∂pr
∂pr
∂X
(r )
(U T
U)αβ = Sαβ (λβ − λα )
∂pr
Analog erhalten wir:
UT
∂Λ
∂X
∂X
U=
=⇒ (U T
U)αβ = δαβ δαs
∂λs
∂λs
∂λs
Die Jacobimatrix J(λ, p) besitzt die Struktur

T
∂Xjj
∂λs
J(λ, p) =  ∂Xjj sj
∂pr
rj
∂Xij
∂λs
∂Xij
∂pr

s,i<j  .
r ,i<j
17 / 61
Verteilung der Eigenwerte
Die Eigenwertdichte
Wir definieren nun die Matrix
V =
(Ujα Ujβ )j,α≤β
2(Ujα Uiβ )i<j,α≤β
,
dann gilt


∂X
(U T ∂λ
U)αβ
(δαβ δαs )s,α≤β
s
s,α≤β  =
J(λ, p) V =  T ∂X
.
(r )
(Sαβ (λβ − λα ))r ,α≤β
(U ∂pr U)αβ
T
r ,α≤β
Y
(δαβ δαs )s,α≤β
=⇒ det J(λ, p)T V =
(λβ − λα ) · det
(r )
(Sαβ )r ,α≤β
α<β
Es folgt
det J(λ, p) =
Y
(λβ − λα ) · h(p).
α<β
18 / 61
Verteilung der Eigenwerte
Die Eigenwertdichte
Aus obigem Satz erhalten wir leicht die Eigenwertdichten der Ensembles:
GE :
g (λ) ∝|∆(λ)|β
n
Y
1 2
e − 2 λi
i=1
WE :
g (λ) ∝|∆(λ)|
n
Y
β
1
λai e − 2 λi I {λi > 0}
i=1
JE :
g (λ) ∝|∆(λ)|
n
Y
β
λai (1 − λi )b I {0 < λi < 1}
i=1
Die Verteilungen sind symmetrisch in den Eigenwerten.
Die Wahrscheinlichkeit, dass zwei Eigenwerte nahe beieinander liegen ist klein.
Auch wenn die Einträge der Matrix stochastisch unabhängig sind, zeigen die
Eigenwerte eine komplizierte Abhängigkeitsstruktur.
Eigenwertdichten der Form
c|∆(λ)|β
n
Y
w (λi )
i=1
bilden den Ausgangspunkt der klassischen Theorie zufälliger Matrizen.
19 / 61
Verteilung der Eigenwerte
Das Coulombgasmodell
Das Coulombgasmodell
Betrachte n Teilchen an den Positionen x1 , . . . xn , welche einem Potential V (x) ausgesetzt
werden bei einer Temperatur T = (kβ)−1 . Die potentielle Energie der Teilchen ist dann
X
X
Wn (x) =
V (xi ) − β
log |xi − xj |.
i
i<j
Die Wahrscheinlichkeitsdichte der Teichen im themodynamischen Gleichgewicht ist
proportional zu
Y
Y −V (x )
i
e −Wn (x) = | (λi − λj )|β
e
.
i<j
i
D.h. die Teilchen verhalten sich so wie die Eigenwerte einer zufälligen Matrix.
20 / 61
Verteilung der Eigenwerte
Das Coulombgasmodell
Histogramm der Teilchenpositionen zum Potential V (x) = 12 x 2 für n = 4:
β = 1, β = 2, β = 4
21 / 61
Verteilung der Eigenwerte
Tridiagonalmodelle
Die Tridiagonalmodelle
Existieren Matrixmodelle mit der Eigenwertdichte der klassischen Ensembles für
beliebiges β > 0?
Ja: Die Eigenwerte der Tridiagonalmatrix

N (0, 2) χ(n−1)β
 χ(n−1)β N (0, 2)

1 
..
X ∼ √ 
.
2


χ(n−2)β
..
.
χ2β
sind verteilt bezüglich der Dichte g (λ) ∝ |∆(λ)|β
Qn
i=1
..
.
N (0, 2)
χβ






χβ
N (0, 2)
1 2
e − 2 λi für alle β > 0.
Für das Wishart Ensemble und das Jacobi Ensemble existieren ebenfalls reelle,
tridiagonale Modelle.
22 / 61
Verteilung der Eigenwerte
Tridiagonalmodelle
Beweis der Tridiagonaldarstellung (nur für β = 1): Es sei X ∈ Rn×n verteilt bezüglich
dem Gaußschen Ensemble,
an x T
X =
,
x
Y
wobei an ∼ N (0, 1), x ist ein Vektor von n − 1 unabhängigen, N (0, 1/2)-verteilten
Zufallsvariabeln und Y ist eine (n − 1) × (n − 1) Matrix des GE . an , x und Y sind
unabhängig.
Sei nun H eine (n − 1) × (n − 1) Orthogonalmatrix (unabhängig von an , Y ) mit
Hx = (||x||, 0, . . . , 0)T = ||x||e1 .
Dann besitzt X dieselben Eigenwerte wie die Matrix
T
1 0
1 0
an
||x||e1T
an x T
=
,
0 H
0 H
x
Y
||x||e1 HYH T
√
an ∼ N (0, 1), ||x|| ∼ (1/ 2)χn−1 und wegen der Invarianz des GE unter der
Konjugation Y 7→ HYH T ist wieder HYH T ∼ GE . Per Induktion reduziert man nun die
Matrix X durch weitere Ähnlichkeitstransformationen auf Tridiagonalgestalt.
23 / 61
Verteilung der Eigenwerte
Die m-Punkt Korrelationsfunktion
Die m-Punkt Korrelationsfunktion
Im Folgenden seien die Eigenwerte λ1 , . . . , λn verteilt bezüglich der Dichte
g (λ) = cn |∆(λ)|β
n
Y
w (λi ),
i=1
wobei für die Gewichtsfunktion w gelte
Z
x k w (x)dx < ∞
für alle k ∈ N.
Wir definieren die m-Punkt Korrelationsfunktion durch
Z
n!
(n)
χm (λ1 , . . . , λm ) :=
g (λ)dλm+1 . . . dλn .
(n − m)!
Insbesondere interessieren wir uns für die marginale Dichte eines Eigenwerts
Z
1 (n)
ρ(λ1 ) = g (λ)dλ2 . . . dλn = χ1 (λ1 ).
n
24 / 61
Verteilung der Eigenwerte
Die m-Punkt Korrelationsfunktion
Orthogonale Polynome
Wir definieren auf dem Vektorraum der Polynome ein Skalarprodukt durch
Z
< f , g >= f (x)g (x)w (x)dx.
Durch Anwendung des Gram-Schmidt-Orthonormalisierungsverfahrens erhalten wir eine
Folge (pn )n≥0 von Orthonormalpolynomen bezüglich < ·, · >, d.h.
< pn , pm >= δnm .
Diese Polynome erfüllen eine 3-Schritt Rekursion der Form
xPn (x) = an+1 pn+1 (x) + bn pn (x) + an pn−1 (x).
Es gilt: Die Nullstellen eines orthogonalen Polynoms sind alle reell und liegen im Inneren
des Trägers von w .
Beispiel: Die Hermite Polynome (hn )n≥0 sind orthogonal bezüglich der Gewichtsfunktion
2
w (x) = e −x /2 und erfüllen die Rekursion
√
√
xhn (x) = n + 1hn+1 (x) + nhn−1 (x)
n ≥ 1,
mit h0 (x) = (2π)−1/4 , h1 (x) = x(2π)−1/4 .
25 / 61
Verteilung der Eigenwerte
Die m-Punkt Korrelationsfunktion
Satz: Für β = 2 gilt
χ(n)
m (x1 , . . . , xm ) = det (Kn (xi , xj ))i,j≤m
mit Kn (x, y ) =
p
P
w (x)w (y ) n−1
k=0 pk (x)pk (y ).
Bemerkung: Für β = 1, 4 existiert ein analoges Resultat, wobei in diesen Fällen das
Skalarprodukt ersetzt wird durch
Z
β=4:
< f , g > = (f (x)g 0 (x) − f 0 (x)g (x))w (x)dx
β=1:
biorthogonale Polynome
ZZ
< f,g > =
f (x)g (y )w (x)w (y ) 21 sgn(y − x)dxdy
schieforthogonale Polynome
26 / 61
Verteilung der Eigenwerte
Die m-Punkt Korrelationsfunktion
Beweis:
det (Kn (xi , xj ))i,j≤n = det
n
X
!
pk−1 (xi )pk−1 (xj )
p
w (xi )w (xj )
k=1
= det
n
X
i,j
!
pk−1 (xi )pk−1 (xj )
= det (pj−1 (xi ))2i,j
n
Y
w (xi )
k=1
!2 n
n
X
Y
k−1
aj,k xi
w (xi )
k=1
i,j k=1
2
= det (aj,k )2j,k det xik−1
k,i
=
n
Y
w (xi )
i,j k=1
k=1
= det
n
Y
!2
aj−1,j−1
|∆(x)|2
j=1
=(n!cn )−1
n
Y
w (xi )
k=1
n
Y
w (xi )
k=1
n
Y
!2
aj−1,j−1
χ(n)
n (x1 , . . . , xn )
j=1
27 / 61
Verteilung der Eigenwerte
Die m-Punkt Korrelationsfunktion
Es gilt
Z
Kn (x, x)dx =
Z X
n−1
pk (x)2 w (x)dx = n
k=0
und
Z
Kn (x, y )Kn (y , z)dy =
X
Z
p
p
pk (x) w (x) pk (y )pl (y )w (y )dypl (z) w (z)
k,l
=Kn (x, z).
Wir verwenden nun folgendes
2
RLemma: Es sei K : R → R eine integrierbare Funktion mit
K (x, y )K (y , z)dy = K (x, z), dann ist
Z
det(K (xi , xj ))i,j≤k dxk = (d − k + 1) det(K (xi , xj ))i,j≤k−1
wobei d =
R
K (x, x)dx.
28 / 61
Verteilung der Eigenwerte
Die m-Punkt Korrelationsfunktion
Aus dem Lemma folgt
Z
det(K (xi , xj ))i,j≤n dx1 . . . dxn = n!,
1
also cn =
n!
!2
Y
aj−1,j−1
j
und
Z
1
χ(n)
n (x1 , . . . , xn )dxm+1 . . . dxn
(n − m)!
Z
1
=
det(K (xi , xj ))i,j≤n dxm+1 . . . dxn = det(K (xi , xj ))i,j≤k .
(n − m)!
χ(n)
m (x1 , . . . xm ) =
Die marginale Dichte eines Eigenwerts hat damit die Form
n−1
ρ(λ1 ) =
X
1
1
Kn (λ1 , λ1 ) = w (λ1 )
pk (λ1 )2 .
n
n
k=0
Für die
GE
WE
JE
klassischen Ensembles
2
w (x) = e −x /2
w (x) = x a e −x/2
w (x) = x a (1 − x)b
erhalten wir wohlbekannte Polynome:
Hermitepolynome
Laguerrepolynome
Jacobipolynome
29 / 61
Verteilung der Eigenwerte
Die m-Punkt Korrelationsfunktion
Die m-Punkt Korrelationsfunktion kann noch mehr!
Z
(n)
χ1 (x)dx = nP (λ1 ∈ A) = E [#{i|λi ∈ A}]
A
ZZ
(n)
χ2 (x, y )dxdy = n(n − 1)P ((λ1 , λ2 ) ∈ B) = E [#{(i, j)|(λi , λj ) ∈ B, i 6= j}]
B
(n)
Über χ2 lassen sich verschiedene Eigenwertstatistiken berechnen, wie z.B. die Verteilung
des Abstandes zwischen zwei Eigenwerten,
Rn (h) = P ( |λi − λj | < h für ein Paar i 6= j)
Dyson (1970): Für die skalierten Eigenwerte λ̃k = Kn (0, 0)λk des komplexen Gaußschen
Ensenbles gilt
2
Z h
h
i
sin(πu)
1−
du.
E #{(i, j)|i 6= j, |λ̃i − λ̃j | < h} −−−→
n→∞
πu
0
30 / 61
Verteilung der Eigenwerte
Die m-Punkt Korrelationsfunktion
Die Riemannsche Zetafunktion
ζ(s) =
∞
X
1
s
n
n=1
Re(s) > 1
Riemannsche Vermutung: Alle nichttrivialen Nullstellen der meromorphen Fortsetzung
von ζ sind von der Form 1/2 + iγ, γ ∈ R.
Bisher wurden nur Nullstellen 1/2 + iγ1 , . . . , 1/2 + iγn gefunden (derzeit n ≈ 1014 ).
Montgomery (1970): Falls die Riemannsche Vermutung stimmt, so ist die empirische
Abstandsverteilung der skalierten Nullstellen γ̃k = γk log γk /2π konvergent und
2
Z h
sin(πu)
1
#{(i, j)|i 6= j, |γ̃i − γ̃j | < h} −−−→
1−
du.
n→∞
n
πu
0
31 / 61
Verteilung der Eigenwerte
Die m-Punkt Korrelationsfunktion
Dichte der asymptotischen Abstandsverteilung des GE (durchgezogene Linie) und Histogramm der Abstände von 79 Millionen skalierten
Nullstellen der Zetafunktion (Punkte).
32 / 61
Asymptotische Eigenwertverteilung
3 Die Asymptotische Eigenwertverteilung
Die komplizierte Abhängigkeitsstrukur zwischen den Eigenwerten mit Dichte
g (λ) = cn |∆(λ)|β
n
Y
w (λi )
i=1
verhindert die Angabe der Marginalverteilung eines Eigenwerts oder der
Korrelationsfunktion in expliziter Form. In diesem Abschnitt möchten wir das
asymptotische Verhalten der empirischen Eigenwertverteilung
µn =
n
1X
δλk
n
k=1
für n → ∞ untersuchen.
33 / 61
Asymptotische Eigenwertverteilung
Die Korrelationsfunktion
Grenzwertbetrachtung der 1-Punkt Korrelationsfunktion
n
1X
P(λk ∈ A) = P(λ1 ∈ A)
n
k=1
Z
n Z
1X
pk−1 (x)2 w (x)dx
= ρ(x)dx =
n
A
A
E [µn (A)] =
k=1
Das Verhalten der orthogonalen Polynome der klassischen Ensembles ist für β = 2
bekannt und wir können den Grenzwert von E [µn (A)] bestimmen.
Ist β 6= 2, so ist praktisch nichts bekannt.
Wir erhalten nur die schwache Konvergenz im Erwartungswert.
34 / 61
Asymptotische Eigenwertverteilung
Die Tridiagonaldarstellung
Die Tridiagonaldarstellung
Die Eigenwerte des GE besitzen dieselbe Verteilung wie die Eigenwerte von


N (0, 2) χ(n−1)β
 χ(n−1)β N (0, 2) χ(n−2)β



1 

.
.
.
.
.
.
Xn ∼ √ 
.
.
.
.

2

χ2β
N (0, 2)
χβ 
χβ
N (0, 2)
p
Idee: Die (skalierten?) Eigenwerte von 2/βXn sollten sich so verhalten wie die
Eigenwerte von
√


n−1 √
√ 0
 n−1

0
n−2




.
.
.
..
..
..
Cn = 
.


√

2
0 1
1
0
Die Eigenwerte von Cn sind die Nullstellen von rn (x) := det(xI − Cn ).
35 / 61
Asymptotische Eigenwertverteilung
Die Tridiagonaldarstellung
rn (x) =xrn−1 (x) − (n − 1)rn−2 (x)
⇔
xrn−1 (x) =rn (x) + (n − 1)rn−2 (x)
p
−1
(n − 1)! liefert die Rekursion
√
√
x (dn−1 rn−1 (x)) = n (dn rn (x)) + n − 1 (dn−2 rn−2 (x)) .
Erweitern mit dn−1 =
Setzen wir r−1 (x) = 0, r0 (x) = (2π)−1/4 , so gilt diese Rekursion für alle n ≥ 1 und ein
Vergleich mit der Rekursion der Hermitepolynome (hn )n zeigt
dn rn (x) = hn (x).
Die Eigenwerte von Cn sind also die Nullstellen x1 , . . . , xn von hn .
Die Asymptotik der xi ist bekannt, es gilt
Fnx (z) =
n
1X
I { √1n xk ≤ z} −−−→ Fs (z),
n→∞
n
k=1
wobei Fs die Verteilungsfunktion der Halbkreisverteilung ist mit Dichte
1 p
fs (x) =
4 − x 2 I(−2,2) (z).
2π
36 / 61
Asymptotische Eigenwertverteilung
Die Tridiagonaldarstellung
Definiere die empirische Verteilungsfunktion der skalierten Eigenwerte von Xn ,
Fnλ (z) :=
n
1X q2
{ nβ λk ≤ z}
n
k=1
und den Lévy-Abstand zweier Verteilungsfunktionen
L(F , G ) = inf { > 0 : F (x − ) − ≤ G (x) ≤ F (x + ) + ∀x ∈ R} .
Dann gilt
L(Fnλ , Fnx )3 ≤ max |
q
k
2
λ
nβ k
−
√1 xk |
n
(wobei die Eigenwerte und Nullstellen der Größe nach geordnet sind).
Aus Weyl’s Ungleichung
max |λAk − λBk | ≤ max |λA−B
|
k
k
k
und der Ungleichung für den Spektralradius
max |λA−B
| ≤ max |Aij − Bij |
k
k
i,j
folgt dann:
p
1
L(Fnλ , Fnx )3 ≤ √ max | 2/β(Xn )i,j − (Cn )i,j |
i,j
n
37 / 61
Asymptotische Eigenwertverteilung
Die Tridiagonaldarstellung
p
√
⇒ P L(Fnλ , Fnx )3 > ≤P max | 2/β(Xn )i,j − (Cn )i,j | > n
i,j
≤
n
X
n−1
√
√ X
√ P |Nk | > n +
P |Zkβ − k| > n
k=1
k=1
p
mit Nk ∼ N (0, 2/β), Zkβ ∼ 2/β χkβ unabhängig.
Mit der Markovungleichung leitet man die folgenden Ungleichungen her:
√
2 2
P(|Nk | > n) ≤e −nβ /2
p
√
2 2
P(|Zkβ − kβ| > n) ≤2e −nβ Die Wahrscheinlichkeit
2 2
2 2
P L(Fnλ , Fnx )3 > ≤ ne −nβ /2 + 2(n − 1)e −nβ fällt damit exponentiell schnell ab und nach dem Lemma von Borel-Cantelli gilt
f .s.
L(Fnλ , Fnx ) −−−→ 0
n→∞
f .s.
=⇒ L(Fnλ , Fs ) ≤ L(Fnλ , Fnx ) + L(Fnx , Fs ) −−−→ 0
n→∞
38 / 61
Asymptotische Eigenwertverteilung
Die Tridiagonaldarstellung
Satz: Es seien λ1 , . . . , λn die Eigenwerte des Gaußschen Ensembles. Dann konvergiert die
empirische Verteilung µn der skalierten Eigenwerte
r
2
λ̃k =
λk
βn
fast sicher schwach gegen die Halbkreisverteilung.
Dichte der Halbkreisverteilung und Histogramm der skalierten
Eigenwerte von Xn ∼ GEn (n=1000).
39 / 61
Asymptotische Eigenwertverteilung
Die Tridiagonaldarstellung
Satz: Es seien λ1 , . . . , λn die Eigenwerte des Wishart Ensembles. Dann konvergiert die
empirische Verteilung µn der skalierten Eigenwerte
1
λ̃k = √ λk
βn
fast sicher schwach gegen die Marchenko-Pastur-Verteilung mit Dichte
p
x(4 − x)
I(0,4) (x).
fmp (x) =
2πx
Dichte der M-P-Verteilung und Histogramm der skalierten
Eigenwerte von Xn ∼ WEn (n=1000).
40 / 61
Asymptotische Eigenwertverteilung
Die Tridiagonaldarstellung
Satz: Die empirische Verteilung µn der Eigenwerte des Jacobi Ensembles konvergiert fast
sicher schwach gegen die Arcussinusverteilung mit Dichte
fa (x) =
1
p
I(0,1) (x).
π x(1 − x)
Dichte der Arcussinusverteilung und Histogramm der Eigenwerte
von Xn ∼ JEn (n=1000).
41 / 61
Asymptotische Eigenwertverteilung
Momentenmethode
Die Momentenmethode
Satz: Es seien µ, µ1 , µ2 , . . . W-Maße mit
Z
Z
x k dµn (x) −−−→ x k dµ(x)
n→∞
∀ k ∈ N.
Ist µ durch seine Momente eindeutig bestimmt, so konvergiert µn schwach gegen µ.
Ein hinreichendes Kriterium dafür, dass ein W-Maß durch seine Momentenfolge
m0 , m1 , . . . eindeutig bestimmt ist, liefert Carlemans Bedingung:
n
X
− 1
m2k 2k = ∞.
k=0
Dies gilt für alle Maße mit kompaktem Träger, aber z.B. auch für die Normalverteilung.
42 / 61
Asymptotische Eigenwertverteilung
Momentenmethode
Ist µn die empirische Eigenwertverteilung einer zufällige Matrix Xn , so ist
Z
1
1
x k dµk (x) = (λk1 + · · · + λkn ) = tr X k .
n
n
Wigner zeigte 1955 für Xn ∼ GEn die Konvergenz
Z 2
1
1 p
f .s.
k
1
√
4 − x 2 dx.
tr( n Xn ) −−−→
xk
n→∞
n
2π
−2
Wigners Vermutung: Ist Xn eine zufällige symmetrische Matrix mit unabhängigen
Einträgen auf und oberhalb der Diagonalen und sind die Einträge zentriert mit Varianz
1/n bzw. 1/2n, dann konvergiert µn fast sicher schwach gegen die Halbkreisverteilung.
Bemerkung 1: Unter der zusätzlichen Bedingung
max E [|Xij |4 ] ≤ κ
i,j
für ein κ ∈ R gilt Wigners Vermutung.
43 / 61
Asymptotische Eigenwertverteilung
Momentenmethode
Bemerkung 2: Das 2k-te Moment der Halbkreisverteilung
Z
x
2k
1 p
1
2k
4 − x 2 dx =
2π
k +1 k
!
ist die k-te Catalanzahl ck . Es ist ck die Zahl der Pfade in Z2 von (0, 0) nach (0, 2k),
wobei der Pfad nur Schritte der Form (1, 1) oder (1, −1) macht und nicht unterhalb der
x-Achse verläuft (ein solcher Pfad heißt Catalanpfad).
Die Catalanpfade für k = 3:
44 / 61
Freie Wahrscheinlichkeitstheorie
4 Freie Wahrscheinlichkeitstheorie
Die freie Wahrscheinlichkeitstheorie wurde um 1986 von Voiculescu eingeführt um
Algebren von allgemeinen nichtkommutativen Operatoren zu untersuchen. Seit den 90ern
wird sein Ansatz verwendet, um die folgende Frage in der Theorie zufälliger Matrizen zu
beantworten:
Gegeben zufällige Matrizen A, B mit bekannten asymptotischen Eigenwertverteilungen,
was ist die asymptotische Eigenwertverteilung von A + B?
45 / 61
Freie Wahrscheinlichkeitstheorie
Der freie Wahrscheinlichkeitsraum
Der freie Wahrscheinlichkeitsraum
Ein freier Wahrscheinlichkeitsraum ist ein Tupel (A, ϕ) aus einer Algebra A (über R)
und einem R-linearen Funktional ϕ : A −→ R mit
(1)
ϕ(1) = 1,
(2)
ϕ(AB) = ϕ(BA).
Die Elemente A ∈ A heißen Zufallsvariablen, für k ∈ N heißt ϕ(Ak ) k-tes Moment
von A.
Als Verteilung von A bezeichnen wir die Folge (ϕ(Ak ))k .
D
Eine Folge (AN )N ⊂ A konvergiert in Verteilung gegen A (AN −−−→ A), wenn gilt
n→∞
ϕ(AkN ) −−−−→ ϕ(Ak )
N→∞
∀k≥0
46 / 61
Freie Wahrscheinlichkeitstheorie
Der freie Wahrscheinlichkeitsraum
Freie W-Theorie und ZM
Setze
A := {(Xn )n |(Xn )n Folge symmetrischer zufälliger n × n Matrizen s.d. µn konvergiert}
Zusammen mit dem Funktional
ϕ((Xn )n ) := lim
n→∞
1
tr E [Xn ]
n
(sofern der Limes existiert) erhalten wir einen freien W-Raum (A, ϕ).
Die Verteilung einer Folge X = (Xn )n ist die Folge der Momente
1
1
tr E [Xnk ] = lim E [λk1 + · · · + λkn ]
ϕ(X k ) =ϕ((Xnk )n ) = lim
n→∞ n
n→∞ n
Z
= lim E
x k dµn (x) .
n→∞
Die Verteilung von X ∈ A ist damit die Folge der Momente des Grenzwerts von µn .
Ist X = ( √1n Xn )n eine Folge von skalierten Matrizen des GE , so bedeutet das klassische
Resultat von Wigner gerade
ϕ(X 2k ) = ck ,
ϕ(X 2k+1 ) = 0.
Wir schreiben in diesem Fall X ∼ s.
47 / 61
Freie Wahrscheinlichkeitstheorie
Freie Zufallsvariabeln
Freie Zufallsvariablen
Eine Familie von Zufallsvariabeln (Ai )I ⊂ A aus (A, ϕ) heißt frei, falls
ϕ(p1 (Ai(1) ) . . . pm (Ai(m) )) = 0
für alle Polynome p1 , . . . , pm mit ϕ(pj (Ai(j) )) = 0 und Indexmenge
i(1) 6= i(2) 6= · · · 6= i(m).
Sind A, B frei, lassen sich alle gemischten Momente aus den Momenten von A und B
errechnen:
0 = ϕ (A − ϕ(A) · 1)(B − ϕ(B) · 1) = ϕ(AB) − ϕ(A)ϕ(B)
also
ϕ(AB) = ϕ(A)ϕ(B).
Ebenso erhält man aus
ϕ (A − ϕ(A) · 1)(B − ϕ(B) · 1)(A − ϕ(A) · 1)(B − ϕ(B) · 1) = 0
die Identität
ϕ(ABAB) = ϕ(AA)ϕ(B)ϕ(B) + ϕ(A)ϕ(A)ϕ(BB) − ϕ(A)ϕ(B)ϕ(A)ϕ(B).
48 / 61
Freie Wahrscheinlichkeitstheorie
Freie Zufallsvariabeln
Freiheit und stochastische Unabhängigkeit
Stochastisch unabhängige Matrizen sind i.A. nicht frei!
Sind x1 , x2 reelle, unabhängige ZV mit E [xi ] = 0, E [xi2 ] > 0, dann sind A = (x1 In )n
und B = (x2 In )n nicht frei:
ϕ(ABAB) = ϕ(A2 B 2 ) = ϕ(A2 )ϕ(B 2 ) = E [x12 ]E [x22 ] > 0
Freie ZV sind i.A. nicht stochastisch unabhängig!
Wenn Xn , Yn ∼ GEn unabhängige Matrizen sind und Zn die Matrix, die man erhält,
wenn eine Untermatrix fester Größe von Yn durch die entsprechende Untermatrix
von Xn ersetzt wird, so sind
√1 Xn
√1 Zn
und
n
n
n
n
frei, aber nicht stochastisch unabhängig.
49 / 61
Freie Wahrscheinlichkeitstheorie
Freie Zufallsvariabeln
Warum Freiheit?
Um die Verteilung von A + B zu bestimmen müssen wir die Momente ϕ((A + B)k )
berechnen. Sind A, B stochastisch unabhängig, erhalten wir zwar
ϕ(Ar B s ) = ϕ(Ar )ϕ(B s )
nicht jedoch
ϕ(ABAB).
Sind A, B frei, lassen sich alle gemischten Momente durch die von A und B ausdrücken.
Ist O = (On )n eine feste Folge orthogonaler (unitärer) Matrizen, dann ist die Verteilung
von A dieselbe wie die von OAO ∗ , die Verteilung von A + B stimmt allerdings nicht mehr
überein mit der von OAO ∗ + B.
Sind A, B frei, so gilt dies i.A. nicht mehr für OAO ∗ und B.
50 / 61
Freie Wahrscheinlichkeitstheorie
Freie Zufallsvariabeln
Die guten Nachrichten:
Sind A, B stochastisch unabhängig und O = (On )n eine Folge von Matrizen, die
bezüglich des Haarmaßes auf der Orthogonalen Gruppe verteilt sind, dann sind A
und OBO ∗ frei.
Stochastisch unabhängige Matrizen der klassischen Ensemble sind frei.
51 / 61
Freie Wahrscheinlichkeitstheorie
Der freie ZGWS
Der freie zentrale Grenzwertsatz
Es sei A1 , A2 , . . . eine Folge freier ZV aus (A, ϕ) mit identischer Verteilung und
ϕ(A1 ) = 0, ϕ(A21 ) = 1. Dann gilt
1
D
√ (A1 + · · · + AN ) −−−−→ s.
N→∞
N
Beweis:
ϕ (A1 + · · · + AN )k =
X
ϕ(Ar1 . . . Ark )
1≤r1 ,...,rk ≤N
Da alle ZV identisch verteilt sind, ist
ϕ(Ar1 . . . Ark ) = ϕ(Ap1 . . . Apk )
falls gilt
ri = rj ⇐⇒ pi = pj
∀ 1 ≤ i, j ≤ k.
Der Wert von ϕ(Ar1 . . . Ark ) hängt also nur davon ab, welche Indizes übereinstimmen.
52 / 61
Freie Wahrscheinlichkeitstheorie
Der freie ZGWS
Wir beschreiben die Information, welche Indizes übereinstimmen wie folgt durch eine
Partition π = {V1 , . . . , Vs } der Menge {1, . . . , k}:
ri = rj ⇐⇒ i, j ∈ Vm für ein m
∧
und schreiben in diesem Fall (r1 , . . . rk ) = π. Es bezeichne in diesem Fall kπ der Wert von
ϕ(Ar1 . . . Ark ). Beispielsweise ist
ϕ(A1 A2 A1 A1 A2 A3 ) = ϕ(A5 A2 A5 A5 A2 A7 ) = k{(1,3,4),(2,5),(6)}
Dann gilt
X
ϕ (A1 + · · · + AN )k =
kπ AN
π,
π
wobei
∧
ANπ =#{(r1 , . . . rk )|π = (r1 , . . . rk )}
=N(N − 1) . . . (N − |π| + 1).
=⇒ lim ϕ
N→∞
1
√ (A1 + · · · + AN )k
N
= lim
X
= lim
X
N→∞
N→∞
N −k/2 kπ AN
π
π
N |π|−k/2 kπ
π
53 / 61
Freie Wahrscheinlichkeitstheorie
Der freie ZGWS
Da die Ai zentriert und frei sind, tragen Partitionen π = {V1 , . . . Vs } mit #Vq = 1 für ein
q nicht zur Summe bei. Wir betrachten also nur Partitionen π mit |π| ≤ k/2.
Partitionen mit |π| < k/2 spielen im Grenzwert ebenfalls keine Rolle und wir können uns
auf Paarpartitionen (|π| = k/2) beschränken.
=⇒ lim ϕ
N→∞
1
√ (A1 + · · · + AN )k
N
X
= lim
N→∞
π
kπ
Paarpartition
Insbesondere verschwinden die ungeraden Momente im Grenzwert.
54 / 61
Freie Wahrscheinlichkeitstheorie
Der freie ZGWS
Exkurs: Der kommutative Fall
Wir betrachten kurz unabhängige, kommutative Zufallsvariablen, dann faktorisiert kπ in
ein Produkt zweiter Momente, also kπ = 1 und
1
k
lim ϕ √ (A1 + · · · + AN ) =# { Paarpartitionen von {1, . . . , k}}
N→∞
N
(
0
k ungerade
=
(k − 1)(k − 3) · · · · · 3 · 1 k gerade
Z
2
1
√
=
t k e −t /2 dt.
2π
Satz: Sind A1 , A2 , . . . kommutative i.i.d. Zufallsvariabeln mit ϕ(A1 ) = 0, ϕ(A21 ) = 1,
dann gilt
1
D
√ (A1 + · · · + AN ) −−−−→ N (0, 1)
N→∞
N
55 / 61
Freie Wahrscheinlichkeitstheorie
Der freie ZGWS
Zurück zum freien Fall:
Für eine Paarpartition π gibt es die folgenden Möglichkeiten:
(1) Aufeinanderfolgende Indizes sind verschieden:
r1 6= r2 6= · · · 6= rk ,
dann gilt wegen ϕ(Ari ) = 0
kπ = ϕ(Ar1 . . . Ark ) = 0.
(2) Zwei aufeinanderfolgende Indizes stimmen überein, ri = ri+1 = r , dann ist
Ari Ari+1 = A2r frei von allen anderen Faktoren und
ϕ(Ar1 . . . Ari Ari+1 . . . Ark )
=ϕ(Ari Ari+1 Ari+2 . . . Ark Ar1 . . . Ari−1 )
=ϕ(A2r )ϕ(Ari+2 . . . Ari−1 ) = ϕ(Ari+2 . . . Ari−1 ).
Gilt (2), erhalten wir eine kürzere Partition, auf die wir erneut die Fallunterscheidung
anwenden können. Für den Grenzwert spielen nur die Partitionen eine Rolle, bei denen in
jedem Reduktionsschritt der Fall (2) eintritt.
56 / 61
Freie Wahrscheinlichkeitstheorie
Der freie ZGWS
Partitionen, welche nicht vollständig wie in (2) aufgelößt werden können, sind genau die
für die gilt
∃ p1 < q1 < p2 < q2 : p1 ist gepaart mit p2 und q1 mit q2 .
Wir bezeichnen solche Partitionen als kreuzend, sonst als nichtkreuzend. Beispielsweise ist
nichtkreuzend, wohingegen
kreuzend ist.
=⇒ lim ϕ
N→∞
1
√ (A1 + · · · + AN )2k
N
= dk
wobei dk = #{π|π ist nichtkreuzende Paarpartition von {1, . . . 2k}}.
57 / 61
Freie Wahrscheinlichkeitstheorie
Der freie ZGWS
Die ersten Werte von dk sind:
d1 = 1
d2 = 2
d3 = 5
58 / 61
Freie Wahrscheinlichkeitstheorie
Der freie ZGWS
Lemma: Die Zahl dk von nichtkreuzenden Paarpartitionen der Menge {1, . . . , 2k} ist die
k-te Catalanzahl ck .
Beweis: Wir identifizieren eine nichtkreuzende Paarpartition π folgendermaßen mit einem
Catalanpfad c(π) der Länge 2k:
Der Pfad c(π) bewegt sich im i-ten Schritt nach oben, falls i durch π mit einer Zahl
j > i gepaart wird, sonst nach unten.
Beispiel:
c ist eine bijektive Abbildung von der Menge aller nichtkreuzenden Partitionen von
{1, . . . , 2k} in die Menge aller Catalanpfade der Länge 2k.
59 / 61
Freie Wahrscheinlichkeitstheorie
Der freie ZGWS
Wir haben damit gezeigt:
lim ϕ
N→∞
1
√ (A1 + · · · + AN )k
N
(
0
=
ck/2
k ungerade
k gerade
=ϕ(X k )
mit X ∼ s.
60 / 61
Literatur
M. L. Mehta (2004). Random Matrices. Elsevier Academic Press, Amsterdam.
A. M. Tulino, S. Verdu (2004). Random Matrix Theory and Wireless
Communications. now Publishers, Hanover.
P. Deift (2000). Orthogonal Polynomials and Random Matrices: A
Riemann-Hilbert Approach. Courant Institute, New York.
Z. D. Bai (1999). Methodologies in spectral analysis of large dimensional random
matrices, a review. Statist. Sinica, 9, pp. 611–677.
I. Dumitriu and A. Edelman (2002). Matrix models for beta-ensembles. J.
Math. Phys., 43, pp. 5830–5847.
H. Dette and L. A. Imhof (2007). Uniform approximation of eigenvalues in
Laguerre and Hermite β-ensembles by roots of orthogonal polynomials. Trans. Amer.
Math. Soc., 359, pp. 4999–5018.
A. Nica, R. Speicher (2006). Lectures on the combinatorics of free probability.
Cambridge University Press, Cambridge.
61 / 61
Herunterladen