Die Colin-de-Verdi`ere-Zahl

Werbung
Die Colin-de-Verdière-Zahl
Kai Lawonn
Diplomarbeit im Fach Mathematik
Freie Universität Berlin
Gutachter: Prof. Dr. Konrad Polthier
Dr. Carsten Lange
Abgabetermin 1. März 2011
Inhaltsverzeichnis
1
Einleitung
2
2
Lineare Algebra
2.1 Grundlegendes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4
4
3
Graphentheorie
15
3.1 Grundlegendes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
4
Die Colin-de-Verdière-Zahl
4.1 Grundlegendes . . . . . . . . . . . . . . . . . . . . .
4.2 Haupteigenschaften . . . . . . . . . . . . . . . . . . .
4.3 Cliquensummen . . . . . . . . . . . . . . . . . . . . .
4.4 Unterteilung und △Y-Transformation . . . . . . . . . .
4.5 Der Nullraum der Matrix M . . . . . . . . . . . . . .
4.6 Kleine Werte für µ . . . . . . . . . . . . . . . . . . .
4.6.1 Pfade und außerplanare Graphen . . . . . . . .
4.6.2 Planare Graphen . . . . . . . . . . . . . . . .
4.7 Verlinkungsfreie einbettbare Graphen . . . . . . . . .
4.7.1 Borsuks Theorem für antipodale Verlinkungen
4.7.2 Der Beweis von Theorem 4.7.7 . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
28
28
32
54
64
68
72
72
76
77
79
91
Vom Permutaeder zur Verdière-Matrix
5.1 Grundlegendes . . . . . . . . . . . . . .
5.2 Permutaeder . . . . . . . . . . . . . . . .
5.3 Colin-de-Verdière-Matrix . . . . . . . . .
5.3.1 Verdière-Matrix mit Mathematica
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
103
103
103
123
129
5
6
Ausblick
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
142
Literaturverzeichnis
143
Eidesstattliche Versicherung
145
Kapitel 1
Einleitung
1990 stellte Y. Colin de Verdière einen neuen Parameter µ(G) für einfache Graphen vor,
siehe [32] und [31]. Dieser Parameter wurde zunächst bei der Untersuchung von der maximalen Vielfachheit des zweiten Eigenwertes von diskreten Schrödinger Operatoren verwendet. Es stellte sich heraus, dass dieser Parameter auch bestimmte Eigenschaften von
Graphen darstellt. Für eine gewisse Klasse von Matrizen, die zu einem Graphen gehören,
stellt µ(G) die maximale Vielfachheit des zweiten Eigenwertes dieser Klasse von Matrizen dar. Ein weiterer Vorteil dieses Parameters besteht in der Minormonotonie. Graphen,
die als Minoren von anderen Graphen hervorgegangen sind, haben eine kleinere maximale
Vielfachheit des zweiten Eigenwertes als die ursprünglichen Graphen. Des Weiteren lassen sich aus dem Parameter µ(G) Rückschlüsse auf die topologischen Eigenschaften des
Graphen schließen. Sofern µ(G) ≤ 3 gilt, ist der Graph ein planarer Graph und lässt sich
kreuzungsfrei in die Ebene einbetten. Für den Fall µ(G) ≤ 4 ist der Graph sogar verlinkungsfrei einbettbar, siehe [22].
In den ersten Teilen dieser Arbeit sollen die Grundlagen des neuen Parameters erläutert
werden. Das erste Kapitel klärt hierbei die Grundlagen und weiterführende Theoreme, die
für die Matrizenrechnungen im späteren Kapitel unausweichlich sein werden. Die wichtigsten Eigenschaften, die später benötigt sind, werden hier bewiesen. Viele Begrifflichkeiten
werden dabei nicht zwingend vorausgesetzt, sind aber erwünscht.
Das dritte Kapitel soll mit den Grundlagen der Graphentheorie vertraut machen. Hier
sind ebenfalls einige Begriffe und Kenntnisse erwünscht, diese sind aber wie im vorigen
Kapitel nicht vorausgesetzt. Wichtige Theoreme werden in diesem Kapitel bewiesen. Allerdings ist dieses Kapitel eher dafür gedacht mit den Begriffen, die im Kapitel 4 benutzt
werden umgehen zu können.
Das vierte Kapitel ist das Herzstück dieser Arbeit. Es behandelt die Ergebnisse, die
Y. Colin de Verdière entdeckte, siehe [32] und [31] sowie andere Erkenntnisse die von
H. v. d. Holst, L. Lovász, A. Schrijver [13] und [22] entwickelt wurden. In Anlehnung an
den wissenschaftlichen Beiträgen von den genannten Personen, arbeitet diese Ausarbeitung
ihre Resultate heraus und stellt sie neu auf. Das Hauptresultat ist hierbei die Äquivalenz zu
gewissen topologischen Eigenschaften von Graphen und der zugehörigen Verdière-Zahl.
Diese Ergebnisse werden bewiesen und bieten dabei ein weiteres Spektrum für eine weitere
Möglichkeit Klassen von Graphen zu kategorisieren und zu analysieren.
Im fünften Kapitel wird eine Möglichkeit vorgestellt, wie man von einem konvexen Polytop eine mögliche Verdière-Matrix ermitteln kann. Dieses Verfahren ermittelt eine Verdière-Matrix für einen Graphen, welcher das 1-Skelett des dualen Polytops darstellt. In
diesem Kapitel wird dieses Verfahren anhand des Permutaeders vorgestellt. Es wird exemplarisch vorgeführt wie man für beliebig dimensionale Permutaeder eine Verdière-Matrix
bestimmt. Im Unterkapitel 5.3.1 wird schließlich gezeigt, wie man mit dem Programm Mathematica eine Verdière-Matrix von Permutaedern beliebiger Dimension erhält.
KAPITEL 1. EINLEITUNG
3
Das sechste Kapitel ist der Abschluss dieser Arbeit. Hier wird Verdières berühmte
Vermutung zu seinem Parameter und der chromatischen Zahl erwähnt, die zu einem algebraischen Beweis der 4-Farben-Vermutung hinführen könnte. Des Weiteren bietet das
letzte Kapitel einen Einblick in mögliche Fragestellungen, die sich lohnen würden weiter
zu ergründen. Dort werden neue Probleme aufgeworfen, die noch nicht weiter untersucht
worden sind.
Kapitel 2
Lineare Algebra
2.1 Grundlegendes
Dieses Kapitel soll die grundlegenden Definitionen und Sätze erläutern, die in den späteren
Kapiteln von wichtiger Bedeutung sein sollen. Zunächst werden für diese Arbeit ausschließlich symmetrische Matrizen verwendet. Dabei werden altbekannte Tatsachen, wie
die Existenz von orthogonalen Eigenvektoren zu reellen Eigenwerten, die Ergänzung der
Dimension des Kerns und des Bildes zu der Dimension des Vektorraum und andere Eigenschaften verwendet. Der corank einer Matrix ist die Dimension des Kerns. Die Spur
trace“ einer Matrix ist hierbei wie üblich durch die Addition ihrer Diagonaleinträge de”
finiert, womit auch ein Skalarprodukt zweier Matrizen A und B durch die Spur definiert
ist hA, Bi = trace(AT B). Damit erhält man auch eine Möglichkeit orthogonale Matrizen zu
definieren. Für die übliche Definition von Tangentialräumen über Matrizen, lassen sich so
auch Normalenräume für Matrizen bestimmen. Abgesehen von der gewohnten Multiplikation von Matrizen, soll hier noch eine andere Multiplikation ◦“ verwendet werden, das so
”
genannte Hadamard-Produkt. Für zwei Matrizen gleicher Dimension ist (A ◦ B)i j = ai j · bi j
das direkte Produkt zweier Matrizen. Das Kapitel schließt mit zwei wertvollen Theorem ab.
Das Perron-Frobenius-Theorem und Cauchys-Zwischenwert-Theorem werden später eine
entscheidende Rolle spielen.
Definition 2.1.1. (S n ).
Es sei Sn (R) die Menge aller symmetrischen Matrizen:
S n (R) = {M ∈ Rn×n | M T = M}.
Definition 2.1.2. (GL).
Es sei GL(n) die Menge aller invertierbaren Matrizen:
GL(n) = {M ∈ Rn×n | det(M) , 0}.
Satz 2.1.3. (Eigenschaften der Spur).
Es seien A und B Matrizen mit A ∈ Rm×n und B ∈ Rn×m , dann folgt:
trace(AB) = trace(BA).
Beweis. Es gilt: trace(AB) =
Pm Pn
i=1
j=1
ai j b ji =
Pn Pm
j=1
i=1
bi j a ji = trace(BA).
Definition 2.1.4. (Signatur).
Eine Matrix M hat die Signatur sign(M) = (p, q, r), wenn p die Anzahl der positiven
Eigenwerte, q die Anzahl der negativen Eigenwerte und r die Anzahl Eigenwerte, die 0
sind, ist.
KAPITEL 2. LINEARE ALGEBRA
5
Definition 2.1.5. (diag).
Mit diag(a1 , a2 , . . . , an ) wird eine Diagonalmatrix mit den Einträgen a1 , a2 , . . . , an bezeichnet.
Satz 2.1.6. (Sylvesters Trägheitssatz).
Es sei M eine symmetrische Matrix M ∈ S n (R) mit sign(M) = (p, q, r) sowie
E = diag(1, . . . , 1, −1, . . . , −1, 0, . . . , 0)
| {z } | {z } | {z }
q
p
r
eine Matrix. Dann existiert eine Matrix Q ∈ GL(n), so dass M = QEQT gilt.
Beweis. Zunächst existiert eine orthogonale Matrix P, so dass M = PDPT gilt, wobei D =
diag(λ1 , . . . , λn ) eine Diagonalmatrix ist mit den Eigenwerten aus M. Die Eigenwerte lassen
sich nun so ordnen, dass in D zunächst die positiven, dann die negativen und schließlich
der Eigenwert 0 gelistet werden. Dann definiere
λi ≕ α2i
λ j+p ≕ −β2j
λk = 0
mit αi , β j > 0 und i = 1, 2, . . . , p; j = 1, 2, . . . , q; k = p + q + 1, . . . , n. Weiter sei D′ ≔
diag(α1 , . . . , α p , β1 , . . . , βq , 1, . . . , 1). Dann gilt D′ = (D′ )T und
E = (D′ )−1 D(D′−1 )T .
Daraus folgt schließlich
M = PDPT = PD′ E(D′ )T PT = |{z}
PD′ E(PD′ )T = QEQT .
≕Q
Definition 2.1.7. (S M ).
Für eine gegebene Matrix M ∈ Rn×n ist S M die Menge aller Matrizen mit der selben Signatur:
S M = {N ∈ Rn×n | sign(N) = sign(M)}.
Satz 2.1.8. (Der Tangentialraum von S M ).
Der Tangentialraum T M S M von S M an einer symmetrischen Matrix M ∈ Rn×n besteht aus
allen Matrizen der Form W M + MW T also:
T M S M = {W M + MW T |W ∈ Rn×n }.
Beweis. Nach Sylvesters Trägheitssatz 2.1.6 existiert zu jeder symmetrischen Matrix M ∈
Rn×n eine Matrix S ∈ GL(n) mit M = S T ΛS , wobei Λ = diag(1, . . . , 1, −1, . . . , −1, 0, . . . , 0)
und sign(M) = (p, q, r). Betrachte nun eine beliebige differenzierbare Abbildung M :
R −→ Rn×n , t 7−→ S(t)T ΛS(t) mit der Eigenschaft: M(0) = S(0)T ΛS(0) = S T ΛS = M
und S(t) ∈ GL(n) für alle t ∈ R. Dann ist M eine beliebige differenzierbare Kurve im Raum
S M , die durch M geht. Und für die Einheiten T ∈ T M S M des Tangentialraums von S M an
M gilt:
d
T = M(t)
t=0
dt
d
= S(t)T ΛS(t)
t=0
dt
′ T
= S (t) ΛS(t) + S(t)T ΛS′ (t)
t=0
= S′ (0)T ΛS(0) + S(0)T ΛS′ (0)
KAPITEL 2. LINEARE ALGEBRA
6
Also M′ (0) = S′ (0)T ΛS(0) + S(0)T ΛS′ (0) und daraus folgt:
M′ (0) = S′ (0)T ΛS(0) + S(0)T ΛS′ (0)
= S′ (0)T (S(0)T )−1 S(0)T ΛS(0) + S(0)T ΛS(0)(S(0))−1 S′ (0)
|
{z
} | {z } | {z }
M
=:W
M
= W M + MW T
Somit gilt:
T M S M = {W M + MW T }.
Es bleibt zu zeigen, dass W nun eine beliebige Matrix sein kann. Nach Festlegung ist
W T = S(0)−1 S′ (0), woraus S(0)W T = S′ (0) folgt. Dies lässt sich in eine gewöhnliche
Matrixdifferentialgleichung S(t)W T = S′ (t) mit S(0) = S umwandeln, die sich für alle
W ∈ Rn×n , t ∈ R mit der Lösung: S(t) = exp(Wt)S lösen lässt.
Satz 2.1.9. (Der Normalenraum von S M ).
Der Normalenraum N M S M von S M an einer symmetrischen Matrix M ∈ Rn×n besteht aus:
N M S M = {X ∈ S n (R)|MX = 0}.
Beweis. Es sei W M+MW T ∈ T M S M , dann muss für Y ∈ N M S M gelten: hW M+MW T , Yi =
0. Es folgt:
hW M + MW T , Yi = hW M, Yi + hMW T , Yi
= trace (W M)T Y + trace (MW T )T Y
= trace M T W T Y + trace W M T Y
= trace Y MW T + trace W M T Y
= trace W MY T + trace W M T Y
= trace W MY T + W MY
= trace W M(Y T + Y) .
Die Gleichheit trace M T W T Y = trace Y MW T folgt aus Lemma 2.1.3. Und trace Y MW T =
T
T
T
trace W MY gilt wegen der Eigenschaft: trace A = trace A . Nun wähle für W ≔ (M(Y +
Y))T und dann folgt: trace (M(Y T + Y))T M(Y T + Y) ≥ 0. Und es gilt:
trace (M(Y T + Y))T M(Y T + Y) = 0 ⇐⇒ M(Y T + Y) = 0.
Dann sei X ≔ Y T + Y und der Normalenraum besteht aus allen X mit MX = 0 und X ∈
S n (R).
Definition 2.1.10. (V M ).
Für eine gegebene Matrix M ∈ Rn×n ist V M die Menge aller Matrizen mit den selben
Vorzeichen in jedem Eintrag, die von der Diagonalen verschieden sind:
V M = {N ∈ Rn×n | sgn(Ni j ) = sgn(Mi j ), i, j ∈ {1, 2, . . . , n}, i , j}.
Satz 2.1.11. (Der Tangentialraum von V M ).
Der Tangentialraum T M V M von V M an einer symmetrischen Matrix M ∈ Rn×n besteht aus:
T M V M = {sgn (Mi j ) ◦ Ai j |A ∈ S n (R), i , j}.
Der Tangentialraum besteht aus allen Matrizen, die das selbe Muster aus Nullen, wie M,
außerhalb der Diagonalen bilden.
KAPITEL 2. LINEARE ALGEBRA
7
Beweis. Betrachte nun eine beliebige differenzierbare Abbildung M : R −→ S n (R), t 7−→
sgn Mi j ◦ A(t)i j mit i , j, wobei A(t)i j > 0 und M(0) = M. Dann ist M eine beliebige
differenzierbare Kurve im Raum V M , die durch M geht. Und für die Einheiten T ∈ T M V M
des Tangentialraums von V M an M gilt:
d
M(t)
t=0
dt
d
= sgn(Mi j ) ◦ A(t)i j t=0
dt
= sgn(Mi j ) ◦ A′ (0)i j
T=
Dieser Ausdruck gilt für alle i , j und dies ist gerade die Menge aller Matrizen mit den
selben Muster aus Nullen, wie M, außerhalb der Diagonale.
Satz 2.1.12. (Der Normalenraum von V M ).
Der Normalenraum N M V M von V M an einer symmetrischen Matrix M ∈ Rn×n besteht aus:
N M V M = {X ∈ S n (R)|Xi j = 0, falls i = j oder Mi j , 0}.
Beweis. Es sei sgn(M) ◦ A ∈ T M V M , wobei das Signum die Diagonalen ignorieren soll,
dann muss für X ∈ N M V M gelten: hsgn(M) ◦ A, Xi = 0. Daraus folgt dann
hsgn(M) ◦ A, Xi = trace (sgn(M) ◦ A)T X
= trace (sgn(M) ◦ A)X
Da A eine beliebige symmetrische Matrix ist, definiere A ≔ X, dann ist trace (sgn(M) ◦
X)X ≥ 0 und dies wird nur 0, wenn bereits X = 0 ist oder sgn(M) ◦ X = 0 gilt. Und dies
trifft zu, wenn Xi j = 0, falls i = j oder Mi j , 0.
Definition 2.1.13. (Gewichtete Skalarprodukt).
Es seien α, β, ω ∈ Rn drei Vektoren im Rn , dann ist das gewichtete Skalarprodukt h· , ·iω
definiert durch:
n
X
hα, βiω =
αi βi ωi .
i=1
Satz 2.1.14. Es sei D ∈ S n (R) eine positiv definite, symmetrische Matrix. Dann gilt:
min{(D)ii } > 0.
i
Beweis. Da D eine symmetrische Matrix ist, lässt sie sich diagonalisieren. Es gilt: D =
QT ΛQ. Wobei Λ eine Diagonalmatrix ist, bestehend aus den Eigenwerten
EWD = {λ1 , λ2 , . . . , λn }
von D ist. Und Q ist eine Orthogonalmatrix. Für Q = α1 α2 . . . αn mit αi ∈ Rn und
i ∈ {1, . . . , n} gilt:


λ1 (α1 )1 λ1 (α2 )1 · · · λ1 (αn )1 
λ2 (α1 )2 λ2 (α2 )2 · · · λ2 (αn )2 

ΛQ =  .
..
..  .
..
.
.
. 
 ..
λn (α1 )n λn (α2 )n · · · λn (αn )n
Und damit ist dann
(QT ΛQ)i j = hαi , α j i(λ1 ,...,λn ) .
KAPITEL 2. LINEARE ALGEBRA
8
Für die Diagonaleinträge folgt dann schließlich:
(QT ΛQ)ii =
n
X
(αi )2k λk .
k=1
Und damit gilt dann (QT ΛQ)ii > 0, da für mindestens ein j gilt: (αi ) j , 0 andernfalls wäre
αi = 0 und die Matrix Q wäre keine Orthogonalmatrix. Und für alle i gilt λi > 0, da D
positiv definit ist. Somit ist dann (QT ΛQ)ii > 0.
Satz 2.1.15. Es sei D ∈ S n (R) eine positiv definite, symmetrische Matrix für die gilt:
(D)i j < 0 für alle i, j mit i , j. Dann folgt (D−1 )i j ≥ 0 für alle i, j.
Beweis. Ohne Beschränkung der Allgemeinheit seien die Diagonaleinträge von D höchstens
1
1. Also (D)ii ≤ 1 für alle i. Andernfalls definiere D̃ ≔ maxi {(D
D. Weiter gilt für die Diaii )}
gonaleinträge, dass sie größer als 0 sind also (D)ii > 0 für alle i, siehe Satz 2.1.14. Dann
definiere die Matrix B mit B ≔ I − D. Dann gilt (B)i j ≥ 0 für alle i, j. Aus
0 < (D)ii ≤ 1
folgt
−1 < (D)ii − 1 ≤ 0
und daraus wiederum
1 > (B)ii ≥ 0.
Und für den größten Eigenwert von B gilt: maxi λi (B) = 1−λ1 (D), wobei λ1 (D) der kleinste
Eigenwert von D ist. Denn sei v ∈ Rn ein Eigenvektor zum Eigenwert λ1 (D), dann gilt:
Bv = (I − D)v = Iv − Dv = v − λ1 (D)v = (1 − λ1 (D))v.
Und sei w ∈ Rn der i-te Eigenvektor zu D, dann gilt: Bw = (1 − λi (D))w und es folgt wegen
λ1 (D) ≤ λi (D), dass 1−λ1 (D) ≥ 1−λi (D) gilt. Und somit ist 1−λ1 (D) der größte Eigenwert
zu D. Da D positiv definit ist, gilt λ1 (D) > 0 und somit 1 − λ1 (D) < 1. Es muss gezeigt
werden, dass die Reihe
∞
X
Bi
i=0
konvergiert. Denn falls dies der Fall ist, ist die Matrix D invertierbar, nach dem Prinzip
der Neumannschen
Reihe [30]. Nach dem Quotientenkriterium muss gezeigt werden, dass
√
limm→∞ m kBm k < 1 gilt. Für die von dem Skalarprodukt induzierten Metrik gilt:
v
t n
X
p
p
T
λi (BT B).
kBk = hB, Bi = trace(B B) =
i=1
Es sei v ∈ Rn der i-te Eigenvektor zum Eigenwert λi (B). Dann gilt: BT Bv = BT (Bv) =
BT λi (B)v. Da B symmetrisch ist, gilt BT = B und insgesamt folgt dann BT Bv = λi (B)2v.
Für die induzierte Norm folgt dann schließlich:
v
t
n
X
kBk =
λi (B)2.
i=1
KAPITEL 2. LINEARE ALGEBRA
9
Nun betrachte
lim
m→∞
p
m
kBm k = lim
m→∞
p
m
trace((Bm )T Bm)
p
m
trace(B2m )
v
t n
X
= lim m
λi (B)2m
= lim
m→∞
m→∞
i=1
m→∞
q
m→∞
i
n · max λi (B)2m
i
√
= lim max λi (B)2 m n
≤ lim
m
= lim max λi (B)2 nexp(log(−m))
m→∞
i
= max λi (B)2 lim nexp(log(−m))
m→∞
i
|
{z
}
=1
= max λi (B)
2
i
< 1.
Somit konvergiert
P∞
i=0
i
B und für die Inverse von D gilt:
D−1 = (I − B)−1 =
∞
X
Bi = I + B + B2 + B3 + . . . .
i=0
Da (B)i j ≥ 0 für alle i, j gilt, folgt daraus, dass (I + B + B2 + . . .)i j ≥ 0 für alle i, j gilt. Und
damit auch für (D−1 )i j ≥ 0 für alle i, j.
Bemerkung: Falls im folgenden von einer Matrix gesprochen wird, die nur einen negativen Eigenwert der Vielfachheit 1 hat, ist damit die Eigenschaft gemeint, dass die Matrix nur
einen negativen Eigenwert besitzt und dieser hat nur die Vielfachheit 1. Da sonst nicht ausgeschlossen ist, dass die Matrix noch andere negative Eigenwerte haben könnte mit einer
größeren Vielfachheit als 1.
Satz 2.1.16. Es sei M ∈ S n (R) mit der Eigenschaft, dass M nur einen negativen Eigenwert
λ1 der Vielfachheit 1 hat. Es sei v1 ∈ Rn ein Eigenvektor zu M mit Eigenwert λ1 und weiter
sei y ∈ Rn mit: hy, v1 i=0. Dann folgt:
hy, Myi ≥ 0.
Beweis. Da die Eigenvektoren vi von M eine Orthogonalbasis bilden mit zugehörigen Eigenwerten λi , lässt sich y als Linearkombination der vi darstellen:
n
X
y=
αi vi .
i=1
Da nun gilt: hy, v1 i = 0 impliziert dies α1 = 0, da 0 = hy, v1 i =
und hv1 , v1 i , 0. Weiter folgt nun:
n
n
X
DX
E
hy, Myi =
αi vi , M
αi vi
i=2
=
n
DX
i=2
=
n
X
i=2
≥ 0.
i=2
αi vi ,
n
X
αi λi vi
i=2
α2i λi hvi , vi i
E
Pn
i=1
αi hvi , v1 i = α1 hv1 , v1 i
KAPITEL 2. LINEARE ALGEBRA
10
Da M nur einen negativen Eigenwert λ1 hat, folgt λi ≥ 0, für alle i , 1 und somit folgt
ebenfalls die Behauptung.
Definition 2.1.17. (Permutationsmatrix).
Es sei P ∈ Rn×n eine Permutationsmatrix, sofern P in jeder Zeile und Spalte genau einen
Eintrag 1 hat und sonst nur die 0.
Definition 2.1.18. (Reduzibilität).
Es sei A eine symmetrische Matrix A ∈ S n (R). A heißt reduzibel,
falls es eine Permutations!
B
C
matrix P ∈ Rn×n gibt, so dass PT AP die Form
hat, wobei B und D symmetrische
0 D
Matrizen sind, sonst heißt A irreduzibel.
Theorem 2.1.19. (Perron-Frobenius Theorem).
Es sei A eine symmetrische, irreduzible Matrix A ∈ S n (R) mit Einträgen ai j ≥ 0 für alle
i, j = 1, 2, . . . , n und sei λ der größte Eigenwert, weiter sei µ ein anderer Eigenwert, dann
gilt:
(i) λ > 0,
(ii) der zu λ zugehörige Eigenvektor x, kann so gewählt werden, dass für alle Einträge
xi > 0 gilt, für alle i = 1, 2, . . . , n,
(iii) λ hat die Vielfachheit 1,
(iv) λ ≥ |µ|.
Beweis. Der Beweis erfolgt nach [18].
(i) Da die Summe aus allen Eigenwerten einer Matrix gleich der Spur der Matrix ist,
folgt trace(A) ≥ 0, da ai j ≥ 0 für alle i, j = 1, 2, . . . , n gilt. Und somit folgt λ ≥ 0. Es
sei u ein zu λ zugehöriger Eigenvektor mit der Länge 1. Dann folgt: λu = Au. Dann
definiere einen Vektor x mit (x)i = |(u)i |. Und es folgt:
0 ≤ λ = hu, Aui ≤ hx, Axi ≤ λ.
Die letzte Ungleichung folgt aus dem Variationstheorem. Somit ist x ebenfalls ein
Eigenvektor zum Eigenwert λ: λx = Ax. Angenommen λ wäre gleich 0, also λ = 0.
Dann würde ai j = 0 für alle i, j = 1, 2, . . . , n folgen, solange (x) j , 0 ist. Nach
Permutation der Indizes lässt sich



> 0, für i = 1, 2, . . . , m
xi 

= 0, für i > m
schreiben. Dann würde daraus und aus Ax = 0 folgen, dass ai j = 0, für j ≤ m gilt.
Was die Reduzibilität von A zur Folge hätte. Ein Widerspruch somit folgt: λ > 0.
(ii) Es sei x wie oben. Falls (x)i = 0 nach Permutation für alle i > m, dann würde aus
λx = Ax die Gleichung
m
X
ai j x j = 0
j=1
mit i > m folgen. Und dies hätte ai j = 0 für i > m ≥ j zur Folge, was der Reduzibilität
von A entspräche. Somit gilt (x)i > 0 für alle i = 1, 2, . . . , n.
(iii) Angenommen λ hätte nicht die Vielfachheit 1. Dann gebe es zwei orthonormale Eigenvektoren u und v zum Eigenwert λ. Nach [25] schreibt man
X
λ((u)i + |(u)i |) =
ai j ((u) j + |(u) j|)
j=1
KAPITEL 2. LINEARE ALGEBRA
11
und dies impliziert entweder (u)i +|(u)i | = 0 für alle i = 1, 2, . . . , n oder (u)i +|(u)i | > 0
für alle i = 1, 2, . . . , n. Dies wird analog auf v angewendet und daraus folgt, dass u
und v nicht orthogonal sein können.
(iv) Es sei w ein zum Eigenwert µ zugehöriger Eigenvektor der Länge 1. Es gilt also
µw = Aw. Nach Voraussetzung ist λ > µ. Und nach dem Variationstheorem folgt
X
X
ai j |(w)i ||(w) j | ≥ |
ai j (w)i (w) j | = |µ|.
λ≥
i, j
i, j
Theorem 2.1.20. (Cauchys-Zwischenwert Theorem).
Es sei A eine symmetrische (hermitesche) Matrix A ∈ S n (R) und sei B ∈ R(n−1)×(n−1) eine Untermatrix von A. Für die Eigenwerte von A gilt λ1 ≥ λ2 ≥ · · · ≥ λn und für die
Eigenwerte von B gilt ebenfalls µ2 ≥ µ3 ≥ · · · ≥ µn . Dann folgt:
λ1 ≥ µ2 ≥ λ2 ≥ · · · ≥ µn ≥ λn .
Beweis. Der Beweis erfolgt nach [14].
Es lässt sich annehmen, dass die Untermatrix B die Reihen und Spalten 2, 3, . . . , n beinhaltet, ansonsten liesse sich durch Permutation der Reihen und Spalten von A dies erreichen.
A hat also folgende Gestalt:
!
a yT
A=
.
y B
Weiter sei D = diag(µ2 , µ3 , . . . , µn ). Da B ebenfalls eine symmetrische Matrix ist, existiert
eine orthogonale Matrix U mit U ∈ R(n−1)×(n−1) , so dass U T BU = D gilt. Und sei Uy = z =
(z2 , z3 , . . . , zn )T . Zunächst wird das Theorem für den speziellen Fall µ2 > µ3 > · · · > µn und
zi , 0 für alle i = 2, 3, . . . , n bewiesen. Sei
!
1 0T
V≔
,
0 U
wobei 0 den Nullvektor entspricht. Dann ist V ebenfalls eine symmetrische Matrix und
!
a zT
T
V AV =
.
z D
Sei f (x) ≔ det(xI − A) = det(xI − V T AV). Dann entwickle die Determinante entlang der
ersten Zeile nach dem Laplaceschen Entwicklungssatz und man erhält
f (x) = (x − a)(x − µ2 ) · · · (x − µn ) −
n
X
fi (x),
i=2
wobei fi (x) = z2i (x−µ2 ) · · · (x[
− µi ) · · · (x−µn ) für alle i = 2, 3, . . . , n. Weiterhin gilt fi (µ j ) =
0 sofern j , i und



> 0, wenn i gerade,
fi (µi ) = 

< 0, wenn i ungerade.
Und damit



< 0, wenn i gerade,
f (µi ) = 

> 0, wenn i ungerade.
Für alle i = 2, 3, . . . , n. Da f (x) ein Polynom vom Grad n ist und einen positiven Leitkoeffizienten hat, folgt nach dem Zwischenwertsatz die Existenz von n Nullstellen λ1 , λ2 , . . . , λn ,
so dass λ1 > µ2 > λ2 > · · · > µn > λn .
KAPITEL 2. LINEARE ALGEBRA
12
Für den allgemeinen Fall, sei ǫ1 , ǫ2 , . . . eine positive Nullfolge, so dass zi + ǫk , 0 für alle
i = 2, 3, . . . , n und k = 1, 2, . . . und die Diagonaleinträge von D + ǫk diag(2, 3, . . . , n) sind
für jede Konstante k eindeutig. Für k = 1, 2, . . . sei
!
a
z(ǫk )T
Ck ≔
,
z(ǫk ) D(ǫ)
wobei z(ǫk ) = z + ǫk (1, 1, . . . , 1)T und D(ǫk ) = D + ǫk diag(2, 3, . . . , n). Weiter sei Ak =
k→∞
(k)
(k)
VCk V T , dann ist Ak symmetrisch und Ak −−−−→ A. Seien λ(k)
1 ≥ λ2 ≥ · · · ≥ λn die
Eigenwerte von Ak . Dann gilt:
(k)
(k)
λ(k)
1 > µ2 + 2ǫk > λ2 > · · · > µn + nǫk > λn .
(n)
(k)
Da λ(k)
1 , λ2 , . . . , λk die eindeutigen Nullstellen von fk (x) = det(xI − Ak ) für alle k sind und
k→∞
(k)
(k)
fk (x) = det(xI−Ak ) ausreichend dicht an f (x) = det(xI−A) ist, folgt (λ(k)
−−−→
1 , λ2 , . . . , λn ) −
(λ1 , λ2 , . . . , λk ) und damit das Theorem.
Satz 2.1.21. Es sei A eine Matrix A ∈ Rn×n mit rank(A) = 1. Nach [26] existieren dann
zwei Vektoren x, y ∈ Rn , so dass gilt:
A = xyT .
Beweis. Es sei A = a1 a2 · · · an mit ai ∈ Rn . Falls rank(A) = 1 gilt, folgt a1 = αi ai
mit αi ∈ R. Dann wähle x ≔ (1, α2 , α3 , . . . , αn ) und y ≔ a1 . Und dann gilt A = xyT .
Satz 2.1.22. Es sei A eine symmetrische Matrix A ∈ S n (R) mit rank(A) = 1, dann existiert
ein Vektor y ∈ Rn , so dass gilt:
A = sgn(a11 )yyT .
Beweis. Es sei A = a1 a2 · · · an mit ai ∈ Rn . Falls rank(A) = 1 gilt, folgt a1 = αi ai
mit αi ∈ R, sofern nun A symmetrisch ist, folgt aus a1 j = a j1 und a11 = α j a j1 schließlich
αj =
Es sei
y≔
√
|a11 |
a11
.
a1 j
√a12
|a11 |
···
√a1n
|a11 |
,
wobei a11 , 0, da sonst A = 0 gelten würde. Es bleibt A = sgn(a11 )yyT zu zeigen. Es ist
(sgn(a11 )yyT )i j = sgn(a11 )
Weiter ist
ai j =
a1i a1 j
.
|a11 |
a1 j a1 j a1 j
=
.
αi
a11
Somit folgt ai j = (sgn(a11 )(yyT ))i j , was zu zeigen war.
Satz 2.1.23. Es sei M ∈ S n (R) mit der Eigenschaft, dass M nur einen negativen Eigenwert
λ1 der Vielfachheit 1 hat. Es sei v1 ∈ Rn ein Eigenvektor zu M mit Eigenwert λ1 . Dann sind
folgende Aussagen äquivalent:
• hx, v1 i = 0 und hx, Mxi = 0
• x ∈ ker(M).
KAPITEL 2. LINEARE ALGEBRA
13
Beweis. Es wird zunächst gezeigt, dass aus hx, v1 i = 0 und hx, Mxi = 0, x ∈ ker(M) folgt.
Da die Eigenvektoren vi von M eine Orthogonalbasis bilden mit zugehörigen Eigenwerten
λi , lässt sich x als Linearkombination darstellen:
x=
n
X
αi vi .
i=1
P
Dies impliziert wie im Beweis von Satz 2.1.16: α1 = 0 und hx, Mxi = ni=2 α2i λi hvi , vi i = 0
nach der Voraussetzung. Da M nur einen negativen Eigenwert λ1 hat, folgt λi ≥ 0, für alle
i , 1. Um die Gleichung hx, Mxi = 0 zu erfüllen, muss es eine Teilmenge I von {2, 3, . . . , n}
also I ⊂ {2, 3, . . . , n} geben, so dass λI = 0 gilt und damit α{2,3,...,n}\I = 0 folgt. Wobei λI = 0
meint, dass für alle i ∈ I: λi = 0 gilt. Daraus ergibt sich:
X
x=
αi vi .
i∈I
Und somit ist x eine Linearkombination aus Eigenvektoren mit Eigenwert 0. Und damit
folgt x ∈ ker(M).
Es wird nun die verbleibende Rückrichtung gezeigt. Sei nun x ∈ ker(M), dann folgt hx, v1 i =
0, da die Eigenvektoren eine Orthogonalbasis bilden. Weiter folgt aus Mx = 0 auch hx, Mxi =
0.
Satz 2.1.24. Es sei M eine Matrix M ∈ Rn×n mit den Einträgen Mi j = −1, dann folgt:
det(M − λI) = (−1)n (nλn−1 + λn ).
Beweis. Für die Matrix M gilt rank(M) = 1, daraus folgt corank(M) = n − 1. Das charakteristische Polynom ist ein normiertes Polynom mit Nullstellen, die den Eigenwerten
entsprechen. Ist n ungerade, so ist der Leitkoeffizient −1 andernfalls 1. Sei x ∈ Rn ein Eigenvektor und λ ein von 0 verschiedener Eigenwert von M zu x, dann gilt Mx = λx. Daraus
folgen für i = 1, 2, . . . , n die n verschiedenen Gleichungen:
λxi = −
n
X
xk .
k=1
Durch Addition dieser Gleichungen folgt:
λ
n
X
i=1
xi = −n
n
X
xk .
k=1
P
Da der Eigenwert von 0 verschieden ist folgt nk=1 xk , 0 und daraus folgt wieder: λ = −n.
Und somit folgt für das charakteristische Polynom: (−1)n (λ)n−1 (λ + n) = (−1)n(nλn−1 +
λn ).
Satz 2.1.25. Es sei M eine symmetrische Matrix M ∈ S n (R) mit
!
0 A
M= T
,
A
0
wobei A ∈ R p×q mit den Einträgen ai j = −1 und p + q = n. Dann folgt:
det(M − λI) = (−1)n (λn − pq · λn−2 ).
Beweis. Für die Matrix M gilt rank(M) = 2, daraus folgt corank(M) = n − 2. Das charakteristische Polynom ist ein normiertes Polynom mit Nullstellen, die den Eigenwerten
KAPITEL 2. LINEARE ALGEBRA
14
entsprechen. Ist n ungerade, so ist der Leitkoeffizient −1 andernfalls 1. Sei x ∈ Rn ein Eigenvektor und λ ein von 0 verschiedener Eigenwert von M zu x, dann gilt Mx = λx. Man
erhält die n verschiedenen Gleichungen:
λxi = −
λx j = −
n
X
xk
k=p+1
p
X
xk ,
k=1
wobei i = 1, 2, . . . , p und j = p + 1, p + 2, . . . , n gilt. Durch Addition dieser Gleichungen
über i beziehungsweise j folgt:
λ
p
X
xi = −p
i=1
λ
n
X
i=p+1
n
X
xk
k=p+1
xi = −q
p
X
xk .
k=1
P
Pp
Da der Eigenwert von 0 verschieden ist folgt nk=p+1 xk , 0 sowie k=1 xk , 0. Nach
Multiplikation der beiden Gleichungen und Division der Summen folgt dann:
λ2
p
X
i=1
xi
n
X
i=p+1
xi = p · q
n
X
k=p+1
λ2 = p · q.
xk
p
X
xk
k=1
√
Und daraus folgt wieder: λ1/2 = ± p · q. Und somit folgt für das charakteristische Polynom: (−1)n (λ)n−2 (λ2 − pq) = (−1)n (λn − pq · λn−2 ).
Kapitel 3
Graphentheorie
3.1 Grundlegendes
Dieses Kapitel ist eine weitere Brücke zwischen den Grundlagen der Graphentheorie und
den Resultaten aus den späteren Kapitel. Hier werden zunächst einfache Definition wie
Graphen, vollständige Graphen und vollständig bipartite Graphen geklärt. Abgesehen von
diesen grundlegenden Definitionen werden andere Begrifflichkeiten, wie zum Beispiel der
Grad eines Knoten u, die Anzahl der zu u adjazenten Knoten, nicht weiter ausgeführt.
Definition 3.1.1. (Graph).
Ein Graph G ist
ein
Paar (V, E) aus einer endlichen Menge V = V(G) und einer Teilmenge
E = E(G) ⊆ V2 = {{u, v}| u, v ∈ V, u , v}. Dabei bezeichnet V die Knoten- und E die
Kantenmenge.
Definition 3.1.2. (vollständige Graphen).
Es sei G ein Graph. G ist ein vollständiger Graph, falls E(G) = V2 gilt. Vollständige
Graphen mit n Knoten werden mit Kn bezeichnet. Siehe hierzu Abbildung 3.1.
Definition 3.1.3. (Komplementärgraphen).
Es sei G ein Graph. Der Komplementärgraph G ist dabei definiert als
!
!
V(G)
G = V(G),
\ E(G) .
2
Der Komplementärgraph G besteht aus allen Knoten von G und allen Kanten, die nicht in
G liegen, siehe dazu Abbildung 3.2.
Definition 3.1.4. (bipartite Graphen).
Es sei G ein Graph. G ist ein bipartiter Graph, falls sich die Knotenmenge in zwei disjunkte
Mengen aufteilen lässt, so dass innerhalb dieser Menge zwei Knoten nicht adjazent sind.
Definition 3.1.5. (vollständig bipartite Graphen).
Es sei G ein bipartiter Graph. G ist ein vollständig bipartiter Graph, falls jeweils zwei
Knoten aus zwei disjunkten Knotenmengen adjazent sind. Vollständige bipartite Graphen
werden mit Kn,m bezeichnet, dabei bedeutet m die Mächtigkeit der einen Knotenmenge und
n die Mächtigkeit der anderen Knotenmenge, siehe hierzu Abbildung 3.3.
Definition 3.1.6. (Pfad).
Es sei G ein Graph. G ist ein Pfad, falls die Knotenmenge aus einer endlichen Folge von
Kanten {vi , vi+1 } besteht, so dass vi , v j mit i , j und das der Knoten vi nur mit dem Knoten
vi−1 und vi+1 adjazent ist. Der erste Knoten v1 der Folge ist dabei nur mit v2 adjazent und
der letzte Knoten vn der Folge ist dabei nur mit dem Knoten vn−1 adjazent. Siehe dazu
Abbildung 3.4.
KAPITEL 3. GRAPHENTHEORIE
16
Abbildung 3.1: Der vollständige Graph K30 .
(a) G
(b) G
Abbildung 3.2: Der Graph G ist in Abbildung (a) dargestellt. Die grauen Kanten repräsentieren dabei die fehlenden Kanten um einen K6 zu erhalten. Diese bilden dann wie
in Abbildung (b) gezeigt, denn Komplementärgraphen G.
Abbildung 3.3: Der vollständig bipartite Graph K17,9 .
KAPITEL 3. GRAPHENTHEORIE
17
2
1
3
n
Abbildung 3.4: Ein Pfad mit n Knoten
Definition 3.1.7. (induzierte Untergraph).
Ein Graph H = (W, F) heißt Untergraph von G = (V, E), wenn W ⊆ V und F ⊆ E ∩ W2
gilt. Für W ⊆ V heißt
!
W H = W, E ∩
2
der von W induzierte Untergraph.
Definition 3.1.8. (Nachbar N).
Es sei G = (V, E) ein Graph. Weiter sei S ⊂ V eine Teilmenge der Knoten von G, dann
bezeichnet
N(S ) ≔ {v | {v, w} ∈ E, v < S , w ∈ S }
die Nachbarn der Teilmenge S .
Definition 3.1.9. (Minor).
Ein Graph H heißt Minor von G, falls
• H aus G nach dem Entfernen eines isolierten Knotens oder
• H aus G nach dem Kontrahieren einer Kante oder
• H aus G nach dem Entfernen einer Kante
hervorgegangen ist. Allerdings werden beim Kontrahieren Mehrfachkanten durch eine Kante ersetzt.
Definition 3.1.10. (zusammenhängend).
Es sei G ein Graph. G ist ein zusammenhängender Graph, falls es für je zwei seiner Knoten
einen Weg gibt, der beide Knoten verbindet.
Definition 3.1.11. (k-zusammenhängend).
Es sei G ein zusammenhängender Graph. G ist k-zusammenhängend, falls |V(G)| > k gilt
und durch Entfernen von weniger als k Knoten, der Graph zusammenhängend bleibt.
Bemerkung: Dies bedeutet auch, dass es zwischen zwei verschiedenen Knoten mindestens k Knoten-disjunkte Pfade geben muss, die beide Knoten verbinden.
Definition 3.1.12. (Brücke).
Es sei G ein zusammenhängender Graph. Zwei adjazente Knoten in G bilden eine Brücke,
falls durch Entfernen der verbindenden Kante der Graph in zwei Zusammenhangskomponenten zerfällt.
Definition 3.1.13. (Block).
Es sei G ein Graph. Ein Block ist ein maximal 2-zusammenhängender Untergraph von G
oder eine Brücke.
Definition 3.1.14. (Baum).
Es sei G ein Graph. G ist ein Baum, falls er zusammenhängend ist und keinen Kreis enthält.
KAPITEL 3. GRAPHENTHEORIE
18
(a) n = 2
(b) n = 3
(c) n=4
Abbildung 3.5: Die möglichen Kombinationen von aufspannenden Bäumen für n = 2, 3, 4.
Satz 3.1.15. (Cayley-Formel).
Die Anzahl aufspannender Bäume auf n ≥ 2 Ecken beträgt:
nn−2 .
Siehe dazu Abbildung 3.1.15.
Beweis. Der Beweis erfolgt mit dem Prüfer-Code. Dabei wird eine Bijektion von einer
Zahlenmenge mit nn−2 Elementen zu der Menge der aufspannenden Bäume konstruiert.
Sei ein Baum G mit durchnummerierten Knoten gegeben. Im ersten Schritt wird ein Blatt
v, ein Knoten mit Grad 1, mit minimaler Nummer gesucht. Die Nummer des Nachbar ist
a1 und somit auch die erste Zahl in der Zahlenfolge. Im zweiten Schritt wird das Blatt v
und die inzidente Kante entfernt. Man erhält einen Baum auf n − 1 Knoten. Nun wiederholt
man dieses Vorgehen (n − 2)-mal. Man erhält eine Zahlenfolge (a1 , a2 , . . . , an−2 ). Siehe dazu Abbildung 3.6.
KAPITEL 3. GRAPHENTHEORIE
19
1
5
2
3
7
3
4
5
2
4
6
6
(a)
5
2
7
(b)
7
5
4
7
4
6
(c)
6
(d)
Abbildung 3.6: In Abbildung (a) ist 1 das kleinste nummerierte Blatt und 2 ist der Nachbar
von 1. Deswegen lautet in diesem Schritt die Zahlenfolge (2). Im zweiten Schritt wurde
der Knoten 1 entfernt sowie die inzidente Kante. Das kleinste Blatt ist nun 3 und dieses
Blatt ist mit Knoten 2 adjazent. Die aktuelle Zahlenfolge lautet nun: (2, 2). In Abbildungen
(c) und (d) sind die kleinsten Blätter rot dargestellt. Die Zahlenfolge lautet erst (2, 2, 5) für
Abbildung (c) und (2, 2, 5, 6) für Abbildung (d). Durch weitere Durchführung der Vorschrift
lautet die Zahlenfolge am Ende: (2, 2, 5, 6, 5).
Im Folgenden soll nun aus einer gegebenen Zahlenfolge der ursprüngliche Baum rekonstruiert werden. Sei nun eine Zahlenfolge (a1 , a2 , . . . , an−2 ) gegeben. Damit erhält meine eine
inverse Zuordnung von der Zahlenfolge zu dem Baum. Im ersten Schritt sucht man das
minimale b1 , welches nicht in der Zahlenfolge (a2 , . . . , an−2 ) enthalten ist. Somit bekommt
man eine Kante {b1 , a1 }. Im zweiten Schritt sucht man das minimale b2 , b1 , welches
nicht in der Zahlenfolge vorkommt. Und so erhält man schließlich die Kante {b2 , a2 }. Diese
Schritte werden nun wiederholt. Siehe dazu Abbildung 3.7.
Für Details siehe [1, Kapitel 7].
Definition 3.1.16. (Kantenfärbung).
Sei G = (V, E) ein Graph und c eine Abbildung c : E → {1, 2, . . . , n} mit n ∈ N, so nennt
man c eine Kantenfärbung von G mit n Farben, falls für zwei benachbarte Kanten e1 und
e2 gilt c(e1 ) , c(e2 ) und c−1 {k} , ∅ für alle k ∈ {1, 2, . . . , n}.
Definition 3.1.17. (chromatische Zahl χ′ ).
Sei G = (V, E) ein Graph. Das kleinste k ∈ N, für das eine Kantenfärbung c : E →
{1, 2, . . . , k} existiert, nennt man die chromatische Zahl. Das k wird mit χ′ (G) bezeichnet.
Definition 3.1.18. (∆, δ).
Sei G = (V, E) ein Graph. Dann ist:
• δ(G) ≔ minv∈V | N(v)|,
• ∆(G) ≔ maxv∈V | N(v)|.
Definition 3.1.19. (Regulär).
Ein Graph G = (V, E) heißt k-regulär, falls k = | N(v)| für alle v ∈ V gilt.
KAPITEL 3. GRAPHENTHEORIE
20
1
1
2
2
3
(a)
(b)
1
1
2
5
5
2
3
3
7
4
6
(c)
(d)
Abbildung 3.7: Sei nun umgekehrt die Zahlenfolge (2, 2, 5, 6, 5) gegeben. Die kleinste Zahl
die nicht in der Zahlenfolge vorkommt ist die 1. Somit Ist die erste Kante mit {1, 2} gegeben,
siehe dazu Abbildung (a). Die Zahlenfolge lautet nun (2, 5, 6, 5). Die kleinste die nicht in
der Zahlenfolge vorkommt und nicht 1 ist, lautet 3. Somit wird nun in Abbildung (b) die
Kante {2, 3} hinzugefügt. Die aktuelle Zahlenfolge ist (5, 6, 5). Die Zahl 2 taucht nicht in
der Zahlenfolge auf und ist auch keine der bereits benutzten Zahlen 1 und 3. Somit wird
nun die Kante {2, 5} hinzugefügt, siehe Abbildung (c). Die Abbildung (d) zeigt, dass nach
Ausführung der Bildungsvorschrift wieder der ursprüngliche Graph zu sehen ist.
(a)
(b)
(c)
Abbildung 3.8: In der Abbildung (a) ist ein Graph mit einer Kantenfärbung auf 4 Farben
gegeben. In der Abbildung (b) und (c) ist ein bunter Weg der Länge 3 und 5 zu sehen.
KAPITEL 3. GRAPHENTHEORIE
21
Definition 3.1.20. (Weg).
Sei G = (V, E) ein Graph. Ein Weg in G ist eine Folge (vi , vi+1 ) von Ecken aus V, so dass vi
und vi+1 adjazent sind.
Sei ein Weg W mit der adjazenten Eckenfolge v1 , v2 , . . . , vn geben, dann hat W die Länge n.
Definition 3.1.21. (bunter Weg).
Sei G = (V, E) ein Graph mit einer Kantenfärbung c auf k Farben. Weiter sei ein Weg W
der Länge n mit einer Folge (vi , vi+1 ) von adjazenten Ecken sowie deren Kanten
e1 = {v1 , v2 }, e2 = {v2 , v3 }, . . . , en−1 = {vn−1 , vn }
gegeben. Der zugehörige Farbraum der Kanten aus W seien durch
CW ≔ {c(ei ) | 1 ≤ i ≤ k}
definiert. Der Weg W heißt bunt, falls |CW | = n − 1 gilt. Siehe dafür Abbildung 3.8.
Bemerkung: Man beachte, dass die Definition des bunten Weges nicht die Möglichkeit
ausschließt, dass auch Kreise enthalten sein können.
Theorem 3.1.22. (Vizings Theorem).
Für jeden Graphen G gilt:
∆(G) ≤ χ′ (G) ≤ ∆(G) + 1.
Beweis. Der Beweis erfolgt in [7, Kapitel 4] mittels Induktion nach der Anzahl der Kanten.
Theorem 3.1.23. Sei G = (V, E) ein zusammenhängender n-regulärer Graph mit einer
Kantenfärbung c auf n + 1 Farben. Dann gibt es einen bunten Weg W der Länge n + 2.
Beweis. Im Folgenden wird gezeigt, dass sich aufgrund der Voraussetzung ein bunter Weg
W ′ der Länge n+1 finden lässt. Sei e1 = {v1 , v2 } ∈ E eine Kante der Farbe c1 ≔ c(e1 ). Dann
füge die Kante e1 zum Weg W ′ hinzu. Der zugehörige Farbraum ist dann CW ′ = {c1 }. Da
G ein n-regulärer Graph ist, hat die Ecke v2 genau n Nachbarn. Wähle eine Ecke v3 , v1 ,
dann hat die Kante e2 = {v2 , v3 } die Farbe c2 ≔ c(e2 ) mit c2 , c1 . Die Kante e2 wird
dann zu W ′ erneut hinzugefügt. Der Farbraum wird durch die Farbe c2 erweitert und lautet
CW ′ = {c1 , c2 }. Durch erneutes Anwenden hat die Ecke v3 ebenfalls n Nachbarn und somit
n − 2 inzidente Kanten mit einer Farbe, die noch nicht im Farbraum liegen. Die Kante wird
erneut zu W ′ hinzugefügt. Im i-ten Schritt hat W ′ genau i − 1 Kanten. Die letzte Kante die
hinzugefügt wurde lautet ei−1 = {vi−1 , vi }. Der Farbraum aus W ′ besteht aus i − 1 Farben.
Die Ecke vi hat wiederum n Nachbarn. Dann wähle die Kante mit einer Farbe aus, die noch
nicht im Farbraum liegt. Sofern i < n gilt, kann man immer eine Farbe in den Farbraum
hinzufügen, da es immer mehr Nachbarn als bereits verwendete Farben gibt. Im (n − 1)ten Schritt wurde als letztes die Kante en−1 = {vn−1 , vn } hinzugefügt und somit besteht der
Farbraum aus n − 1 Farben. Die Ecke vn hat wiederum n Nachbarn also gibt es eine Kante
en = {vn , vn+1 }, die zu vn inzident ist, mit einer Farbe, die noch nicht in CW ′ liegt. Es wurde
gezeigt, dass es mindestens einen bunten Weg W ′ der Länge n + 1 gibt.
Es wird nun angenommen, das der Graph G keinen bunten Weg W der Länge n + 2
enthält. Sei wieder ein bunter Weg W ′ der Länge n + 1 gegeben. Weiter gibt es eine Kante
e, die zu W ′ inzident ist aber nicht in W ′ liegt. Dann soll im Folgenden eine Vorschrift
vorgestellt werden, wie man einen neuen bunten Weg W ′′ der Länge n + 1 erhält, der die
Kante e enthält. Sei ein bunter Weg W mit deren zugehörigen Kanten e1 = {v1 , v2 }, e2 =
{v2 , v3 }, . . . , en = {vn , vn+1 } gegeben. Der Farbraum ist durch CW ′ = {c1 , c2 , . . . , cn } gegeben.
Die Kante e sei zu vi inzident. Zunächst wird allerdings gezeigt, dass c(e) , cn+1 sein muss.
Lemma 3.1.24. Sei ein bunter Weg W ′ der Länge n + 1 gegeben, dann kann nach Voraussetzung keine Kante e existieren, die zu W ′ inzident ist und eine Farbe enthält, die nicht im
Farbraum von W ′ liegt.
KAPITEL 3. GRAPHENTHEORIE
c1
22
c2
c3
cn+1
cn
ci
(a) W ′
c3
cn+1
c1
cn
ci
c2
(b) W ′
cn+1
ci
cn
c1
c2
c3
ci−1
(c) W ′
Abbildung 3.9: In Abbildung (a) ist ein Weg W ′ zu sehen. Es wurde angenommen, dass W ′
zu einer Kante inzident ist, die die Farbe cn+1 trägt. Es werden die ersten Kanten entfernt
und Kanten der gleichen Farben ans Ende hinzugefügt, siehe Abbildung (b). Dies wird so
lange fortgesetzt, bis man schließlich an den Knoten angelangt ist, der zu der Kante mit der
Farbe cn+1 inzident ist. Man erhält einen bunten Weg der Länge n + 2.
Beweis. Angenommen die Farbe der Kante e sei cn+1 . Da angenommen wurde, dass der
Graph G keinen bunten Weg W der Länge n + 2 enthält, müssen die inzidenten Kanten, der
Ecke vn+1 , Farben aus CW ′ enthalten, denn falls eine Kante en+1 mit der Farbe cn+1 dabei
wäre, könnte man den Weg W ′ um diese Kante erweitern und man erhält einen bunten Weg
der Länge n + 2. Dies ergibt einen Widerspruch nach Voraussetzung. Folglich müssen die
inzidenten Kanten, der Ecke vn+1 , Farben aus CW ′ enthalten. Der Weg W ′ erhält nun die
neue Kante en+1 , die die Farbe c1 besitzt und schließlich wird die Kante e1 mit der Farbe
c1 aus W ′ entfernt. Diese Verfahren wird nun so lange angewendet, bis vi die erste Ecke
des Weges W ′ ist. An vi ist schließlich die Kante e inzident. Hätte nun e die Farbe cn+1
zugeordnet bekommen, könnte man W ′ mit e erweitern und somit würde man einen bunten
Weg der Länge n + 2 erhalten. Dies ergibt erneut einen Widerspruch zur Voraussetzung.
Siehe dazu die Abbildung 3.9.
Es wird nun die Vorschrift vorgestellt, wie man einen neuen bunten Weg W ′′ der Länge
n+1 aus W erhält, der die inzidente Kante e enthält sowie den gleichen Farbraum CW = CW ′
besitzt. Zur Erinnerung, der Weg W ′ sei durch die Kanten e1 = {v1 , v2 }, e2 = {v2 , v3 }, . . . , en =
{vn , vn+1 } sowie durch den zugehörigen Farbraum CW ′ = {c1 , c2 , . . . , cn } gegeben mit ci ≔
c(ei ). Die Kante e ist zu der Ecke vi inzident und besitzt die Farbe c j ∈ CW ′ . Ohne Beschränkung der Allgemeinheit sei c j ∈ {c1 , c2 , . . . , ci−1 } ansonsten kehre die Nummerierung
KAPITEL 3. GRAPHENTHEORIE
23
der Farben um. Nach dem Beweis des Lemmas 3.1.24, lässt sich W ′ so abändern, dass an
die letzte Ecke vn+1 eine Kante hinzugefügt wird, die die Farbe c1 trägt. Dann wird die
Kante en+1 hinzugefügt und die Kante e1 entfernt. Dieses Verfahren wird sukzessiv durchgeführt, bis die erste Kante e j in W ′ die Farbe c j trägt. Die Kante e ist nach Voraussetzung
zu den Ecken vi und v < V(W ′ ) inzident. Der Weg W ′′ soll nun durch Kanten an der Ecke
v erweitert werden. Der Graph G ist n-regulär folglich hat die Ecke v genau n Nachbarn.
Abzüglich der Kante e lässt sich W ′′ durch eine von n −1 möglichen Kanten an v erweitern.
Der Weg W ′′ besteht im aktuellen Schritt des Verfahrens aus den Kanten
e = {v, vi }, ei = {vi , vi+1 }, . . . , en = {vn , vn+1 }, en+1 = {vn+1 , vn+2 }, . . . , en+ j−1 = {vn+ j−1 , vn+ j }.
Der Farbraum von W ′′ besteht somit aus
1 + (n − i + 1) + j − 1 = n − i + j + 1
Farben. Schlussfolgernd fehlen noch i − j − 1 Farben um einen bunten Weg der Länge n + 1
zu erhalten. Nach Voraussetzung ist c j ∈ {c1 , c2 , . . . , ci−1 } und somit i − j − 1 ≥ 0. An der
Ecke v gibt es n mögliche Farben, der Farbraum besteht aus n −i+ j+1 Farben des weiteren
soll nicht die Farbe cn+1 hinzugefügt werden. Somit verbleiben
n − (n − i + j + 1) − 1 = i − j
Farben zur Auswahl. Es gilt i − j > 0, wähle eine Kante e′ = {v, v′ } mit einer verbleibende
Farbe hinzu. An der Ecke v′ gibt es nun
n − (n − i + j + 1 + 1) − 1 = i − j − 1
verbleibende Farben zur Auswahl. Es werden immer Kanten einer neuen noch nicht vergebenen Farbe hinzugefügt bis man keine neue Kante anhängen kann. Dann kann man wiederum die Kante mit der letzten verbleibende Farbe an der Ecke vn+ j anhängen. Schließlich
erhält man einen Weg W ′′ der die Kante e enthält und den gleichen Farbraum, wie W ′
besitzt. Siehe hierfür Abbildung 3.10.
Es sei nun wiederum ein bunter Weg W ′ der Länge n + 1 gegeben. Da die Kanten des
Graphen G mit n + 1 Farben gefärbt wurden, gibt es mindestens eine Kante e = {vi , v j } mit
einer Farbe cn+1 < CW ′ . Da der Graph zusammenhängend ist, gibt es mindestens einen Weg
W von einer Ecke in W ′ zu der Ecke vi . Der Weg W ′ wird dann durch das beschriebene
Verfahren durch eine Kante e′ , die inzident zu W ′ ist und auf W liegt, erweitert. Dies geschieht solange, bis die Kante e zu W ′ inzident ist. Schließlich lässt sich dann der Weg W ′
zu einen bunten Weg W der Länge n + 2 erweitern.
Theorem 3.1.25. Es sei G ein zusammenhängender Graph. G ist genau dann ein Pfad,
wenn G weder einen K1,3 noch einen K3 als Minor enthält.
Beweis. Sei G ein Pfad. Es wird gezeigt, dass G weder einen K1,3 noch einen K3 als Minor
enthält. Angenommen der Graph G enthält einen K1,3 oder einen K3 also Minor. Würde der
Graph G einen K1,3 enthalten gebe es einen Knoten vom Grad 3 allerdings ist der Grad bei
einem Pfad höchstens 2. Würde der Graph G den K3 als Minor enthalten, gebe es keinen
Knoten vom Grad 1 allerdings gibt es bei einem Pfad genau zwei Knoten mit dem Grad 1.
Somit enthält ein Pfad keinen K1,3 oder K3 als Minor.
Angenommen G wäre kein Pfad und enthielte weder einen K1,3 noch einen K3 als Minor. Dann dürfte G keinen Knoten enthalten der mindestens einen Grad von 3 besitzt, andernfalls hätte dieser dann bereits einen K1,3 als Minor. Des weiteren muss G mindestens
einen Knoten vom Grad 1 haben, andernfalls wären alle Knoten vom Grad 2 und dann wäre
der K3 ein Minor von G, da sich bis auf drei Kanten, alle anderen Kanten kontrahieren lassen. Da es keinen Graph mit nur einem Knoten vom Grad 1 geben kann, muss es zwei
geben und die restlichen Knoten haben einen Grad 2, somit wäre dieser Graph ein Pfad
und dies ergibt einen Widerspruch zur Annahme.
KAPITEL 3. GRAPHENTHEORIE
c1
24
v5
c2
c4
c3
c5
c2
c7
c6
v
(a) W ′
c2
c4
c3
c5
c2
c6
c7
c1
c1
c3
v
(b)
c2
c4
c5
c6
c7
v
(c) W ′′
Abbildung 3.10: In Abbildung (a) ist ein bunter Weg W ′ der Länge 8 zu sehen. Der Weg
W ′ soll nun so erweitert werden, dass er die Kante e = {v5 , v} enthält. Es werden die ersten
Kanten entfernt und Kanten der gleichen Farben ans Ende hinzugefügt, siehe Abbildung
(b). Dies wird so lange fortgesetzt, bis die erste Kante in W ′ die gleiche Farbe wie e trägt.
In diesem Beispiel c2 . Der neue Weg W ′′ ist rot markiert. Der Knoten v hat 8 Nachbarn. Der
Weg W ′′ besteht bereits aus 5 Farben. Also muss an den Knoten v eine Kante hinzugefügt
werden, die weder c2 , c5 , c6 , c7 , c1 noch c8 enthält. Es werden also 6 Farben ausgeschlossen.
Somit gibt es an v noch zwei Kanten mit einer Farbe, die noch nicht im Farbraum CW ′′
enthalten ist. Füge die Kante mit der Farbe c4 hinzu. Weiter wird an der letzten Ecke die
Kante der Farbe c3 hinzugefügt. Man erhält einen bunten Weg W ′′ der Länge 8, siehe hierzu
Abbildung (c).
v1
v2
v1
u
u
v3
v2
(a)
(b)
Abbildung 3.11: Die zwei Fälle bilden jeweils einen Minor vom K4 oder K1,3 .
KAPITEL 3. GRAPHENTHEORIE
25
Definition 3.1.26. (planarer Graph).
Es sei G ein Graph. G ist ein planarer Graph, falls es eine Einbettung des Graphen in die
Ebene gibt, so dass die Kanten sich sich außerhalb der Knoten nicht schneiden.
Theorem 3.1.27. Es sei G ein Graph. G ist genau dann ein planarer Graph, wenn G weder
einen K3,3 noch einen K5 als Minor enthält.
Beweis. Für den Beweis wird auf die Arbeit von Kuratowski [16] gewiesen.
Definition 3.1.28. (außerplanarer Graph).
Es sei G ein Graph. G ist ein außerplanarer Graph, falls es eine Einbettung des Graphen
in die Ebene gibt, so dass alle Knoten auf einem Kreis liegen und die Kanten sich innerhalb
des Kreises befinden und sich nicht schneiden.
Theorem 3.1.29. Es sei G ein zusammenhängender Graph. G ist genau dann ein außerplanarer Graph, wenn G weder einen K2,3 noch einen K4 als Minor enthält.
Beweis. Der Beweis erfolgt nach [6].
Zunächst kann ein Graph der einen K4 oder einen K2,3 als Minor enthält kein außerplanarer
Graph sein.
Angenommen G ist kein außerplanarer Graph, der weder einen K2,3 noch einen K4 als
Minor enthält. Falls G kein planarer Graph ist, enthält G nach Kuratowskis Theorem 3.1.27
einen K5 oder einen K3,3 als Minor und somit würde er auch einen K4 oder einen K3,3 als
Minor enthalten. Folglich ist G ein planarer Graph. Da G kein außerplanarer Graph ist,
muss es einen Block B mit mehr als zwei Knoten geben, der nicht außerplanar ist. Dann
bette B in die Ebene so ein, dass die maximale Anzahl von Knoten auf einem Kreis Z
liegen. Da B nicht außerplanar ist, muss es mindestens einen Knoten geben, der innerhalb
des Kreises liegt, so dass die Kanten sich nicht schneiden. Sei v1 ein Knoten auf dem Kreis,
der zu einem Knoten u innerhalb des Kreises adjazent ist. Da B ein Block ist, ist der Grad
von u größer gleich 2. Somit gibt es einen Pfad P von u zu einem anderen Knoten v2 , der
auf dem Kreis liegt. Dann gibt es zwei Fälle zu betrachten:
1. Fall: Die Knoten v1 und v2 sind adjazent. Dann muss es einen Knoten w auf dem Pfad
P mit w , v2 geben, der einen Grad von mindestens 3 hat. Andernfalls ließe sich der Pfad
auch auf dem Kreis einbetten. Weiterhin gibt es einen Pfad von w zu einem weitere Knoten
v3 auf dem Kreis. Und die Knoten v1 , v2 , v3 , w würden dann einen Minor vom K4 bilden,
siehe Abbildung 3.11a.
2. Fall: Die Knoten v1 und v2 sind nicht adjazent. Dann bilden die Knoten v1 , v2 , u einen
Minor vom K2,3 , siehe dazu Abbildung 3.11b.
Definition 3.1.30. (Cliquensumme).
Es sei G ein Graph. G ist eine Cliquensumme aus den Graphen G1 = (V1 , E1 ) und G2 =
(V2 , E2 ), falls V = V1 ∪ V2 und E = E1 ∪ E2 gilt und V1 ∩ V2 ist ein vollständiger Graph
sowohl in G1 als auch in G2 , siehe dazu Abbildung 3.12
Definition 3.1.31. (△Y- und Y△-Transformation).
Es sei G ein Graph und v ein Knoten vom Grad 3 mit zugehörigen Nachbarn v1 , v2 , v3 .
Die Y△-Transformation auf v entfernt diesen Knoten v mit inzidenten Kanten und macht
v1 , v2 , v3 paarweise adjazent.
Die △Y-Transformation ist die Umkehrung dieser der Y△-Transformation. Von einem Dreieck mit den Knoten v1 , v2 , v3 entfernt man die inzidenten Kanten und fügt einen Knoten v
hinzu der zu v1 , v2 , v3 benachbart ist. Siehe dazu Abbildung 3.13
Definition 3.1.32. (Zyklus).
Ein Zyklus in einem Graphen G ist eine kantendisjunkte Vereinigung von Kreisen.
KAPITEL 3. GRAPHENTHEORIE
26
(a) G 1
(b) G 2
(c) G
Abbildung 3.12: Die beiden Graphen G1 und G2 aus Abbildung (a) und (b) haben beide
den K3 als Untergraphen, in der Abbildung rot dargestellt. Der Graph G aus Abbildung (c)
ist dann eine Cliquensumme aus G1 und G2 .
v3
v3
v
v1
v2
(a)
v1
v2
(b)
Abbildung 3.13: Von Abbildung (a) zu (b) wurde eine Y△-Transformation bezüglich
des Knotens v angewendet. Andersherum von Abbildung (b) zu (a) wurde eine △YTransformation bezüglich der Knoten v1 , v2 , v3 angewendet.
KAPITEL 3. GRAPHENTHEORIE
27
Definition 3.1.33. (Hamiltonweg, Hamiltonkreis).
Es sei G ein Graph. Ein Hamiltonweg in einem Graphen G ist ein Pfad der alle Knoten
aus V(G) enthält. Ein Hamiltonkreis in einem Graphen G ist ein Pfad der alle Knoten aus
V(G) enthält und dessen Anfangs- und Endknoten aufeinander fallen.
Kapitel 4
Die Colin-de-Verdière-Zahl
4.1 Grundlegendes
Dieses Kapitel behandelt die Ergebnisse, die Y. Colin de Verdière entdeckte, siehe [32]
und [31] sowie andere Erkenntnisse die von H. v. d. Holst, L. Lovász, A. Schrijver [13] und
[22] entwickelt wurden. Hier werden diese Resultate herausgearbeitet und bewiesen. Dabei
werden einige Sätze und Definitionen aus den vorherigen Kapitel benötigt.
Definition 4.1.1. (µ(G)).
Es sei G = (V, E) ein ungerichteter Graph und V = {1, 2, . . . , n} die zugehörige Eckenmenge. Dann ist µ(G) der größte corank(M) einer Matrix M ∈ S n (R) mit folgenden Eigenschaften:



R− \ {0}, sofern i, j adjazent sind und i , j




M1: Mi, j ∈ 
{0},
sofern i und j nicht adjazent sind




R,
sofern i = j
M2: M hat genau einen negativen Eigenwert mit der Vielfachheit 1.
M3: Es gibt keine Matrix X ∈ S n (R) mit X , 0 und Xi, j = 0, sofern i = j oder Mi, j , 0,
so dass gilt: MX = 0.
Bemerkungen: Für jeden Graphen G lässt sich eine Matrix finden, die alle oben genannten Punkte M1-M3 erfüllt. Der erste Punkt ist für jeden Graphen erfüllbar. Der zweite Punkt
ist nach dem Perron-Frobenius-Theorem 2.1.19 ebenfalls erfüllt, denn sofern für die Matrixeinträge ai, j der Bedingung ai, j ≤ 0 genügt, hat die Matrix einen negativen kleinsten
Eigenwert mit der Vielfachheit 1. Solch eine Matrix lässt sich einfach konstruieren. Denn
sei A die Adjazenzmatrix zu dem zusammenhängenden Graphen G mit den beiden größten
Eigenwerten γ1 > γ2 und sei λ so gewählt, dass gilt: γ1 > λ > γ2 , dann erfüllt M ≔ λI − A
die Bedingungen M2 und sogar M3. Falls M eine reguläre Matrix ist, ist der Punkt M3
sowieso erfüllt. Für den Fall, dass M den corank 1 hat, ist die Bedingung ebenfalls erfüllt.
Da X einen rank von 1 haben müsste wäre X darstellbar als X = uuT mit u ∈ Rn , siehe dafür
Satz 2.1.22. Für die 0-Einträge in der Diagonalen folgt dann u = 0, 0, . . . , 0 und somit wäre
X = 0. Wäre der rank von X größer als 1, würde nicht MX = 0 gelten, da X dann nicht
nur einen Spaltenvektor hat der in ker(M) ist und somit MX , 0. Falls G nicht zusammenhängend ist, lässt sich λ für jede Komponente einzeln bestimmen und so eine Matrix
M konstruieren, so dass M2 und M3 erfüllt sind.
Nach M1 sind keinerlei Bedingungen an die Diagonaleinträge geknüpft. Falls nun λ,
der zweitkleinste Eigenwert zu M ist, lässt sich die Matrix M durch M − λI ersetzen und
erfüllt immer noch M1 und damit kann µ(G) als die maximale Vielfachheit des zweiten
Eigenwerts definiert werden.
KAPITEL 4. DIE COLIN-DE-VERDIÈRE-ZAHL
29
Die dritte Eigenschaft M3 nennt man auch Strong Arnold Hypothesis. Sie basiert auf
einer Transversalitätseigenschaft von V. Arnold [3]. Es gibt einige äquivalente Formulierung dazu. Zum einen erfüllt eine Matrix M für einen Graphen G die Bedingung M3, sofern
es für jede symmetrische Matrix B eine Matrix A gibt mit ai j = 0, falls (i, j) ∈ E(G), so dass
xT (A − B)x = 0 für alle x ∈ ker(M) gilt, siehe dazu [31] und [21]. Eine weitere äquivalente
Bedingung ist, dass sich die Matrizenräume V M und S M aus der Definition 2.1.7 und 2.1.10
in der Matrix M transversal schneiden. Die Äquivalenz dieser Bedingung wird im späteren
Satz 4.2.4 bewiesen und findet sich in [13] wieder. Die Bedingung M3 ist trivialerweise
erfüllt, wenn die Matrix M regulär ist.
Beispiele:
Für den vollständigen Graphen K4

−1 −1
−1 −1
M = 
−1 −1
−1 −1
gilt µ(K4 ) = 3. Denn es sei

−1 −1

−1 −1
.
−1 −1
−1 −1
Dann erfüllt die Matrix M den Punkt M1, da alle Knoten miteinander adjazent sind und
somit die Nichtdiagonaleinträge alle negativ sein müssen. Das charakteristische Polynom
der Matrix M lautet:
det(M − λI) = 4λ3 + λ4 .
Und daraus folgt dann für die Eigenwerte: EW = {0, 0, 0, −4} und damit ist auch M2 erfüllt.
Der Punkt M3 ist dann ebenfalls gegeben, da aus der Bedingung für die Matrix X bereits
X = 0 folgt. Alle Matrixelemente von M sind ungleich 0, woraus sich die Einträge für X
zu 0 ergänzen müssen. Somit ist µ(K4 ) = 3.
Satz 4.1.2. (Der vollständige Graph Kn ).
Für den vollständigen Graphen Kn gilt
µ(Kn ) = n − 1.
Beweis. Es sei Mi, j = −1 für alle i, j ∈ {1, 2, . . . , n}. Dann ist die Eigenschaft M1 erfüllt.
Für das charakteristische Polynom gilt:
det(M − λI) = (−1)n · (n · λn−1 + λn ),
siehe Satz 2.1.24. Somit folgt für die Eigenwerte:
EW = (0, 0, . . . , 0, −n)
| {z }
n−1
und folglich ist auch M2 erfüllt. Die Eigenschaft M3 ist ebenfalls erfüllt, da aus M3 bereits
X = 0 folgt, siehe dazu das Beispiel für den K4 . Da die Matrix M genau n Eigenwerte
besitzt, ist der maximale corank gleich n − 1, da ein Eigenwert aufgrund der Eigenschaft
M2 negativ sein muss. Somit folgt schließlich µ(Kn ) = n − 1.
Satz 4.1.3. (Der Komplementärgraph von Kn ).
Für den Komplementärgraph Kn von Kn gilt:
µ(Kn ) = 1, für n ≥ 2.
Beweis. Sei M eine zu Kn zugehörige Matrix. Die hat dann die Matrix M die Gestalt


0
0 ···
0 
a11 0

 0 a22 0
0 ···
0 


 0
0 a33 0 · · ·
0 


M =  0
0
0 a44 · · ·
0  .
 .
..
..
..
.. 
..
 ..
.
.
.
.
. 


0
0
0
0 · · · ann
30
KAPITEL 4. DIE COLIN-DE-VERDIÈRE-ZAHL
Die Matrix M hat dann die zugehörigen Eigenwerte: EW = {a11 , a22 , . . . , ann }. Es müssen
nun Bedingungen an die Diagonalelemente gestellt werden, so dass Definition 4.1.1 erfüllt
wird. M1 ist erfüllt, da es keine Kanten in dem Graphen Kn gibt und somit die Matrix nur
aus Diagonalelementen bestehen muss. Für den Fall M2 muss für einen und nur für einen
Eintrag aii < 0 gelten, da es dann nur einen negativen Eigenwert mit der Vielfachheit 1
gibt. Um nun einen möglichst großen corank zu erhalten, müssten die restlichen Diagonaleinträge 0 sein. Allerdings ist dann der Punkt M3 nicht mehr erfüllt. Man kann höchsten
eine 0 in ein Diagonalelement einsetzen. Angenommen die Matrix M hat zwei 0 Einträge
auf der Diagonalen also o.B.d.A a11 = a22 = 0. Dann definiere eine Matrix X ∈ Rn×n mit:



1, sofern {i, j} = {1, 2}
Xi j ≔ 

0, sonst.
Und daraus folgt: MX = 0. Somit kann M nur eine 0 als Eintrag auf der Diagonalen haben.
Sei a j j = 0, dann folgt aus der Bedingung MX = 0 die Gleichungen:
a11 · xm1 = a22 · xm2 = · · · = a j j · xm j = · · · = ann · xmn = 0,
für alle m ∈ {1, 2, . . . , n}. Daraus folgt dann xmk = 0 für alle m ∈ {1, 2, . . . , n} und k ∈
{1, 2, . . . , ĵ, . . . , n}. Schließlich kann xm j , 0 sein allerdings muss dann ebenfalls x jm , 0
wegen der Symmetrie gelten. Dies ergibt allerdings einen Widerspruch, da xmk = 0 für
alle m ∈ {1, 2, . . . , n}, k ∈ {1, 2, . . . , ĵ, . . . , n} gelten muss. Somit ist x jk = 0 für alle k ∈
{1, 2, . . . , ĵ, . . . , n} und laut Voraussetzung muss x j j = 0 gelten und somit ist M3 erfüllt.
Daraus folgend müssen die Diagonaleinträge von M einen negativen Eintrag haben sowie
einen Eintrag 0 haben und die restlichen Diagonaleinträge müssen größer als 0 sein. Damit
sind alle Punkte von Definition 4.1.1 erfüllt und es gilt µ(Kn ) = 1 für n ≥ 2.
Satz 4.1.4. Der vollständige Graph G ist der einzige Graph mit n ≥ 3 Knoten für den
µ(G) = n − 1
gilt.
Bemerkung:
µ(K2 ) = 1.
Der Graph K2 und sein Komplement K2 erfüllt die Eigenschaft µ(K2 ) =
Beweis. Für den Graphen Kn gilt bereits µ(Kn ) = n − 1, siehe Satz 4.1.2. Es verbleibt also
noch die Rückrichtung zu zeigen. Es sei M eine zu G zugehörige Matrix, die Definition
4.1.1 und corank(M) = n − 1 erfüllt. Daraus folgt, dass rank(M) = 1 und aufgrund der
Symmetrie folgt, dass sich M darstellen lässt, als
M = −uuT
für einen Vektor u ∈ Rn , siehe Satz 2.1.22. Sofern nun für alle Einträge aus u gilt: ui ,
0 besitzt die Matrix M ebenfalls keine 0-Einträge und somit ist der zugehörige Graph
vollständig.
Angenommen der Graph G ist nicht vollständig, dann muss wegen M1 mindestens ein
Eintrag von u Null sein, da sonst alle Knoten benachbart wären. Also sei ui = 0. Dann ist







T
M = −uu =  0 · · ·





i’te Spalte
0
..
.
0
0
0
0
..
.
0
0
···







0 .





31
KAPITEL 4. DIE COLIN-DE-VERDIÈRE-ZAHL
Da n ≥ 3 ist, hat die Matrix M einen corank von mindestens 2, das bedeutet, dass die
Dimension des Kerns von M ebenfalls mindestens 2 ist. Aus mindestens 2 linear unabhängigen Vektoren x1 , x2 ∈ ker(M) lässt sich durch Linearkombination αx1 + βx2 = x
mit α, β ∈ R ein α und β finden, so dass α(x1 )i + β(x2 )i = 0 gilt und zwar mit β = −(x2 )i
und α = (x1 )i . Dann betrachte die Matrix X:

 0
 .
 ..

 0

T
T
X = xei + ei x =  x1
 0

 ..
 .
0
···
..
.
···
···
···
..
.
···
0
..
.
i’te Spalte
x1
..
.
0
..
.
0
xi−1
0
..
.
xi−1
0
xi+1
..
.
0
xi+1
0
..
.
0
xn
0
···
..
.
···
···
···
..
.
···





0 

xn 

0 
.. 
. 

0
0
..
.
Und dann gilt: MX = 0 dies ist ein Widerspruch zu M3. Also ist der vollständige Graph G
mit n Knoten der einzige Graph mit µ(G) = n − 1.
Satz 4.1.5. (Pfad mit n Knoten).
Für einen Pfad Pn mit n ≥ 2 Knoten gilt:
µ(Pn ) = 1.
Beweis. Sei M eine zu Pn zugehörige Matrix. Dann hat aufgrund von M1 in der Definition
4.1.1 die Matrix die folgende Tridiagonalgestalt:


0
···
0 
a11 a12 0

a21 a22 a23
0
···
0 


a34
···
0 
 0 a32 a33


..  .
..
..
M = 
.
.
0 a43
. 
 0
 .

..
..
..
 ..

.
.
.
a
a
(n−1)(n−1)
(n−1)n 


0 ···
0 an(n−2)
an(n−1)
ann
Es sei M̃ die Matrix die aus M entsteht, wenn man die erste Spalte und die letzte Zeile
entfernt:


0
···
0 
a12 0

a
0
···
0 
 22 a23


.. 

a34
···
.  .
M̃ = a32 a33

 .
.. 
.
.
.
 ..
..
..
..

.


0 · · · a(n−1)(n−2) a(n−1)(n−1) a(n−1)n
Für x ∈ Rn−1 , folgt aus M̃x = 0:
x1 = 0 =⇒ x2 = 0 =⇒ · · · =⇒ xn−1 = 0.
Somit kann die Matrix M nach Cauchys-Zwischenwert-Theorem 2.1.20 höchstens einen
corank von 1 haben. Solch eine Matrix lässt sich einfach erzeugen, indem man M durch
M − λI ersetzt, wobei λ der zweitkleinste Eigenwert zum Eigenvektor v1 ∈ Rn ist und somit
die neue Matrix einen corank von 1 hat, da
(M − λI)v = Mv − λIv = λv − λv = 0
und genau wie die alte Matrix die Punkte von Definition 4.1.1 erfüllt. Der Punkt M1 ist
erfüllt, da die neue Matrix nur die Diagonaleinträge ändert. Die Eigenschaft M2 wird ebenfalls erfüllt, da nur der zweitkleinste Eigenwert auf 0 gesetzt wurde aber der kleinste nach
KAPITEL 4. DIE COLIN-DE-VERDIÈRE-ZAHL
32
wie vor negativ ist und der Punkt M3 ist nach der Bemerkung auf Seite 28 auch erfüllt.
Somit ist µ(Pn )=1.
4.2 Haupteigenschaften
Definition 4.2.1. (Transversales Schneiden).
Es seien M1 , M2 , . . . , Mk differenzierbare, offene Mannigfaltigkeiten die im Rd eingebettet
sind. Weiterhin sei x ein gemeinsamer Punkt von M1 , M2 , . . . , Mk . Dann schneiden sich
M1 , M2 , . . . , Mk transversal an x, sofern die Normalenräume N1 , N2 , . . . , Nk an x linear
unabhängig sind.
Abbildung 4.1: Die drei Ebenen schneiden sich transversal im gemeinsamen Schnittpunkt,
da die Normalen linear unabhängig sind.
Bemerkung: Im R2 schneiden sich zwei nicht parallele Geraden transversal. Wären sie
identisch, hätten sie die gleichen Normalen. Im R3 können sich drei Ebenen transversal
schneiden, siehe dazu Abbildung 4.1.
Bemerkung: In der Originalarbeit [13] benutzen die Autoren H. v. d. Holst, L. Lovász
und A. Schrijver das folgende Lemma 4.2.2 und Korollar 4.2.3 ohne Beweis. Dies soll im
Folgenden auch so gehandhabt werden.
Lemma 4.2.2. Es seien M1 (t), M2 (t), . . . , Mk (t) differenzierbare Mannigfaltigkeiten im Rd
und man nehme an, dass sich M1 (0), M2 (0), . . . , Mk (0) transversal in x schneiden, dann
gibt es eine Nachbarschaft W ⊂ Rk um den Ursprung, so dass für alle ǫ ∈ W die Mannigfaltigkeiten M1 (ǫ1 ), M2 (ǫ2 ), . . . , Mk (ǫk ) sich transversal am Punkt x(ǫ) schneiden, wobei
x(t) eine stetige Funktion sei mit x(0) = x.
Korollar 4.2.3. Angenommen M1 , M2 , . . . , Mk seien differenzierbare Mannigfaltigkeiten
im Rd , die sich transversal an x schneiden. Weiter sei v eine gemeinsame Tangente von
M1 , M2 , . . . , Mk mit kvk = 1. Dann existiert für jedes ǫ > 0 ein Punkt x′ , x, so dass
M1 , M2 , . . . , Mk sich transversal an x′ schneiden und es gilt:
x − x′ − v < ǫ.
kx − x′k
Satz 4.2.4. (Äquivalenz zu M3).
Eine Matrix M ∈ S n (R) erfüllt die Eigenschaft M3 aus Definition 4.1.1 genau dann, wenn
sich V M und S M , aus Definition 2.1.10 und 2.1.7, transversal schneiden.
KAPITEL 4. DIE COLIN-DE-VERDIÈRE-ZAHL
33
Beweis. Angenommen die Matrix M ∈ S n (R) erfüllt die Eigenschaft M3 aus Definition
4.1.1, dann gibt es keine Matrix X ∈ S n (R) mit X , 0 und Xi, j = 0, sofern i = j oder Mi, j ,
0, so dass gilt: MX = 0. Diese Eigenschaft ist äquivalent zum transversalen Schneiden der
beiden Räume V M und S M , denn der Normalenraum zu V M , also
N M S M = {X ∈ S n (R)|MX = 0},
siehe hierzu Satz 2.1.9, und der Normalenraum zu S M , also
N M V M = {X ∈ S n (R)|Xi j = 0, falls i = j oder Mi j , 0},
siehe hierzu Satz 2.1.12, sind linear unabhängig an M. Weiterhin gibt es keine Matrix X,
außer die 0-Matrix, die in N M V M und N M S M liegt. Und falls es keine Matrix X , 0 gibt
die in N M V M und N M S M liegt, also beide linear unabhängig sind, ist die Eigenschaft M3
erfüllt.
Theorem 4.2.5. (Minormonotonie [31]).
Falls der Graph H ein Minor vom Graph G ist, folgt µ(H) ≤ µ(G).
Beweis. Zunächst sei M eine Matrix, die die Definition 4.1.1 für den Graphen H erfüllt.
Aus M konstruiere man nun eine Matrix M ′ , die Definition 4.1.1 für den Graphen G sowie
corank(M) ≤ corank(M ′ ) erfüllt. Dabei teilt sich der Beweis in drei Fälle: 1. eine Kante
wurde entfernt, 2. ein isolierter Knoten wurde entfernt und 3. zwei Knoten wurden kontrahiert.
• Kante wurde entfernt:
H wurde durch die Entfernung der Kante e = vu gewonnen. Da M Definition 4.1.1 erfüllt,
ist nach Satz 4.2.4 M3 äquivalent zum transversalen Schneiden der beiden Räume V M und
S M . Weiter sei V(t) die Mannigfaltigkeit, die man erhält, wenn man zu allen Matrizen aus
V M die Nullen in der Position (u, v) und (v, u) durch −t ersetzt. Weiter sei S (t) = S M .
Dann gibt es nach Lemma 4.2.2 ein ǫ, so dass S (ǫ) und V(ǫ) sich transversal an einer Matrix M ′ schneiden. Die Matrix M ′ erfüllt dann die Eigenschaft M1 der Definition 4.1.1, da
M ′ ∈ V(ǫ) nach Lemma 4.2.2. Ebenfalls erfüllt sie die Eigenschaft M2, da M, M ′ ∈ S M sind
und somit die gleiche Signatur haben und deswegen gilt auch corank(M ′ ) ≥ corank(M).
M3 ist ebenfalls erfüllt, da sich S M und V(ǫ) transversal schneiden und somit nach Satz
4.2.4 M3 erfüllt ist.
• Isolierten Knoten wurde entfernt:
H wurde durch das Entfernen eines isolierten Knotens gewonnen. Es sei ohne Beschränkung
der Allgemeinheit der Knoten 1, der entfernt worden ist, dann gilt für die neue Eckenmenge
von H gerade V(H) = {2, 3, . . . , n}. Weiterhin hat die Matrix M ′ die Form:


 1 0 · · · 0 

 0


M ′ =  .
 .

 ..
M


0
Die Matrix M ′ erfüllt dann die Definition 4.1.1. Die Eigenschaft M1 ist erfüllt, da M bereits
M1 erfüllt und nur eine Ecke mit dem Eintrag auf der Diagonalen hinzukommt. M2 ist
ebenfalls erfüllt, denn angenommen es gäbe zwei negative Eigenwerte mit zugehörigen
Eigenvektoren v, w ∈ Rn , dann wäre


 v1  


v2  
 .  
M ′ v = 
 M  ..  
  

vn
34
KAPITEL 4. DIE COLIN-DE-VERDIÈRE-ZAHL
und

 w
1 

w2 

 . 
M ′ w = 
 M  .. 
 

wn







und M hätte ebenfalls zwei negative Eigenwerte, was im Widerspruch zu der Voraussetzung
steht, dass M die Eigenschaft M2 erfüllt. M ′ erfüllt M3, denn gäbe es eine Matrix X ′ , die
die Eigenschaften M3 erfüllt und für die gilt: M ′ X ′ = 0, dann wäre sie von der Form:

 0

X ′ = 
 v
vT






X
für ein v ∈ Rn . Dann würde aber gelten:




M ′ X ′ = 


0 0
0
..
.

0 


 .


···
MX
0
Und dann müsste MX = 0 sein, was im Widerspruch zu der Voraussetzung, dass M erfüllt
den Punkt M3 steht.
• Knoten wurde kontrahiert:
Es sei H der Graph der durch das Kontrahieren zweier Knoten u und v aus G entstanden ist.
Dann ist die Knotenmenge von H gegeben durch V(H) = {2, 3, . . . , n}, wobei 2 der neue
Knoten ist. Sei P die Matrix, die man aus M erhält, wenn man noch eine Zeile und eine
Spalte hinzufügt mit den Einträgen 0 außer an Position P1,1 = 1. Also:




P = 


1 0
0
..
.
0
···
M

0 


 .


Weiter nehme an, dass u in G adjazent zu den Knoten 3, . . . , r ist. Nun betrachte die folgenden Matrixmengen:
(
für i, j > 1 erfüllt A die Eigenschaft M1 )
ij
• Ma = A ∈ S n (R)
.
bezüglich H und A1 j = 0, falls j = 2, j > r
• Mb = S P = {A ∈ S n (R)| sign(A) = sign(P)},
)
(
rank(Ã) = 1, Ã Untermatrix der
.
• Mc = A ∈ S n (R)
Spalten 1,2 und der Zeilen 3, . . . , r
Im Folgenden soll P ∈ Ma , Mb , Mc gezeigt werden.
• P ∈ Ma , da M genau wie Ma 0-Einträge hat, sofern i und j nicht adjazent sind. Und
P1 j = 0 ist, falls j ≥ 2.
• P ∈ Mb , da natürlich P die Signatur von P hat.
• P ∈ Mc , da die erste Spalte mit den Zeilen 3, . . . , r nur aus Nullen besteht und die
zweite Spalte von P mit den Zeilen 3, . . . , r nicht aus Nullen besteht, da der Knoten
2 mit 3, . . . , r adjazent sein soll und somit nach Definition 4.1.1 M1 nicht leer sein
darf.
35
KAPITEL 4. DIE COLIN-DE-VERDIÈRE-ZAHL
Diese drei Mannigfaltigkeiten aus S n (R) enthalten also P. Es gilt nun zu zeigen, dass sich
diese drei Mengen auch transversal in P schneiden. Deswegen werden nun die Normalenräume an P bestimmt.
• (Der Normalenraum von Ma ).
Lemma 4.2.6. (Der Tangentialraum von Ma an P).
Der Tangentialraum TP Ma besteht aus:
TP Ma = {sgn(Pi j ) ◦ Ai j |A ∈ S n (R), i, j > 1, i , j und A1 j = 0, falls j = 2, j > r}.
Der Tangentialraum besteht aus allen Matrizen, die das selbe Muster aus Nullen
bilden, wie P und an den Stellen A1 j für j = 2 und j > r gleich 0 sind.
Beweis. Betrachte eine beliebige differenzierbare Abbildung M : R −→ S n (R),
t 7−→ sgn(P̄) ◦ A(t), wobei A : R −→ S n (R) so gewählt ist, dass M(0) = P gilt und P̄
die Form:


T
0 
 1 0 −1

 0

P̄ = 

sgn P
 −1

0
hat und 1 = (1, 1, . . . , 1) ∈ Rr . Dann ist M eine beliebige differenzierbare Kurve im
Raum Ma , die durch P geht. Und für die Einheiten T ∈ TP Ma des Tangentialraums
von Ma an P gilt:
d
M(t)
t=0
dt
d
= sgn(P̄) ◦ A(t)
t=0
dt
= sgn(P̄) ◦ A′ (0)
T=
Dies ist gerade die Menge aller Matrizen mit den selben Muster aus Nullen, wie P
und an den Stellen A1 j für j = 2 und j > r gleich 0 sind.
Lemma 4.2.7. (Der Normalenraum von Ma an P).
Der Normalenraum NP Ma ist definiert durch:
NP Ma = {X ∈ S n (R)|Xi j = 0, falls i j ∈ E(H), i = j oder i = 1 und j < {2, r+1, r+2, . . . , n}}.
Beweis. Es sei sgn(P̄) ◦ A ∈ TP Ma , dann muss für X ∈ NP Ma gelten: hsgn(P̄) ◦
A, Xi = 0. Daraus folgt dann
hsgn(P̄) ◦ A, Xi = trace (sgn(P̄) ◦ A)T X
= trace (sgn(P̄) ◦ A)X
Da A eine beliebige symmetrische Matrix ist, definiere A ≔ X. Dann ist trace (sgn(P̄)◦
X)X ≥ 0 und dies wird nur 0, wenn bereits X = 0 ist oder sgn(P̄) ◦ X = 0 gilt. Und
dies trifft zu, wenn Xi j = 0, falls i j ∈ E(H) oder i = 1 und j < {2, r + 1, r + 2, . . . , n}}.
36
KAPITEL 4. DIE COLIN-DE-VERDIÈRE-ZAHL
Somit hat NP Ma an der Stelle P die Form:
NMa (P)

 0
 x
 2
 0

 ..
 .
= 
 0
 x
 r+1
 ..
 .

xn
x2
···
0
0
xr+1
···
X′
• (Der Normalenraum von Mb an P).

xn 






 .






Lemma 4.2.8. (Der Normalenraum von Mb an P).
Der Normalenraum NP Mb von Mb an P besteht aus:
NP Mb = {X ∈ S n (R)|PX = 0}.
Beweis. Der Beweis wurde bereits im Satz 2.1.9 erbracht.
Mit PX = 0 folgt, dass die erste Zeile von X 0-Einträge haben muss und somit
wegen der Symmetrie auch die erste Spalte. Würde dies nicht gelten und ein Eintrag
in der erste Zeile würde keine 0 enthalten also x1, j , 0, dann wäre PX , 0, da
(PX)1, j = x1, j , 0. Somit hat NMb an P die Form:
NMb (P)
mit MY ′ = 0.




= 


0
0
..
.
0 ···
0
Y′

0 


 ,


• (Der Normalenraum von Mc an P).
Lemma 4.2.9. (Der Tangentialraum von Mc an P).
Der Tangentialraum TP Mc von Mc an P besteht aus:
TP Mc = {A ∈ S n (R)|A1 j = λP1 j , λ ∈ R, j = 3, . . . , r}
Beweis. Betrachte eine beliebige differenzierbare Abbildung M : R −→ S n (R),
t 7−→ A(t), wobei A(0) = P und






A(t) = 




a11 (t)
a21 (t)
γ(t)α(t)
ar+1,1 (t)
..
.
a12 (t)
a22 (t)
α(t)
a1,n (t)
..
.
an,1 (t)
an,2 (t)
γ(t)α(t)T
α(t)T
a1,r+1 (t) · · ·
a2,r+1 (t) · · ·
B(t)
a1,n (t)
a2,n (t)










mit α : R −→ Rr−2 und γ : R −→ R mit γ(0) = 0 gilt. Dann ist M eine beliebige Kurve im Raum Mc , die durch P geht. Und für die Einheiten T ∈ T p Mc des
37
KAPITEL 4. DIE COLIN-DE-VERDIÈRE-ZAHL
Tangentialraums von Mc an P gilt:
d
M(t)
t=0
dt
= A′ (0)

a′11 (0)
a′12 (0) γ′ (0)α(0)T + γ(0)α′ (0)T


′
α′ (0)T
a21 (0)
a′22 (0)

 γ′ (0)α(0) + γ(0)α′ (0) α′ (0)

= 
a′r+1,1 (0)
a′1,n (0)

..
..


.
.

a′n,1 (0)
a′n,2 (0)

a′12 (0) γ′ (0)α(0)T + a′1,r+1 (0) · · · a′1,n (0)
 a′11 (0)
 a′ (0)
a′22 (0)
α′ (0)T
a′2,r+1 (0) · · · a′2,n (0)

21
 γ′ (0)α(0) α′ (0)
=  a′ (0) a′ (0)
1,n
 r+1,1
..
..

B′ (0)
.
.

′
′
an,1 (0)
an,2 (0)
T=
a′1,r+1 (0) · · ·
a′2,r+1 (0) · · ·
a′1,n (0)
a′2,n (0)
B′ (0)






 , da γ(0) = 0.




Dies ist gerade die Menge aller Matrizen mit A1 j = λP1 j , λ ∈ R, j = 3, . . . , r.
Lemma 4.2.10. (Der Normalenraum von Mc an P).
Der Normalenraum NP Mc von Mc an P besteht aus:
NP Mc (P) = {X ∈ S n (R)|Xi j = 0, falls i , 1 und j < {3, . . . , r}, wobei
r
X
X1 j P2 j = 0}.
j=3
Beweis. Es sei T ∈ TP Mc , dann muss für X ∈ NP Mc gelten: hT, Xi = 0. Daraus
folgt dann







hT, Xi = trace 





a11
a21
λP3,2
..
.
λPr,2
ar+1,2
..
.
a2,n
a12
λP2,3
···
λP2,r
A
a1,r+1
···
 
a1,n  
 
 
 
 
 
 
 · X 
 
 
 
 
 
Da A eine beliebige Matrix ist, definiere Ai j ≔ Xi j für i, j ∈ {1, 2, . . . , n} außer für i =
1 und j ∈ {3, . . . , r} beziehungsweise außer für j = 1 und i ∈ {3, . . . , r}. Dann muss
Ai j = 0 sein für i, j ∈ {1, 2, . . . , n} außer für i = 1 und j ∈ {3, . . . , r} beziehungsweise
P
außer für j = 1 und i ∈ {3, . . . , r} und es muss gelten: λ rj=3 P2 j X1 j = 0. Und dies ist
gerade die Behauptung.











38
KAPITEL 4. DIE COLIN-DE-VERDIÈRE-ZAHL
Somit hat N ∈ NP Mc an P die Form:

 0 0 z3
 0

 z3
 .
 .
.
N = 
z
 r
 0

 ..
 .
0
Pr
mit j=3 P2 j z j = 0.
···
zr

0 






 ,






0 ···
0
Bemerkung: Der Normalenraum NA Mc an einer beliebigen symmetrischen Matrix A mit der Eigenschaft, dass (A13 , . . . A1r ) , 0 gilt, hat die Gestalt:








NA Mc = 






0
0
z3
..
.
0
0
−λz3
..
.
zr
0
..
.
−λzr
0
..
.
0
0
z3
−λz3
···
···
zr
−λzr
0
0
···
···
0
0
0








 ,






P
mit rj=3 a2 j z j = 0. Dies sieht man, wenn man die Bedingung von NA Mc folgendermaßen darstellt: λ(A13 , . . . A1r ) = (A23 , . . . A2r ). Weiter
definiert man α(t) ≔
(A13 (t), . . . A1r (t)) mit α(0) = (A13 , . . . A1r ) und f (t) ≔ λα(t)
, dann sind die Elemente
α(t) λα′ (0)
d
des Tangentialraums folgendermaßen gegeben: dt f (t)t=0 = α′ (0) . Und somit gilt
′ (0) (z ,...,z ) 3
r
für die Elemente des Normalenraums: h λα
α′ (0) , −λ(z3 ,....zr ) i = 0.
Die Normalenräume von Ma , Mb und Mc wurden nun erarbeitet. Es bleibt zu zeigen,
dass sie sich transversal an P schneiden.
Lemma 4.2.11. NP Ma , NP Mb und NP Mc sind linear unabhängig.
Beweis. Im Folgenden meint eine Gleichung mit dem Normalenraum, dass dieser Ausdruck für beliebige Elemente des Raums gelten sollen. Angenommen NP Ma , NP Mb und
NP Mc wären linear abhängig, dann existieren α, β, γ ∈ R, so dass gilt:
αNP Ma + βNP Mb + γNP Mc = 0
und es gilt nicht α = β = γ = 0. Dann folgt γ = 0, da NP Ma und NP Mb 0’ en haben,
wo NP Mc keine Nullen hat, bzw. steht NP Mc orthogonal auf NP Ma und NP Mb , da gilt:
hNP Mc , NP Ma i = hNP Mc , NP Mb i = 0. Dann müssten wiederum NP Ma und NP Mb linear abhängig sein. Die Matrix X ′ in NP Ma hat dieselben Eigenschaften wie in Definition
4.1.1 M3. Nun gilt aber für NP Mb , dass für die Matrix Y ′ gilt: MY ′ = 0, sind nun aber
NP Ma und NP Mb linear abhängig würde das Definition 4.1.1 M3 für die Matrix M widersprechen und es müsste X ′ = 0 gelten und somit sind NP Ma , NP Mb und NP Mc linear
unabhängig.
39
KAPITEL 4. DIE COLIN-DE-VERDIÈRE-ZAHL
Daraus folgt, dass Ma , Mb und Mc sich transversal an P schneiden. Nun betrachte die
Matrix T mit:


0 P2,3 · · · P2,r 0 · · · 0 
 0

 0



 P2,3

 .

 ..

 .
T = − 

0
 P2,r

 0

 .

 ..



0
Lemma 4.2.12. Die Matrix T ist eine gemeinsame Tangente von Ma , Mb und Mc an der
Stelle P.
Beweis. Betrachte hNP Ma , T i. Da die Matrix NP Ma genau dort Nullen hat, wo T keine
hat, gilt: hNP Ma , T i = 0. Betrachte hNP Mb , T i. Da die Matrix NP Mb genau dort Nullen
hat, wo T keine hat, gilt ebenfalls: hNP Mb , T i = 0. Nach dem Beweis vom Lemma 4.2.10
gilt ebenfalls hNP Mc , T i = 0.
Nach Korollar 4.2.3 gibt es eine Matrix P′ an der sich NP Ma , NP Mb und NP Mc
transversal schneiden. Es wird nun gezeigt, dass P − P′ und T fast parallel“ sind. Dies
”
bedeutet, dass die Matrix P′ genau dort keine Nulleinträge hat, an denen P oder T keine
Nulleinträge, bis auf die Diagonaleinträge, haben. Das P′ das gleiche Muster wie P hat,
folgt daraus, dass P′ Element der Matrixmenge Ma ist. Die Matrix P′ hat darüber hinaus
keine Nulleinträge, an denen T keine Nulleinträge hat. Dies sieht man, wenn man annimmt
das P′1,3 = 0 aber T 1,3 , 0 gilt. Schließlich folgt aus
′
P − P − T = T 2 + . . . ≥ T 2
1,3
1,3
kP − P′ k
2
Und für ǫ < T 1,3
ist das Korollar 4.2.3 nicht mehr erfüllt. P′ ist also von der Form:
 ′
 P1,1

 0
 P′
 1,3
 ..
 .
P′ =  ′
 P1,r

 0
 .
 ..

0
0
P′1,3
···
P′1,r
Q
0
···

0 






 .






Da P′ ∈ Ma bedeutet dies, dass Q für den Graphen H die Definition 4.1.1 M1 erfüllt
und zusätzlich gilt, da (P1,3 , · · · , P1,r ) , 0, dass der Knoten 1 zu 3, . . . , r adjazent ist.
Weiterhin ist P′ ∈ Mb , was bedeutet, dass corank(P) = corank(P′ ) ist und der Punkt M2
von der Definition 4.1.1 erfüllt ist, da P und P′ die gleiche Signatur haben. Aus P′ muss
nun eine Matrix konstruiert werden, die mindestens den selben corank wie P hat und die
die Definition 4.1.1 für G erfüllt.




 1 0 0 · · · 0 
 0 0 0 · · · 0 

 − 1 1 0 · · · 0 


 λ

 1




, wobei E21 =  0
Es sei S = I − λ1 E21 =  0 0 1
 .



 ..

 ..
..
..

 .


.
0
.

 .


0
0 0
1
Dann definiere A ≔ S P′ S T . Und somit besitzt A nach dem Sylvesterschen Trägheitssatz
40
KAPITEL 4. DIE COLIN-DE-VERDIÈRE-ZAHL
2.1.6 die gleiche Signatur wie P′ , da S ∈ GL (R). Somit hat A genau wie P′ genau einen
negativen Eigenwert mit der Vielfachheit 1. Somit ist der Punkt M2 von Definition 4.1.1
erfüllt. Da P′ ∈ Mc ist die erste Zeile mit den Spalteneinträgen P′1,3 , . . . , P′1,r ein Vielfaches
der zweiten Zeile mit den gleichen Spalteneinträgen und zugehörigen Faktor λ. Schließlich
folgt:
A = S P′ S T
 ′
 P1,1
 0

 λP′

1,3
 ..
 .
= S 
 λP′1,r
 0

 .
 ..

0

 P′
 1,1
 0

′
 λP1,3
 .
 .
= S  . ′
 λP
1,r

 0
 .
 .
 .
0
Daraus ergibt sich:

 P′
′
 P1,1
 − 1,1
λ

 λP′1,3

 ..
A =  .
 λP′
1,r

 0

 ..
 .
0
0
Q11
P′1,3
..
.
P′1,r
Q1,r+1
..
.
λP′1,3
P′1,3
λP′1,r
P′1,r
···
···
···
···
0
Q1,r+1
0
Q1,n−1
Q(n−2)×(n−2)
Q1,n−1
P′
− λ1,1
Q11
0
..
.
0
Q1,r+1
..
.
λP′1,3
P′1,3
λP′1,r
P1,r
···
···
···
···
0
Q1,r+1
0
Q1,n−1
Q(n−2)×(n−2)
Q1,n−1
−
P′1,1
λ
1 ′
P
λ2 1,1
+ Q1,1
0
..
.
0
Q1,r+1
..
.
Q1,n−1
λP′1,3
0
···
···
λP′1,r
0
0
Q1,r+1
Q(n−2)×(n−2)
···
···







 T
 S














 .







0
Q1,n−1








 .







Die Matrix A erfüllt nun für den Graphen G die Eigenschaft M1 der Definition 4.1.1, da
der Knoten 1 zu den Knoten 2, 3, . . . , r adjazent ist und der Knoten 2 nicht zu den Knoten 3, . . . , r adjazent ist. Die Teilmatrix Q(n−2)×(n−2) erfüllt die Eigenschaft M1 schon laut
Voraussetzung somit erfüllt auch A den Punkt M1. Es bleibt zu zeigen, dass A auch die
Eigenschaft M3 erfüllt. Angenommen es existiert eine Matrix X, die die Eigenschaften M3
erfüllt und für die gilt: AX = 0. Dann hat X die Gestalt:


0
0
···
0
X1,r+1 · · · X1,n 
 0

 0
X2,3 · · ·
X2,r
X2,r+1 · · · X2,n 
0


 0

X2,3


..
..


.
.
 .

X = 

X2,r
X(n−2)×(n−2)
 0


 X1,r+1 X2,r+1


.
.


..
..


X1,n
X2,n
41
KAPITEL 4. DIE COLIN-DE-VERDIÈRE-ZAHL
Aus AX = 0 folgt wiederum S P′ S T X = 0, da A = S P′ S T . S ist invertierbar, also vereinfacht sich die Gleichung zu P′ S T XS = 0. Weiter sei Y ≔ S T XS :
Y = S T XS


0
0
···
0
X1,r+1 · · · X1,n 
 0

 0
0
X2,3 · · ·
X2,r
X2,r+1 · · · X2,n 


 0

X2,3


..
..


.
.

 S T
= S 

X2,r
X(n−2)×(n−2)
 0

 X

 1,r+1 X2,r+1


..
..


.
.


X1,n
X2,n

0
0
− λ1 X2,r
X1,r+1 − λ1 X2,r+1
− λ1 X2,3 · · ·


0
0
X2,3
···
X2,r
X2,r+1


X2,3
− λ1 X2,3

..
..

.
.

= 

X2,r
− λ1 X2,r
X(n−2)×(n−2)
 X1,r+1 − 1 X2,r+1 X2,r+1
λ


..
..

.
.

X2,n
X1,n − λ1 X2,n
···
···
X1,n − λ1 X2,n
X2,n
Falls nun (X2,3 , · · · , X2,r ) , 0 definiere:

0


0

 − 1 X2,3
 λ
..


.
Z ≔  1
 − λ X2,r

0


..

.

0
0
0
X2,3
..
.
− λ1 X2,3
X2,3
···
···
− λ1 X2,r
X2,r
0 ···
0 ···
0
0
0
X2,r
0
..
.
0
Dann gilt:

0


0


0

..


.
X̃ = 
0

 X
1
 1,r+1 − λ X2,r+1

..

.

X1,n − λ1 X2,n
0
0
0
..
.
0
X2,r+1
..
.
X2,n
0
0
···
···
0
0
X1,r+1 − λ1 X2,r+1
X2,r+1
X(n−2)×(n−2)








 und X̃ ≔ Y − Z.






···
···
X1,n − λ1 X2,n
X2,n








 .






Dann ist Y eine Normale zu P′ an Mb , Z ist eine Normale zu P′ an Mc (P′ ) und X̃ ist eine
Normale zu P′ an Ma (P′ ). Allerdings wäre X̃ eine Linearkombination aus Y und Z, ein
Widerspruch zu der Voraussetzung, das sich Ma , Mb und Mc transversal an P′ schneiden.
Wäre nun allerdings (X2,3 , · · · , X2,r ) = 0, dann ist Y bereits eine Normale zu Mb und Ma ,
dies ist wieder ein Widerspruch. Somit erfüllt A den Punkt M3.








 .






KAPITEL 4. DIE COLIN-DE-VERDIÈRE-ZAHL
42
Abbildung 4.2: Der Graph G besteht aus drei Komponenten: K2 , K3 und K4 . Und es gilt:
µ(G) = µ(K4 ).
Theorem 4.2.13. (Komponenten).
Es sei G ein Graph mit mindestens einer Kante, dann gilt:
µ(G) = max µ(K),
K
wobei K über die Komponenten von G geht.
Bemerkung: Besteht der Graph G aus drei Komponenten der vollständigen Graphen K2 ,
K3 und K4 , dann gilt µ(G) = µ(K4 ) = 3, siehe Abbildung 4.2. Falls G keine Kante hat,
ist die Aussage falsch. Denn sei G = Kn , dann ist µ(K n ) = 1 nach Satz 4.1.3 aber für
jede Komponente K1 von G gilt: µ(K1 ) = 0 nach Satz 4.1.2 somit ist µ(Kn ) = 1 , 0 =
maxK µ(K) = µ(K1 ).
Beweis. Nach dem Theorem 4.2.5 gilt: µ(G) ≥ maxK µ(K), da eine Komponente ein Minor
vom Graphen G ist. Sei nun M eine Matrix die Definition 4.1.1 für den Graphen G erfüllt
und für die außerdem corank M = µ(G) gilt. Dann hat M die Gestalt:


 M1







M2
 .
M = 




..


.


Mn
Sofern G mindestens eine Kante enthält gilt µ(G) > 0, da bereits nach Satz 4.1.2 µ(K2 ) = 1
gilt und somit K2 ein Minor vom Graphen G wäre und nach Theorem 4.2.5 somit µ(G) ≥
µ(K2 ) > 0 gilt und somit folgt daraus ebenfalls corank(M) > 0. Und dann gilt:
Lemma 4.2.14. Es existiert genau eine Komponente K für die corank(MK ) > 0 gilt.
Beweis. Angenommen es gäbe zwei Komponenten K und L mit corank(MK ) > 0 und
corank(ML ) > 0 und sei |V(K)| = i und |V(L)| = j. Dann wähle zwei Vektoren aus den
Kernen der beiden Matrizen: x ∈ ker(MK ) und y ∈ ker(ML ) mit x , 0, y , 0. Dann
nummeriere die Knoten von G so um, dass gilt:



 MK






ML

M = 
 .



..


.


Mn
43
KAPITEL 4. DIE COLIN-DE-VERDIÈRE-ZAHL
Dann definiere neue Vektoren x̃ = (x1 , . . . .xi , 0, . . . .0)T und ỹ = (0, . . . , 0, y1 , . . . , y j , 0 . . . , 0)T
| {z }
i
und weiter X ≔ x̃ỹT + ỹ x̃T . Dann hat X die Gestalt:

 0


 yxT

X = 




Und dann folgt:






MX = 




xyT
0
..
0
MK
ML
..
.
Mn

0



 (ML y)xT

= 




(MK x)y
.
T
 
 
 
 
 
 
 · 
 
 
 
0
..
.
0
= 0.






 .



0
xyT
yxT
0
..
.
0




















Die Matrix erfüllt die Eigenschaften für X aus der Definition 4.1.1 M3 und es gilt MX = 0.
Ein Widerspruch, da es keine solche Matrix X, nach Voraussetzung geben darf. Somit ist
die Annahme falsch und das Lemma bewiesen.
Also existiert genau eine Komponente K für die corank(MK ) > 0 gilt. Und somit muss
auch gelten: corank(M) = corank(MK ).
Man betrachte nun den 1. Fall: MK hat keinen negativen Eigenwert. Dann muss aufgrund
von corank(MK ) > 0 Null der kleinste Eigenwert sein. Nun muss die Vielfachheit 1 sein,
denn sei nun angenommen der Eigenwert hätte mindestens die Vielfachheit 2 mit den beiden Eigenvektoren α, β ∈ Ri . Und es sei
a ≔ | max(MK )ii |.
i
Dann sei M̃K ≔ MK − aI und daraus resultiert: M̃K α = MK α − aIα = −aα und M̃K β =
MK β − aIβ = −aβ. Und dann hätte M̃K einen kleinsten Eigenwert von −a mit der Vielfachheit 2, was im Widerspruch zu Perron-Frobenius Theorem 2.1.19 steht. Somit ist
corank(MK ) = corank(M) = µ(G) = 1.
Nun sei L eine Komponente von G mit mindestens einer Kante, dann gilt: µ(L) ≥ 1 und daraus wiederum µ(L) ≥ µ(G). Es wurde am Anfang bereits gezeigt, dass µ(G) ≥ maxK µ(K)
gilt. Somit gilt die Gleichheit für den Fall, dass MK keinen negativen Eigenwert besitzt.
Man betrachte nun den 2. Fall: MK besitzt einen negativen Eigenwert der Vielfachheit 1.
Dann erfüllt die Matrix MK von der Definition 4.1.1 den Punkt M1, da MK eine Untermatrix von M ist. Weiterhin erfüllt die Matrix auch den Punkt M2, da angenommen wurde,
44
KAPITEL 4. DIE COLIN-DE-VERDIÈRE-ZAHL
dass MK einen negativen Eigenwert besitzt. Es bleibt zu zeigen, dass MK die Eigenschaft
M3 erfüllt. Sei X eine Matrix, die die Punkte aus M3 erfüllt und für die gilt: MK X = 0.
Dann definiere eine neue Matrix X̃ ∈ S n (R) mit:


 X







0
 .
X̃ = 


..


.


0
Dann gilt:






M X̃ = 










= 




MK
ML
..
.
Mn
MK X
0
..
.
0
= 0.










 
 
 
 
 
 
 · 
 
 
 
X
0
..
.
0










Die ergibt einen Widerspruch zur Annahme, dass M die Eigenschaft M3 erfüllt. Somit
erfüllt MK die Definition 4.1.1 und es gilt µ(G) = corank(MK ).
Satz 4.2.15. (Alternative Bedingung für M2). Es sei G ein Graph mit mindestens zwei
Knoten, dann kann man aus der Definition 4.1.1 den Punkt M2 durch die Bedingung
M2’: Die Matrix M höchstens einen negativen Eigenwert
ersetzen.
Beweis. Es sei M eine zu den Graphen G zugehörige Matrix mit maximalem corank unter
den Bedingungen M1, M3 der Definition 4.1.1 sowie der Bedingung M2’. Angenommen
die Matrix M hat keinen negativen Eigenwert, dann wäre M positiv semidefinit. Und nach
dem Perron-Frobenius-Theorem 2.1.19 hat MK die zugehörige Untermatrix von der Komponente K dann als kleinsten Eigenwert 0 mit der Vielfachheit 1. Siehe dazu den Beweis
von Theorem 4.2.13 mit der Matrix MK . Und weiter ist höchstens eine Untermatrix singulär. Also gilt corank(M) = 1 für M. Und nach den Bemerkungen auf Seite 28 lässt sich
dann M durch eine Matrix ersetzen, die dann M2 der Definition 4.1.1 erfüllt.
Theorem 4.2.16. (Knoten entfernen).
i. Es sei G = (V, E) ein Graph und sei v ∈ V, dann gilt:
µ(G) ≤ µ(G − v) + 1.
ii. Falls v adjazent zu allen anderen Knoten ist und G mindestens eine Kante hat, gilt
Gleichheit.
KAPITEL 4. DIE COLIN-DE-VERDIÈRE-ZAHL
45
Beweis. (Von i.)
Nach Theorem 4.2.13 lässt sich annehmen, dass G zusammenhängend ist, falls G nicht zusammenhängend ist, nehme man die Komponente K für die gilt: µ(G) = µ(K). Weiter sei M
eine zu G zugehörige Matrix, die Definition 4.1.1 erfüllt und für die gilt: µ(G) = corank(M).
Weiter sei v = n. Dann definiere die Matrix M ′ als die Matrix, die man erhält, wenn
man von M die letzte Zeile und Spalte entfernt. Dann gilt: corank(M ′ ) ≥ corank(M) − 1.
Denn seien EW M = {−a1 , 0, 0, . . . , 0, a2 , a3 , . . . , am } mit corank(M) = k die Eigenwerte von M. Nach Cauchys-Zwischenwert-Theorem 2.1.20 gilt demnach für die Eigenwerte
EW M′ = {b1 , b2 , . . . , bm+k−1 }:
−a1 ≤ b1 ≤ 0 ≤ b2 ≤ 0 ≤ · · · ≤ 0 ≤ bk+1 ≤ a2 ≤ · · · ≤ bk+m−1 ≤ am .
Es gibt also mindestens k − 1 Eigenwerte von M ′ die 0 sind, nämlich b2 , b3 , . . . , bk . Es muss
also gezeigt werden, dass M ′ die Definition 4.1.1 erfüllt, da M ′ schon eine Matrix für den
Graphen G − v ist. Des Weiteren gilt das Theorem für den Fall µ(G) ≤ 2. Falls µ(G) = 1
gilt offensichtlich:
µ(G) = 1 ≤ µ(G − v) + 1.
Falls µ(G) = 2 ist, gilt das Theorem nur dann nicht, wenn µ(G − v) = 0 ist und dies ist der
Fall, wenn G − v = K1 ist, siehe dazu Satz 4.1.2. Allerdings wäre dann entweder G = K2
oder G = K2 \ e und daraus schlussfolgernd wäre aber µ(G) = 1. Siehe für den Fall G = K2
Satz 4.1.2 und für den Fall G = K2 \ e Satz 4.1.3. Somit betrachte nur den Fall µ(G) ≥ 3.
M1: Da die Matrix M den Punkt M1 erfüllt und M ′ eine symmetrische Untermatrix von
M ist, erfüllt M ′ die Eigenschaft M1.
M2: Nach Cauchys-Zwischenwert-Theorem 2.1.20 hat M ′ höchstens einen negativen Eigenwert b1 und Satz 4.2.15 impliziert die Eigenschaft M2.
M3: Folgt nach zwei Lemmata.
Es gilt: corank(M ′ ) ≤ corank(M). Angenommen M ′ hat einen negativen Eigenwert, dann
können nur noch b2 , b3 , . . . , bk+1 0 sein, also k-Werte genau wie M. Angenommen M ′ ist
positiv-semidefinit und hat keinen negativen Eigenwert. Und weiterhin hat jede Untermatrix von M ′ , die zu eine Komponente von G −v gehört, einen corank von höchstens 1. Siehe
dazu den Beweis von Theorem 4.2.13. Dann ist der corank von M ′ die Anzahl der Untermatrizen zu den Komponenten, die singulär sind. Es wird zunächst das folgenden Lemma
gezeigt.
Lemma 4.2.17. Und es gibt höchstens drei solcher Untermatrizen.
Beweis. Angenommen es gäbe vier Komponenten K1 , K2 , K3 und K4 . Sei xi ∈ ker(MKi )
mit i = 1, 2, 3, 4. Nach dem Perron-Frobenius-Theorem 2.1.19 ist xi > 0, d.h. alle Einträge
sind positiv für alle i. Dann erweitere xi zu einen Vektor in Rn in dem man Nullen hinzunimmt und zwar an Stellen an denen die anderen Komponenten vorhanden sind. Weiter sei
z der Eigenvektor von M der zum kleinsten Eigenwert gehört. Nach dem Perron-FrobeniusTheorem 2.1.19 gilt auch hier: z > 0 für alle Einträge. Somit ist hz, xi i , 0. Skaliere dann
xi so, dass hz, xi i = 1 gilt. Dann definiere
X ≔ (x1 − x2 )(x3 − x4 )T + (x3 − x4 )(x1 − x2 )T .
Daraus folgt allerdings MX = 0. Nach Satz 2.1.23 folgt aus: h x̃, zi = 0 und h x̃, M x̃i = 0,
dass x̃ ∈ ker(M) gilt. Dies benutzt man um (x1 − x2 ), (x3 − x4 ) ∈ ker(M) zu zeigen. Es sei
x̃ ≔ (x1 − x2 ), dann gilt:
h x̃, zi = hx1 − x2 , zi
= hx1 , zi − hx2 , zi
=1−1
= 0.
46
KAPITEL 4. DIE COLIN-DE-VERDIÈRE-ZAHL
Und weiter:










h x̃, M x̃i = x̃T 








M K1
M K2
M K3
M K4
..
.
aT


 MK1 x1 
 M x 
 K2 2 
 0 


= x̃T  . 
 .. 


 0 
 T 
ha , x̃i
= (x1 )1


  (x1 )1 
  . 
  .. 

 
 (x1 )m 
  (x ) 
  2 1 
  . 
a   .. 

 
  (x2 )l 
  0 

 
  .. 
  . 

 

 
0
···
(x1 )m
(x2 )1
···
(x2 )l
0 ···
= 0.


 0 
 0 


 0 
0  . 
 .. 


 0 
 T 
ha , x̃i
Somit ist M(x1 − x2 ) = 0 und analog M(x3 − x4 ) = 0. Die Matrix X erfüllt die Eigenschaften M3 der Definition 4.1.1. Es gilt: MX = 0. Dies ergibt einen Widerspruch, da M die
Eigenschaft M3 erfüllt. Und somit kann es höchstens drei Komponenten geben.
Der Beweis von Teil i. wird nun fortgeführt. Da der corank von M ′ die Anzahl singulärer Komponenten angibt, gilt:
corank(M ′ ) ≤ 3 ≤ corank(M).
Nach Annahme gilt 3 ≤ corank(M) bereits. Zusätzlich gilt: rank(M ′ ) + corank(M ′ ) = n − 1
und damit
n − 1 − rank(M ′ ) = corank(M ′ )
und analog für M: n − rank(M) = corank(M). Aus corank(M ′ ) ≤ corank(M) folgt dann:
rank(M) − 1 ≤ rank(M ′ ).
Und dies impliziert dann das folgende Lemma, das nun gezeigt wird.
Lemma 4.2.18. Die letzte Spalte von M ist eine Linearkombination aus den übrigen Spalten und dem kanonischen Basisvektor en .
47
KAPITEL 4. DIE COLIN-DE-VERDIÈRE-ZAHL
Beweis. Da der corank von M mindestens 3 ist, gibt es mindestens drei linear unabhängige
Vektoren: x1 , x2 , x3 ∈ ker(M). Dann gilt:










Mx j = 








M K1

 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 

a1
M K2
a2
M K3
a3
a4
..
.
M K4
..
aT1
aT2
aT3
aT4
.
aTn
···
Daraus folgt schließlich:



















MK1 (x j )1
MK2 (x j )2
MK3 (x j )3
MK4 (x j )4
..
.
Pn−1
i=0
ai · (x j )i




















 = − 
















a1 · (x j )n
a2 · (x j )n
a3 · (x j )n
a4 · (x j )n
..
.
an · (x j )n
(x j )1
(x j )2
(x j )3
(x j )4
..
.
(x j )n










 = 0.


















 .








Falls nun ein j existiert, so dass (x j )n , 0 gilt, definiere x̃ ≔ − (x1j )n · x j und für den n-ten
Eintrag: x̃n ≔ an und dann gilt:



















M K1
M K2
0
M K3
M K4
..
.
0
1










 · x̃ = a.








Falls nun kein j existiert, so dass (x j )n , 0 gilt, folgt daraus, dass es wegen corank(M ′ ) ≤
3 ≤ corank(M) drei voneinander verschiedene Zahlen r, s, t geben muss, so dass
(x j )r , (x j ) s , (x j )t , 0
und
MKr (x j )r = MKs (x j ) s = MKt (x j )t = 0
für j = 1, 2, 3 gelten muss. Die anderen Fälle, dass zum Beispiel für ein j auch (x j )r = 0
gelten kann werden dabei analog behandelt. Hierbei meint (x j )r nicht den r-ten Eintrag des
48
KAPITEL 4. DIE COLIN-DE-VERDIÈRE-ZAHL
Vektors x j , sondern die Einträge für die zugehörige Komponente MKr . Da die x j linear
unabhängig sind und die Untermatrizen MKr , MKs , MKt einen corank von eins haben, lässt
sich durch Linearkombination der x j drei Vektoren x̃1 , x̃2 und x̃3 bilden, so dass
( x̃1 )r , ( x̃2 ) s , ( x̃3 )t , , 0
und
( x̃1 )i = 0, für i , r
( x̃2 )i = 0, für i , s
( x̃3 )i = 0, für i , t,
gilt. Dann gilt M x̃1 = M x̃2 = M x̃3 = 0 und daraus folgt wieder
MKr ( x̃1 )r = MKs ( x̃2 ) s = MKt ( x̃3 )t = 0
und
har , ( x̃1 )r i = ha s , ( x̃2 ) s i = hat , ( x̃3 )t i = 0
somit sind die Zeilen von MKr und die Zeile ar linear abhängig und daraus folgt aufgrund
der Symmetrie von M, dass a eine Linearkombination der Spalten von M ist.
Der Beweis von Teil i. wird nun zu Ende geführt. Es bleibt zu zeigen, dass M ′ die
Eigenschaft M3 der Definition 4.1.1 erfüllt. Angenommen es gibt eine Matrix X ′ ∈ S n−1 (R)
die M3 erfüllt und das gilt: M ′ X ′ = 0. Dann definiere




X ≔ 






 = (X1 , . . . , Xn−1 , 0).
0 

0
0
..
.
X′
0 ···
0
Dann folgt aus MX:



MX = 





= 






= 


M′
a
aT
 
 
 
 · 
 
 
X′
0
···
M′ X ′
ha, X1 i
···
ha, Xn−1 i
0
0
..
.
ha, X1′ i · · ·
0
′
ha, Xn−1
i 0





0 

0
0
..
.
0

0 
.. 
. 

0 

0




 .

Wobei Xi die i-te Spalte der Matrix X ′ ist. Dann betrachte: ha, X j i. Nach Lemma 4.2.18 ist
a eine Linearkombination aus den Spalten von M beziehungsweise aus den Zeilen wegen
der Symmetrie der Matrix M. Somit ist in diesem Fall der Vektor a eine Linearkombination
49
KAPITEL 4. DIE COLIN-DE-VERDIÈRE-ZAHL
aus den Spalten von M ′ . Daraus folgt: a =
ha, X j i =
=
Pn−1
i=1
n−1
DX
λi Mi′ für gewisse λi . Das impliziert dann:
λi Mi′ , X j
i=1
n−1
X
i=1
E
λi Mi′ T · X j
= 0.
Da bereits M ′ X ′ = 0 gilt, folgt daraus, dass Mi′ T X ′j = 0 gilt und somit auch ha, X ′j i = 0.
Somit ist MX = 0 ein Widerspruch, da M die Eigenschaft M3 der Definition 4.1.1 erfüllen
soll. Somit erfüllt auch M ′ die Definition 4.1.1 und die Behauptung i. von Theorem 4.2.16
ist bewiesen.
Beweis. (ii. von Theorem 4.2.16)
Es sei v adjazent zu allen anderen Ecken. Dann bleibt zu zeigen, dass µ(G) ≥ µ(G − v) + 1
ist. Nach dem Theorem 4.2.13 lässt sich annehmen, dass G − v zusammenhängend ist. Falls
nicht, betrachte einfach die Komponente K für die gilt: µ(G) = µ(K). Es sei M ′ eine zu G−v
zugehörige Matrix, die die Definition 4.1.1 erfüllt und für die gilt: corank(M ′ ) = µ(G − v).
Des Weiteren sei z der Eigenvektor von M ′ , der zum kleinsten Eigenwert λ1 gehört. Nach
dem Perron-Frobenius-Theorem 2.1.19 gilt: z < 0 und z lässt sich so skalieren, dass kzk = 1
gilt. Dann definiere die Matrix M so:
!
λ−1 zT
M≔ 1
.
z
M′
Sofern nun x ∈ ker(M ′ ) folgt: (0, x)T ∈ ker(M), denn
hz, xi
M · (0, x) =
M′ x
T
!
!
hz, xi
=
.
0
Aus hM ′ x, zi = 0 folgt hx, zi, da
hM ′ x, zi = hx, M ′ zi
= hx, λ1 zi
= λ1 hx, zi
= 0.
Somit ist hx, zi = 0. Weiter ist (−λ1 , z)T ∈ ker(M), denn
!
−λ−1
λ1 + hz, zi
1
M · (−λ1 , z) =
−λz + M ′ z
!
−1 + 1
=
−λz + λz
T
= 0.
Daraus folgt: corank(M) ≥ corank(M ′ ) + 1. Folglich hat nach Cauchys-ZwischenwertTheorem 2.1.20 die Matrix M genau einen negativen Eigenwert. Es sind die Eigenwerte
von M ′ :
EW M′ = {λ1 , 0, 0, . . . , 0, λk+2 , . . . , λk+l }
| {z }
k
50
KAPITEL 4. DIE COLIN-DE-VERDIÈRE-ZAHL
und die Eigenwerte von M:
EW M = {γ1 , γ2 , . . . , γk+l+1 }.
Weiter gilt: γi ≤ λi ≤ γi+1 . Dann folgt aus: corank(M) ≥ corank(M ′ ) + 1, dass γ j = 0 für
j ∈ {2, . . . , k+2}. Und γ1 ≤ λ1 und somit ist für M der Punkt M2 der Definition 4.1.1 erfüllt.
Der Punkt M1 ist ebenfalls erfüllt, da M ′ eine Untermatrix ist und der Knoten, der entfernt
wurde, der erste Knoten ist. Da die erste Zeile beziehungsweise die erste Spalte der Matrix
M nach Voraussetzung keinen 0-Eintrag enthält, ist auch der Knoten mit allen anderen
Knoten adjazent. Es bleibt zu zeigen, dass M auch den Punkt M3 erfüllt. Angenommen es
gibt eine Matrix X, die die Eigenschaften aus M3 erfüllt. Dann hätte X die Gestalt:




X ≔ 


0
0
..
.
···
0
X′
0
Angenommen MX = 0 würde gelten, dann folgt:
MX =
λ−1
1
z




= 


0
0
..
.
0


! 
T

z

′ ·
M 

hz, X1′ i
0 0
0
..
.
0
···
M′ X ′

0 


 .


···
X′

0 






′
hz, Xn−1
i 


 .


Und dann müsste auch M ′ X ′ = 0 folgen. Ein Widerspruch, da M ′ die Eigenschaft M3 der
Definition 4.1.1 erfüllen soll.
Somit erfüllt M die Definition 4.1.1 und es gilt: corank(M) ≥ corank(M ′ ) + 1. Somit ist die
Aussage bewiesen.
Bemerkung: Im folgenden seien λ1 , . . . , λn die nach der Größe geordneten Eigenwerte einer Matrix M. Ist also von λ1 (M) beziehungsweise λ1 (MC ) die Rede, meint dies den
kleinsten Eigenwert der Matrix M beziehungsweise den kleinsten Eigenwert der Untermatrix MC von M.
Lemma 4.2.19. Es sei G = (V, E) ein zusammenhängender Graph und M eine zu G zugehörige Matrix, die die Definition 4.1.1 erfüllt. Weiter sei S ⊆ V und C1 , C2 , . . . , Cm
Komponenten vom Graphen G − S . Dann gibt es drei Möglichkeiten:
(i) Es existiert ein i mit λ1 (MCi ) < 0 und λ1 (MC j ) > 0 für alle j , i.
(ii) Es gilt für alle i: λ1 (MCi ) ≥ 0, corank(M) ≤ |S |+1 und es gibt mindestens corank(M)−
|S | + 2 und höchstens drei Komponenten Ci , so dass gilt: λ1 (MCi ) = 0.
(iii) Für alle i gilt: λ1 (MCi ) > 0.
Beweis. Es sei z der Eigenvektor, der zum kleinsten Eigenwert λ1 (M) der Matrix M gehört.
Und für i = 1, . . . , m sei xi der Eigenvektor, der zum kleinsten Eigenwert λ(MCi ) der Matrix MCi gehört. Dann erweitere die Eigenvektoren xi , wie im Beweis vom Theorem 4.2.16,
durch Hinzunahme von Nullen zu einem Vektor im R|V| . Nach dem Perron-FrobeniusTheorem 2.1.19 gilt: z > 0 und xi ≥ 0. Bei xi gilt größer gleich 0, da er noch Nullen
51
KAPITEL 4. DIE COLIN-DE-VERDIÈRE-ZAHL
wegen der Erweiterung enthält. Weiterhin lassen sich die xi so skalieren, dass hz, xi i = 1
für alle i = 1. . . . , m gilt.
Es sei λ1 (MC1 ) < 0. Dann folgt daraus (i): Angenommen es würde nicht gelten, dann
wäre λ1 MC2 ≤ 0. Dann definiere y ≔ x1 − x2 . Daraus würde dann
hz, yi = hz, x1 i − hz, x2 i = 0
und
hy, Myi = hx1 , Mx1 i − hx1 , Mx2 i − hx2 , Mx1 i +hx2 , Mx2 i < 0
| {z } | {z }
0
0
folgen, da










T 
hx2 , Mx1 i = x2 








=
MC1
MC2
S
MC3
MC4
..
.
S
0
xT2
0 ...
0
0
=0




















 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 

MC1 x1
0
0
..
.
0
S x1
x1
0
..
.
0






































Und für den Fall hx1 , Mx2 i gilt dies analog. Und es gilt weiter:
hx1 , Mx1 i = hx1 , MC1 x1 i
= hx1 , λ1 (MC1 )x1 i
= λ1 (MC1 )kx1 k2
< 0.
Denn laut der Voraussetzung gilt λ1 (MC1 ) < 0. Dies hat zur Folge, dass λ2 (M) < 0 gilt und
dies wäre ein Widerspruch zu M erfüllt die Definition 4.1.1 und hat nur einen negativen
Eigenwert. Das λ2 (M) < 0 gilt, sieht man so: es seien EV M = {v1 , v2 , . . . , vn } die Eigenvektoren von M nach der Reihenfolge der Eigenwerte EW M = {λ1 , λ2 , . . . λn } geordnet, dann
P
gilt: y = ni=1 αi vi für gewisse αi ∈ R. Da y und z = v1 linear unabhängig sind, gilt α1 = 0.
52
KAPITEL 4. DIE COLIN-DE-VERDIÈRE-ZAHL
Und daraus folgt:
hy, Myi =
=
n
DX
αi vi , M
i=2
n
DX
=
i=2
αi vi
i=2
αi vi ,
i=2
n
X
n
X
n
X
αi λi vi
i=2
E
E
λi α2i kvi k2
≥ 0.
Denn λi ≥ 0 für i = 2, . . . , n.
Es sei λ1 (MCi ) ≥ 0 für alle i = 1, . . . , n. Dies bedeutet, dass MCi positiv definit ist.
Angenommen (iii) gilt nicht, dann sei λ1 (MC1 ) = 0. Und es sei D der Vektorraum aller
Vektoren y für die gelten: y ∈ ker(M) mit y s = 0 für alle s ∈ S . Dann gilt:
Lemma 4.2.20. Für alle Vektoren y ∈ D und jede Komponente Ci von G − S gilt: yCi = 0,
yCi > 0 oder yCi < 0. Falls weiterhin λ1 (MCi ) > 0 gilt, folgt daraus yCi = 0.
Beweis. Falls y ∈ D folgt daraus MCi yCi = 0, denn:










My = 


















= 








= 0.
MC1
MC2
S
MC3
MC4
..
S
MC1 yC1
MC2 yC2
MC3 yC3
MC4 yC4
..
.
0



















.

 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 

yC1
yC2
yC3
yC4
..
.
0



















Somit ist dann MCi yCi = 0. Sofern yCi , 0 folgt λ1 (MCi ) = 0. Da die Matrix MCi positiv
semidefinit ist, ist der kleinste Eigenwert größer gleich 0. Und damit ist dann auch yCi
Eigenvektor zum Eigenwert λ1 (MCi ) = 0. Und nach dem Perron-Frobenius-Theorem 2.1.19
gilt dann yCi > 0 oder yCi < 0. Und falls λ1 (MCi ) > 0 muss yCi = 0 sein. Andernfalls würde
My = 0 nicht folgen. Denn MCi yCi = 0, wenn yCi = 0 oder MCi singulär ist und somit den
kleinsten Eigenwert 0 hat. Somit muss yCi = 0 sein.
53
KAPITEL 4. DIE COLIN-DE-VERDIÈRE-ZAHL
Sei m′ die Anzahl der Komponenten Ci mit λ1 (MCi ) = 0. Dann gilt: dim(D) ≤ m′ − 1.
Denn sofern y ∈ D folgt daraus, dass y eine Linearkombination aus xi ist, mit MCi xi = 0
wobei dann xi durch Hinzunahme von Nullen zu einen Vektor in R|V| erweitert wurde, siehe
oben. Weiterhin gilt hz, yi = 0, da y ∈ ker(M) und z ebenfalls ein Eigenvektor ist und nach
Satz 2.1.23 folgt dann hz, yi = 0. Dann betrachte man den Vektorraum D′ mit
X m′
n
o
D′ = y ∈ R|V| | y =
αi xi , αi ∈ R, hz, yi = 0 .
i=1
Es gilt dann D ⊆ D′ , denn für jeden Vektor y in D folgt MCi yCi = 0, siehe den Beweis von
P
Lemma 4.2.20. Sei nun y ∈ D′ , dann gilt y = αi xi und hz, yi = 0, daraus folgt dann:
Xm′
hz, yi = hz,
αi xi i
i=1
Xm′
=
αi hz, xi i
i=1
|{z}
1
=
Xm′
i=1
αi
= 0.
Der Vektor xi wurde anfangs so skaliert, dass hz, xi i = 1 gilt. Es folgt somit, dass die
P ′
Bedingung: y = m
i=1 αi xi und hz, yi = 0 linear unabhängig sind und daraus folgt dann:
dim(D′ ) = m′ − 1. Und aus D ⊆ D′ folgt wiederum dim(D) ≤ m′ − 1.
Sofern nun λ1 (MC1 ) = 0 gilt, existiert ein Vektor w > 0 mit MC1 w = 0 nach dem PerronFrobenius-Theorem 2.1.19. Es sei F eine Menge mit:
F = {x s | x ∈ ker(M)}.
Angenommen es gilt dim(F) = |S |. Und sei j ein Knoten in S der adjazent zu der Komponente C1 ist. Dann gibt es einen Vektor y im Kern von M also y ∈ ker(M) mit: y j = −1 und
yi = 0 für i ∈ S \{ j}. So ein Vektor existiert, da dim(F) = |S | angenommen wurde und somit
die Menge F, | S | linear unabhängige Vektoren beinhaltet. Daraus lässt sich durch Linearkombination ein Vektor ermitteln für den die genannten Eigenschaften zutreffen. Weiter
sei u die j-te Spalte der Matrix M. Dann folgt uC1 = MC1 yC1 . Da aber nach der Definition
4.1.1 M1 die Matrix M nur negative Einträge besitzt außer vielleicht auf der Diagonalen
gilt: uCi ≤ 0. Da der Knoten j in S aber adjazent zu der Komponente C1 ist, folgt daraus
uCi , 0. Allerdings folgt aus uC1 ≤ 0 und w > 0:
0 > huC1 , wi
= hMC1 yC1 , wi
= hyC1 , MC1 wi
= hyC1 , 0i
= 0.
Ein Widerspruch, somit kann dim(F) = |S | nicht gelten.
Also muss dim(F) ≤ |S | − 1 gelten. Und daraus folgt dann:
m′ − 1 ≥ dim(D)
= corank(M) − dim(F)
≥ corank(M) − |S | + 1.
Also m′ ≥ corank(M) − |S | + 2. Das dim(D) = corank(M) − dim(F) gilt, folgt daraus, dass
D gerade die Menge aus allen y ∈ ker(M) ist mit y s = 0 für alle s ∈ S . Um zu sehen, dass
es höchstens drei solcher Komponenten gibt mit λ1 (MCi ) = 0, nehme man an es gibt vier
solcher Komponenten. Und definiere
X ≔ (x1 − x2 )(x3 − x4 )T + (x3 − x4 )(x1 − x2 )T .
54
KAPITEL 4. DIE COLIN-DE-VERDIÈRE-ZAHL
Dann würde MX = 0 folgen. Ein Widerspruch zur Eigenschaft M3 der Definition 4.1.1.
Siehe dafür den Beweis vom Lemma 4.2.17. Somit gibt es höchstens drei Komponenten
mit λ1 (MC1 ) = 0 und mindestens corank(M) − |S | + 2. Und insgesamt folgt aus:
corank(M) − |S | + 2 ≤ m′ ≤ 3,
dass corank(M) ≤ |S | + 1 gilt.
4.3 Cliquensummen
Theorem 4.3.1. ([22])
Es sei G = (V, E) eine Cliquensumme (siehe Definition 3.1.30) von G1 = (V1 , E1 ) und
G2 = (V2 , E2 ). Sei S ≔ V1 ∩ V2 eine Clique und t ≔ max{µ(G1 ), µ(G2 )}. Sofern µ(G) > t
ist, folgt: µ(G) = t + 1 und man kann zwei oder drei Komponenten von G − S kontrahieren,
so dass die kontrahierten Knoten mit S einen Kt+3 \ △ formen.
Beweis. Nach dem Theorem über die Komponenten 4.2.13 nehme an, dass G1 und G2 zusammenhängend seien. Es sei M eine zu G zugehörige Matrix mit µ(G) = corank(M) und
die die Definition 4.1.1 erfüllt.
Zunächst wird gezeigt, dass für den kleinsten Eigenwert λ1 (MC ) von der Untermatrix MC
gilt: λ1 (MC ) ≥ 0 für alle Komponenten C von G − S , dies entspricht den Punkt (ii) des
Lemmas 4.2.19. Angenommen dies gilt nicht, also entweder (i) λ1 (MC ) < 0 oder (iii) für
alle Komponenten C gilt: λ1 (MC ) > 0. Nach Lemma 4.2.19 i. folgt dann für alle Komponenten C ′ von G − S mit C , C ′ : λ1 (MC′ ) > 0. Sei G′ ein Untergraph von G, der von C ∪ S
induziert wird. Somit ist G′ ein Untergraph von G1 oder G2 , da G − S mindestens zwei
Komponenten wegen (i) enthält und C ⊂ G1 oder C ⊂ G2 gilt. Weiter sei L die Vereinigung
der anderen Komponenten:
[
L≔
C′ .
C′ ,C
Dann folgt: λ1 (ML ) > 0. Bemerkung: für den Beweis kann auch λ1 (MC ) > 0 gelten, was
den Punkt (iii) des Lemmas 4.2.19 entspricht. Dann hat die Matrix M die Gestalt:


 MC UC
0 


M =  UCT MS U L  .


T
0 U L ML
Weiter sei die Matrix A gleicher Dimension definiert als:


 I 0

0


A ≔ 0 I −U L ML−1  .


0 0
I
Nach Sylvesters Trägheitssatz 2.1.6 hat die Matrix

 MC
UC

T
AMA =  UCT MS − U L ML−1 U LT

0
0

0 

0 

ML
die selbe Signatur wie die Matrix M. Daraus folgt schließlich, dass die Matrix AMAT genau einen negativen Eigenwert wie die Matrix M hat und beide somit den gleichen corank
besitzen. Da ML die Vereinigung von Komponenten C ′ ist, mit der Eigenschaft das für den
kleinste Eigenwert λ1 (MC′ ) > 0 gilt, folgt daraus, dass ML positiv definit ist und nur positive Eigenwerte besitzt. Daraus folgt dann wiederum, dass die Untermatrix
!
MC
UC
′
M ≔
UCT MS − U L ML−1 U LT
55
KAPITEL 4. DIE COLIN-DE-VERDIÈRE-ZAHL
genau einen negativen Eigenwert hat wie die Matrix M und den gleichen corank wie M.
Es bleibt zu zeigen, dass M ′ die Definition 4.1.1 für den Graphen G′ erfüllt. Die Matrix
M ′ erfüllt von der Definition 4.1.1 den Punkt M2, wie eben gezeigt wurde. Der Graph G′
besteht aus der Komponente C und der Clique S . Für die Komponente C und die Adjazenz
zu der Clique S erfüllt die Matrix M ′ den Punkt M1, da M bereits den Punkt M1 erfüllt.
Es muss für die Vollständigkeit noch gezeigt werden, dass (MS − U ML−1 U LT )i j < 0 für alle
i j ∈ E(S ) gilt. Zunächst ist (MS )i j < 0 für alle i, j mit i , j, da S eine Clique ist und somit
jeder Knoten in S mit jedem anderen adjazent ist. Da ML positiv definit ist und (ML )i j < 0
für alle i, j mit i , j folgt daraus, dass (ML−1 )i j ≥ 0 für alle i, j gilt, nach Satz 2.1.15. Somit
ist (MS − U ML−1 U LT )i j < 0 für alle i j ∈ E(S ) und M ′ erfüllt den Punkt M1. Bleibt noch M3
zu zeigen. Sei X ′ eine Matrix die die Eigenschaften vom Punkt M3 erfüllt und für die gilt:
M ′ X ′ = 0. Da der Graph G1 aus einer Clique besteht und somit die Matrix M ′ auch, lässt
sich für X ′ schreiben:
!
X′ Y
X ′ = CT
.
Y
0
Man definiere eine Matrix Z mit Z ≔ −YU L ML−1 , die Inverse von ML existiert, da sie keinen
Eigenwert 0 hat und somit den vollen Rank. Weiter definiere die Matrix X mit:
 ′

XC Y Z 
 T

0 0  .
X ≔ Y
 T

Z
0 0
Und dann folgt aus M3 für die Matrix M:



 MC UC
0  XC′ Y Z 
 T
  T

0 0 
MX =  UC MS U L  Y

 T

T
0 U L ML Z
0 0

MC Y
MC XC′ + UC Y T

 U T X ′ + M
T
T
T
Y
+
U
Z
U
=  C C
S
L
CY

U LT Y T + ML Z T
0

MC XC′ + UC Y T

 T ′
U
X
+
=  C C MS Y T + U L ML−1 U LT Y T

U LT Y T + ML Z T
MC Z
UCT Z
0
MC Y
UCT Y
0




MC Z
UCT Z
0



 .
Im letzten Schritt wurde Z ≔ −YU L ML−1 eingesetzt und ausgenutzt, dass MLT = ML gilt.
Sofern nun MX = 0 ist, folgt daraus, dass bereits nach der Eigenschaft M3 die Matrix
X = 0 ist. Und daraus folgt dann für M ′ X ′ :
! ′
!
MC
UC
XC Y
M′ X ′ =
UCT MS − U L ML−1 U LT Y T 0
!
MC XC′ + UC Y T
MC Y
= T ′
.
UC XC + MS Y T − U L ML−1 U LT Y T UCT Y
Man erhält eine Matrix, die bereits bei MX eine Untermatrix war, also:


MC Z 
M′ X ′



UCT Z  .
MX = 


U LT Y T + ML Z T 0
0
Und daraus folgt, dass X ′ = 0 gilt und somit ist M3 auch für die Matrix M ′ erfüllt. Insgesamt folgt dann:
µ(G′ ) ≥ corank(M ′ )
= corank(M)
= µ(G)
> t.
56
KAPITEL 4. DIE COLIN-DE-VERDIÈRE-ZAHL
S
S
(a)
S
(b)
Abbildung 4.3: Die Cliquensumme aus Abbildung (b) besteht aus den beiden oberen Graphen mit der gemeinsamen Clique, in Abbildung (a) rot dargestellt.
Dies ergibt einen Widerspruch, da t ≔ max{µ(G1 ), µ(G2 )} und G′ einen Untergraphen von
G1 oder G2 bildet. Weiterhin folgt nach dem Theorem über die Minormonotonie 4.2.5, dass
t ≥ µ(G′ ) gilt. Somit erfüllt der Graph vom Lemma 4.2.19 nicht (i) und (iii) sondern es gilt:
λ1 (MC ) ≥ 0 für alle Komponenten C von G − S . Der Beweis teilt sich nun in zwei Teile.
Im ersten Teil wird angenommen, dass die Nachbarn von mindestens einer Komponente C
aus G − S nicht die Clique bilden, also N(C) , S für mindestens ein C. Und im zweiten
Teil wird angenommen, dass für alle Komponenten C aus G − S gilt, das die Nachbarn S
bilden, also N(C) = S für alle C.
1. Fall N(C) , S :
Es gilt N(C) , S für mindestens eine Komponente aus G − S . Dann nehme man ohne
Beschränkung der Allgemeinheit an, dass C ein Untergraph von G1 sei. Dann sei H1 der zu
C ∪ N(C) induzierte Graph und sei H2 der zu den restlichen Komponenten und S induzierte
Graph. Dann ist der Graph G ebenfalls eine Cliquensumme aus den Graphen H1 und H2
mit der Clique S ′ ≔ N(C). Da die Komponente C aus G − S gewonnen wurde und C ein
Untergraph von G1 ist, ist C auch in G1 − S enthalten. Daraus folgt, dass der induzierte
Graph aus N(C) ein Untergraph von S ist und somit ebenfalls eine Clique darstellt, die
auch in H2 enthalten ist, da S in H2 enthalten ist. Weiterhin ist H2 eine Cliquensumme
aus G1 − C und G2 mit der gemeinsamen Clique S , da S in G2 enthalten ist und somit in
G1 − C. Der Beweis erfolgt mittels Induktion nach |V| + |S |. Der Induktionsanfang startet
bei 5, da der Graph für kleinere Werte ein Pfad ist und der corank = 1 ist. Die Bedingung
µ(G) > max{µ(G1 ), µ(G2 )} wäre dann nicht erfüllt.
Induktionsanfang: Es sei |V| + |S | = 5.
Als Induktionsanfang sei das Beispiel aus Abbildung 4.3 gewählt. Dies ist auch das
einzige Beispiel für |V| + |S | = 5, denn wäre |S | = 2 dürfte der Graph G nur noch aus
einen weitere Knoten v < S bestehen. Dann ist v ∈ V und S ⊂ V und |V| + |S | = 5. In
diesem Fall ist der Graph wieder ein Pfad und die Bedingung µ(G) > max{µ(G1 ), µ(G2 )}
wäre nicht erfüllt. Bleibt also nur noch der Fall |S | = 1. Für diesen Fall bietet nur das
Beispiel aus Abbildung 4.3 einen Induktionsanfang. Dann gilt für den Graphen G1 und G2 :
µ(G1 ) = µ(G2 ) = 1, da G1 und G2 aus Pfaden bestehen und für Pfade gilt, dass der corank
gleich 1 ist. Siehe Satz 4.1.5. Es bleibt zu zeigen, dass für G gilt: µ(G) = 2. Es sei M
definiert durch:


0 −1 0 
 0

 0
0 −1 0 
.
M ≔ 
−1 −1 2 −1
0
0 −1 0
Dann erfüllt die Matrix M den Punkt M1 der Definition 4.1.1. Das charakteristische Polynom lautet dann:
det(M − λI) = λ4 − 2λ3 − 3λ2 .
57
KAPITEL 4. DIE COLIN-DE-VERDIÈRE-ZAHL
Mit der entsprechenden Nullstellenmenge:
EW M = {−1, 0, 0, 3}.
Somit erfüllt die Matrix M auch den Punkt M2, es gibt genau einen negativen Eigenwert
der Vielfachheit eins. Weiterhin ist der corank(M) = 2. Es bleibt zu zeigen, dass M den
Punkt M3 erfüllt. Es sei X eine Matrix, die die Eigenschaften aus M3 erfüllt. Dann hat X
die Gestalt:


0 a 0 b
a 0 0 c
.
X = 
0 0 0 0
b c 0 0
Und dann folgt aus MX:

0
 0
 0
0
MX = 
−a − b −a − c
0
0
0
0
0
0

0 

0 
.
−b − c
0
Aus −a − b = 0 und −a − c = 0 folgt: b = c. Und aus −b − c = 0 und b = c folgt b = c = 0
und damit auch a = 0. Somit muss die Matrix X gleich der Nullmatrix sein und der Punkt
M3 ist erfüllt und der Graph bildet einen K4 \ △ somit ist der Induktionsanfang wahr.
Induktionsvoraussetzung: Die Aussage sei für |V| + |S | = k mit k ≥ 5 wahr.
Induktionsschritt: Es bleibt zu zeigen, dass unter der Induktionsvoraussetzung, die Aussage
auch für |V| +|S | = k +1 wahr ist. Man betrachte den ersten Unterfall, es gilt: µ(G) = µ(H2 ).
1.1. Fall µ(G) = µ(H2 ):
Es gilt bereits µ(G) > t ≔ max{µ(G1 ), µ(G2 )}, da G1 − S ein Untergraph von G1 ist und
nach dem Theorem über die Minormonotonie 4.2.5 folgt schließlich
t ≔ max{µ(G1 ), µ(G2 )} ≥ t′ ≔ max{µ(G1 − C), µ(G2 )}.
Somit gilt dann µ(H2 ) = µ(G) > max{µ(G1 − C), µ(G2 )}. Dann folgt daraus:
µ(H2 ) > t′ ≔ max{µ(G1 − C), µ(G2 )}.
Weiter ist
|V(H2 )| + |S | < |V(G)| + |S | = k + 1.
Nach Induktionsvoraussetzung gilt damit: µ(H2 ) = t′ + 1 und daraus folgt dann: t < µ(G) =
µ(H2 ) = t′ + 1 ≤ t + 1 und dies impliziert t′ = t also µ(G) = t + 1. Weiterhin gibt es für die
Clique S , wie im folgenden gezeigt wird, nur zwei Möglichkeiten entweder es gilt: |S | =
t + 1 oder |S | = t. Denn nach Lemma 4.2.19 ii. gibt es mindestens corank(M) − |S | + 2 und
höchstens 3 Komponenten Ci für die gelten: λ1 (Ci ) = 0. Da es mindestens eine Komponente
geben muss, da sonst iii. gilt, folgt:
1 ≤ corank(M) − |S | + 2 = t + 1 − |S | + 2.
Und daraus |S | ≤ t +2. Da die Clique S in G1 und G2 enthalten ist, folgt nach dem Theorem
über die Minormonotonie 4.2.5 µ(G1 ) ≥ µ(S ) = t + 1, sofern |S | = t + 2 ergibt dies einen
Widerspruch, da bereits t = max{µ(G1 ), µ(G2 )} gilt. Somit kann nur |S | ≤ t + 1 gelten.
Weiterhin muss aus Lemma 4.2.19 ii. folgen, dass gilt:
corank(M) − |S | + 2 = t + 1 − |S | + 2 ≤ 3.
Und man erhält t ≤ |S |. Somit gibt es für die Clique S nur zwei Möglichkeiten entweder es
gilt: |S | = t + 1 oder |S | = t.
1.1.a. Fall |S | = t + 1:
58
KAPITEL 4. DIE COLIN-DE-VERDIÈRE-ZAHL
Also betrachte man |S | = t+1. Da der Graph H2 bereits die Induktionsvoraussetzung erfüllt,
da V(G) + |S | > V(H2 ) + |S |, und S als Clique hat, lassen sich auch zwei Komponenten
C ′ und C ′′ von H2 − S finden, so dass einerseits N(C ′ ) = N(C ′′ ) und | N(C ′ )| = t gilt und
andererseits sich durch Kontraktion der beiden Komponenten ein Kt+3 \ △ bildet. Denn die
Clique S besteht aus t + 1 Knoten und bildet mit den kontrahierten Komponenten C ′ und
C ′′ einen Graphen mit t + 3 Knoten. Da die Nachbarn von den Komponenten C ′ und C ′′
gleich sein müssen um die Induktionsvoraussetzung zu erfüllen und die Mächtigkeit dieser
t beträgt, gibt es einen Knoten v in S der nicht zu C ′ und C ′′ adjazent ist und somit mit
S̃ ≔ S −v und den Komponenten C ′ , C ′′ einen Kt+3 \△, siehe Abbildung 4.4. Nun betrachte
man den Fall |S | = t.
1.1.b. Fall |S | = t:
Da der Graph H2 die Induktionsvoraussetzung bereits erfüllt, gibt es in H2 − S bereits drei
Komponenten C ′ , C ′′ und C ′′′ mit N(C ′ ) = N(C ′′ ) = N(C ′′′ ). Die kontrahierten Komponenten ergeben mit der Clique S einen Graphen mit t + 3 Knoten, diese sind mit S adjazent
aber nicht untereinander und ergeben somit einen Kt+3 \ △ formen, siehe hierzu Abbildung
4.5. Man betrachte nun den zweiten Fall: µ(G) > µ(H2 ).
C′
C′
C ′′
S
S̃
C ′′
v
Abbildung 4.4: Die Clique S besteht aus t + 1 Knoten. Die Clique S̃ besteht aus t Knoten
und bildet mit dem Knoten v wieder die Clique S .
C′
S
C ′′
C ′′′
Abbildung 4.5: Die Clique S besteht aus t Knoten und bildet mit den kontrahierten Komponenten C, C ′′ und C ′′′ einen Kt+3 \ △.
1.2. Fall µ(G) > µ(H2 ):
Es gelte µ(G) > t ≔ max{µ(G1 ), µ(G2 )}, dann folgt µ(G) > t′ ≔ max{µ(H1 ), µ(H2 )}, denn
µ(G1 ) ≥ µ(H1 ) wegen des Theorems über die Minormonotonie 4.2.5 und µ(G) ≥ µ(H2 ). Somit folgt aufgrund der Induktionsvoraussetzung: µ(G) = t′ +1, da |V(G)|+|S ′| < |V(G)|+|S |
und N(C) , S ist. Daraus folgt wiederum t < t′ + 1 also t ≤ t′ . Es gibt wieder die beiden
KAPITEL 4. DIE COLIN-DE-VERDIÈRE-ZAHL
59
Fälle |S ′ | = t′ oder |S ′ | = t′ +1. Daraus folgt nun |S ′ | < |S | ≤ t +1 ≤ t′ +1. Die Ungleichung
|S | ≤ t + 1 folgt, da µ(G) > t vorausgesetzt wurde. Insgesamt impliziert dies dann |S ′ | = t′
und somit auch t = t′ . Es gilt: µ(G) = t + 1. Weiterhin hat G − S ′ hat 3 Komponenten C ′ ,
C ′′ und C ′′′ mit N(C ′ ) = N(C ′′ ) = N(C ′′′ ) = S ′ . Daraus folgt: Es gibt zwei Komponenten
C ′ und C ′′ in G − S mit N(C ′ ) = N(C ′′ ) = S ′ und man kann diese kontrahieren, so dass ein
Kt+3 \ △ entsteht. Es gilt |S ′ | + 1 = |S |, da |S ′ | = t′ und |S | ≤ t′ + 1 aber |S ′ | < |S | damit
gibt es einen Knoten v in S der mit C ′ und C ′′ kontrahiert einen Kt+3 \ △ bildet, siehe dazu
wieder Abbildung 4.4.
2. Fall N(C) = S :
Für alle Komponenten aus C aus G − S gilt N(C) = S . Des Weiteren sei µ(G) > t ≔
max{µ(G1 ), µ(G2 )} oder auch µ(G) − 1 ≥ t. Falls |S | > t ist, würde der Graph G1 mindestens
einen Kt+1 enthalten. Weiterhin ist die Komponente C in G1 enthalten. Diese Komponente
hat den Nachbarn S , da N(C) = S angenommen wurde. Würde man C zu einem Knoten
extrahieren, gäbe es in G1 einen Kt+2 . Und aus dem Theorem über die Minormonotonie
4.2.5 folgt dann: µ(G1 ) ≥ µ(Kt+2 ) = t + 1, was der Bedingung t = max{µ(G1 ), µ(G2 )} widerspricht. Folglich gilt |S | ≤ t. Da µ(G) > µ(G1 ) gilt, folgt daraus auch: µ(G) > |S |, da
es sonst, wie oben, zu einem Widerspruch kommen würde. Und die Bedingung µ(G) > |S |
zieht µ(G) − |S | + 2 ≥ 3 nach sich. Und nach dem Lemma 4.2.19 ii. folgt allerdings:
corank(M) − |S | + 2 = µ(G) − |S | + 2 ≤ 3,
also µ(G) − 1 ≤ |S |. Dies ergibt dann:
t ≥ |S | ≥ µ(G) − 1 ≥ t.
Damit folgt µ(G) = t + 1. Nach dem Lemma 4.2.19 ii. gibt es drei Komponenten C ′ , C ′′
und C ′′′ für die N(C ′ ) = N(C ′′ ) = N(C ′′′ ) = S gilt. Es gibt mindestens corank(M) − |S | + 2
und höchstens 3 Komponenten mit der Eigenschaft λ1 (C) = 0. Es galt bereits corank(M) −
|S | + 2 ≥ 3 und somit gibt es genau drei solcher Komponenten. Und weiterhin bildet S und
die kontrahierten Komponenten C ′ , C ′′ und C ′′′ einen Kt+2 \ △, siehe Abbildung 4.5.
Korollar 4.3.2. Es sei G = (V, E) eine Cliquensumme von den beiden Graphen G1 =
(V1 , E1 ) und G2 = (V2 , E2 ) mit der gemeinsamen Clique S = V1 ∩ V2 . Falls nun gilt:
µ(G1 ) , µ(G2 ) und |S | < µ(G1 ) und G − S hat höchstens eine Komponente C mit N(C) = S ,
folgt daraus:
µ(G) = max{µ(G1 ), µ(G2 )}.
Beweis. Angenommen es würde dann µ(G) > t ≔ max{µ(G1 ), µ(G2 } folgen, dann würde
daraus wiederum nach Theorem 4.3.1 folgen, dass man zwei oder drei Komponenten von
G−S kontrahieren könnte, so dass die kontrahierten Knoten mit S einen Kt+3 \△ bilden. Ohne Beschränkung der Allgemeinheit sei µ(G1 ) > µ(G2 ), also folgt dann t = µ(G1 ). Und aus
µ(G1 ) > |S | folgt dann t − 1 ≥ |S |. Gebe es nun eine Komponente C mit N(C) = S , würde
die kontrahierte Komponente mit der Clique S höchstens einen Kt formen. Würde die Aussage aus Theorem 4.3.1 gelten, könnte man mit zwei weiteren kontrahierten Komponenten
und der Clique S und der kontrahierten Komponente einen Kt+3 \ △ formen. Allerdings
hätte die Clique S mit den kontrahierten Komponenten dann höchstens t + 2 Knoten. Ein
Widerspruch, somit muss µ(G) = max{µ(G1 ), µ(G2 )} folgen.
Satz 4.3.3. Es sei K p,q mit p ≤ q der vollständige bipartite Graph, dann gilt:



wenn q ≤ 2,
 p,
µ(K p,q ) = 

 p + 1, wenn q ≥ 3.
Beweis. Für den Beweis werden drei Fälle unterschieden. Der erste Fall ist q ≤ 2, der
zweite Fall q = 3 und der letzte Fall lautet q > 3 Man betrachte den ersten Fall.
1. Fall q ≤ 2:
60
KAPITEL 4. DIE COLIN-DE-VERDIÈRE-ZAHL
(a) K1,1
(b) K1,2
(c) K2,2
Abbildung 4.6: Die möglichen vollständigen bipartiten Graphen für den Fall q ≤ 2: (a), (b)
und (c).
Für diesen Fall gibt es nur drei mögliche Fälle: K1,1 , K1,2 und K2,2 , siehe dazu Abbildung
4.6. Für den vollständigen bipartiten Graphen K1,1 und K1,2 gilt: µ(K1,1 ) = µ(K1,2 ) = 1, da
der K1,1 und der K1,2 Pfade sind, siehe Satz 4.1.5. Für den Fall K2,2 gilt nach Satz 4.1.4
µ(K4 ) = 3 > µ(K2,2 ), da der Kn der einzige Graph mit n ≥ 3 ist für den µ(Kn ) = n − 1 gilt.
Für K2,2 betrachte man die Matrix M mit:

0
 0
 0
0

M ≔ 
−1 −1
−1 −1

−1 −1

−1 −1
.
0
0 
0
0
Die Matrix M erfüllt von der Definition 4.1.1 den Punkt M1. Man betrachte die Eigenwerte
von M:
det(M − λI) = −λ4 + 4λ2 .
Daraus folgt dann: EW M = {−2, 0, 0, 2}. Die Matrix M erfüllt damit auch den Punkt M2, es
gibt nur einen negativen Eigenwert der Vielfachheit 1. Des weiteren gilt: corank(M) = 2.
Es bleibt der Punkt M3 zu zeigen. Es sei X eine Matrix, die die Eigenschaften aus M3
erfüllt, dann hat X die Gestalt:
Und aus M · X = 0 folgt:

0
a
X = 
0
0

 0
 0
M · X = 
−a
−a
a
0
0
0
0
0
0
b

0

0
.
b
0

0 −b −b

0 −b −b
.
−a 0
0 
−a 0
0
Somit muss a = b = 0 sein und die Matrix erfüllt die Definition 4.1.1 und hat einen corank
von 2. Somit ist µ(K2,2 ) = 2. Und die Aussage ist für den ersten Fall: q ≤ 2 bewiesen. Man
betrachte den zweiten Fall.
2. Fall q = 3:
Für den Fall q = 3 gibt es drei Fälle: K1,3 , K2,3 und K3,3 , siehe dazu Abbildung 4.7.
2.a. Fall G = K1,3 :
61
KAPITEL 4. DIE COLIN-DE-VERDIÈRE-ZAHL
(a) K1,3
(b) K2,3
(c) K3,3
Abbildung 4.7: Die möglichen vollständigen bipartiten Graphen für den Fall q = 3: (a), (b)
und (c).
Man betrachte den vollständigen bipartiten Graphen K1,3 , dann gilt: µ(K4 ) > µ(K1,3 ), also
2 ≥ µ(K1,3 ), siehe oben und Satz 4.1.4. Man betrachte die Matrix M mit:


0
0 −1 
 0

 0
0
0 −1 
.
M ≔ 
0
0 −1 
 0
−1 −1 −1 0
Die Matrix M erfüllt den Punkt M1 der Definition 4.1.1. Für die Eigenwerte gilt nach Satz
2.1.25:
det(M − λI) = λ4 − 3λ2 .
√
√
Daraus folgt: EW M = {− 3, 0, 0, 3}. Die Matrix M erfüllt somit auch den Punkt M2, es
gibt nur einen negativen Eigenwert der Vielfachheit 1. Des weiteren gilt: corank(M) = 2.
Es bleibt der Punkt M3 zu zeigen. Es sei X eine Matrix, die die Eigenschaften aus M3
erfüllt, dann hat X die Gestalt:


0 a b 0
a 0 c 0
 .
X = 
b c 0 0
0 0 0 0
Und aus M · X = 0 folgt:



M · X = 

0
0
0
0
0
0
−a − b −a − c
0
0
0
−b − c

0

0
.
0
0
Aus −a − b = 0 und −a − c = 0 folgt: b = c. Aus b = c und −b − c = 0 folgt b = c = 0
und damit auch a = 0 und die Matrix erfüllt die Definition 4.1.1 und hat einen corank von
2. Somit ist µ(K1,3 ) = 1 + 1 = 2.
2.b. Fall G = K2,3 :
Man betrachte den vollständigen bipartiten Graphen K2,3 , dann gilt: µ(K5 ) > µ(K2,3 ), also
3 ≥ µ(K2,3 ), siehe oben und Satz 4.1.4. Man betrachte die Matrix M mit:


0
0 −1 −1
 0

 0
0
0 −1 −1


0
0 −1 −1 .
M ≔  0

−1 −1 −1 0
0 

−1 −1 −1 0
0
62
KAPITEL 4. DIE COLIN-DE-VERDIÈRE-ZAHL
Die Matrix M erfüllt den Punkt M1 der Definition 4.1.1. Für die Eigenwerte gilt nach Satz
2.1.25:
det(M − λI) = −λ5 + 6λ3 .
√
√
Daraus folgt: EW M = {− 6, 0, 0, 0, 6}. Die Matrix M erfüllt somit auch den Punkt M2, es
gibt nur einen negativen Eigenwert der Vielfachheit 1. Des weiteren gilt: corank(M) = 3.
Es bleibt der Punkt M3 zu zeigen. Es sei X eine Matrix, die die Eigenschaften aus M3
erfüllt, dann hat X die Gestalt:
Und aus M · X = 0 folgt:

0
a

X = b
0

0

 0
 0

M · X =  0
−a − b

−a − b
a
0
c
0
0
b
c
0
0
0
0
0
0
−a − c
−a − c
0
0
0
0
d

0

0

0 .

d
0
0
0
0
−b − c
−b − c
−d
−d
−d
0
0

−d 

−d 

−d .

0 
0
Somit muss d = 0 sein und aus −a − b = 0 und −a − c = 0 folgt: b = c. Aus b = c und
−b − c = 0 folgt b = c = 0 und damit auch a = 0 und die Matrix erfüllt die Definition 4.1.1
und hat einen corank von 3. Somit ist µ(K2,3 ) = 2 + 1 = 3.
2.c. Fall G = K3,3 :
Man betrachte nun den vollständigen bipartiten Graphen K3,3 , dann gilt: µ(K6 ) > µ(K3,3 ),
also 4 ≥ µ(K2,3 ), siehe oben und Satz 4.1.4. Man betrachte die Matrix M mit:

0
0
 0
 0
0
0

 0
0
0
M ≔ 
−1 −1 −1
−1 −1 −1

−1 −1 −1

−1 −1 −1

−1 −1 −1
−1 −1 −1
.
0
0
0 

0
0
0 

0
0
0
Die Matrix M erfüllt den Punkt M1 der Definition 4.1.1. Für die Eigenwerte gilt nach Satz
2.1.25:
det(M − λI) = λ6 − 9λ4 .
Daraus folgt: EW M = {−3, 0, 0, 0, 0, 3}. Die Matrix M erfüllt somit auch den Punkt M2, es
gibt nur einen negativen Eigenwert der Vielfachheit 1. Des weiteren gilt: corank(M) = 4.
Es bleibt der Punkt M3 zu zeigen. Es sei X eine Matrix, die die Eigenschaften aus M3
erfüllt, dann hat X die Gestalt:


0 a b 0 0 0 
a 0 c 0 0 0 


b c 0 0 0 0 
X = 
.
0 0 0 0 d e 
0 0 0 d 0 f 


0 0 0 e f 0
63
KAPITEL 4. DIE COLIN-DE-VERDIÈRE-ZAHL
Und aus M · X = 0 folgt:

 0
 0

 0
M · X = 
−a − b
−a − b

−a − b
0
0
0
−a − c
−a − c
−a − c
0
0
0
−b − c
−b − c
−b − c
−d − e
−d − e
−d − e
0
0
0
−d − f
−d − f
−d − f
0
0
0
−e −
−e −
−e −
0
0
0

f 

f 
f 
 .



Aus −a − b = 0 und −a − c = 0 folgt: b = c. Aus b = c und −b − c = 0 folgt b = c = 0 und
damit auch a = 0 und für d, e und f analog und die Matrix erfüllt die Definition 4.1.1 und
hat einen corank von 4. Somit ist µ(K3,3 ) = 3 + 1 = 4. Und die Aussage ist für den zweiten
Fall: q = 3 bewiesen. Man betrachte nun den letzten Fall.
3. Fall q > 3:
Im ersten Schritt des Beweises wird µ(K p.q ) ≤ p + 1 gezeigt und im zweiten Schritt wird
durch Induktion µ(K p.q ) ≥ p +1 bewiesen woraus schließlich die Gleichheit µ(K p.q ) = p +1
folgt.
3.a. Fall q > 3 und µ(K p.q ) ≤ p + 1 :
Für p > 2 ist der vollständige bipartite Graph K p,q ein Untergraph aus der Cliquensumme mit den Kopien des vollständigen Graphen K p+1 und der Clique S = K p . Es sei G1 der
Graph, der aus der Cliquensumme von den vollständigen Graphen K p+1 und K p+1 sowie der
Clique S besteht. Dann gilt: max{µ(K p+1 ), µ(K p+1 )} = p und es folgt: µ(G1 ) ≤ p+1. Für den
Graphen G1 gilt aufgrund des Theorems über die Minormonotonie 4.2.5 µ(G1 ) ≥ p und aufgrund des Theorems 4.3.1 µ(G1 ) ≤ p + 1. Also kann nur µ(G1 ) = p oder µ(G1 ) = p + 1 gelten. Nun betrachte man den Graphen G2 , der aus der Cliquensumme von den vollständigen
Graphen K p+1 und G1 mit der Clique K p entsteht. Angenommen es gilt µ(G1 ) = p, dann
folgt aufgrund der gleichen Argumentation wie oben: µ(G2 ) ≤ p+1. Gelte nun µ(G1 ) = p+1
folgt wegen: µ(G1 ) , µ(K p+1 ) und |S | = |K2 | = p < µ(G1 ) = p + 1 und G2 − S enthält
höchstens eine Komponente C mit N(C) = S , denn der Graph G2 besteht aus vollständigen
Graphen K p+1 somit gibt es durch entfernen der Clique immer noch mindestens einen Knoten, der mit allen anderen verbunden ist sowie der Clique. Also kann G2 − S höchstens eine
Komponente C enthalten mit N(C) = S , somit gilt: µ(G2 ) = max{µ(G1 ), µ(K p+1 )} = p + 1
aufgrund des Korollars 4.3.2. Daraus folgt µ(G2 ) ≤ p + 1. Die Argumentation lässt sich nun
q mal wiederholen, so dass für den Graphen Gq : µ(Gq ) ≤ p + 1 gilt. Des Weiteren besteht
der Graph Gq aus q + p Knoten. Und nach Konstruktion ist der vollständig bipartite Graph
K p,q ein Minorgraph des Graphen Gq für alle q ≥ 3 und p ≥ 1. Das Konstruktionsverfahren
wurde in Abbildung 4.8 für den Fall q = 4 und p = 3 dargestellt.
Es wurde gezeigt, dass für den vollständigen bipartiten Graphen K p,q für alle q ≥ 3
bereits µ(K p,q ) ≤ p + 1 gilt. Im nächsten Schritt wird gezeigt, dass für alle q ≥ 3 gilt:
µ(K p,q ) ≥ p + 1. Dies soll mit vollständiger Induktion nach q gezeigt werden.
3.b. Fall q > 3 und µ(K p.q ) ≥ p + 1 :
Induktionsanfang: Es sei q = 3. Der Fall q = 3 wurde bereits oben behandelt und es galt:
µ(K p,3 ) = p + 1 ≥ p + 1. Eine wahre Aussage.
Induktionsvoraussetzung: Die Aussage sei für q ≥ 3 wahr.
Induktionsschritt: Es bleibt zu zeigen, dass unter der Induktionsvoraussetzung, die Aussage
auch für q + 1 wahr ist. Aus dem vollständigen Graphen K p,q+1 entsteht durch Kontraktion
zweier Knoten aus den disjunkten Eckenmengen ein neuer Graph G̃, siehe dazu Abbildung
4.9. Da der Graph G̃ ein Minorgraph des Graphen K p,q+1 ist, gilt aufgrund des Theorems
über die Minormonotonie 4.2.5: µ(K p,q+1 ) ≥ µ(G̃). Der kontrahierte Knoten v ist in G̃ zu
allen anderen Knoten adjazent. Wird dieser Knoten entfernt, entsteht der Graph K p−1,q aus
G̃ heraus. Und es gilt nach dem Theorem über das Entfernen von Knoten 4.2.16: µ(G̃) =
µ(G̃ − v) + 1 = µ(K p−1,q ) + 1. Nach Induktionsvoraussetzung folgt dann:
µ(G̃) = (p − 1 + 1) + 1 = p + 1
64
KAPITEL 4. DIE COLIN-DE-VERDIÈRE-ZAHL
(a) K3+1
(b) K3+1
(c) G 1
(d) G 1
(e) K3+1
(f) G 2
Abbildung 4.8: Der Graph G1 aus (c) entsteht durch die beiden vollständigen Graphen K4
aus (a) und (b) als Cliquensumme mit der gemeinsamen Clique K3 die hier rot dargestellt
ist. Im nächsten Schritt entsteht der Graph G2 aus (f) als Cliquensumme von den Graphen
G1 aus (d) und K4 aus (e).
und damit folgt dann mit µ(K p,q+1 ) ≥ p + 1. Insgesamt folgt daraus dann: µ(K p,q ) = p + 1
für alle q ≥ 3.
4.4 Unterteilung und △Y-Transformation
Theorem 4.4.1. Es sei G ein Graph. Weiter sei G′ ein Graph, der durch Unterteilung einer
Kante aus G entstanden ist. Dann gilt:
(a) µ(G) ≤ µ(G′ ).
(b) Falls µ(G) ≥ 3 gilt, folgt µ(G) = µ(G′ ).
Beweis. Teil (a) folgt aus Theorem 4.2.5 über die Minormonotonie, da G ein Minor von
G′ ist.
Teil (b): Sei G̃ der Graph der aus einer Cliquensumme aus dem ursprünglichen Graphen G
und dem vollständigen Graphen K3 mit gemeinsamer Clique S = K2 entstanden ist. Falls
µ(G) ≥ 3 gilt, folgt µ(G) ≥ 3 > µ(K3 ) = 2. Weiterhin gilt µ(G) > |S | = 2. Falls nun die
zu unterteilende Kante eine Brücke ist, gibt es höchstens eine Komponente C aus G̃ − S ,
so dass N(C) = S ist, nämlich den Knoten aus den Graphen K3 . Siehe dazu Abbildung
4.10. Dann folgt aus Korollar 4.3.2 µ(G̃) = µ(G) und aus Theorem 4.2.5 über die Minormonotonie µ(G̃) ≥ µ(G′ ) ≥ µ(G). Mit µ(G̃) = µ(G), folgt dann die Behauptung. Falls nun
die zu unterteilende Kante keine Brücke ist, gibt es zwei Fälle für den Graphen G̃. Falls
G̃ = max{µ(G), µ(K3 )} folgt die Behauptung, wie oben aus Theorem 4.2.5 über die Minormonotonie. Angenommen es gilt µ(G̃) > t ≔ max{µ(G), µ(K3 )}, dann folgt wegen des
Theorems 4.3.1 über Cliquensummen, dass µ(G̃) = t + 1 ist und das man zwei oder drei
65
KAPITEL 4. DIE COLIN-DE-VERDIÈRE-ZAHL
(a) K p,q+1
(b) G̃
Abbildung 4.9: Im vollständig bipartite Graph K p,q+1 aus (a) werden die beiden roten Knoten kontrahiert und der entstehende Graph ist G̃ aus (b).
S
S
S
(a) G
(b) K3
(c) G̃
Abbildung 4.10: Der Graph G̃ aus (c) ist eine Cliquensumme aus den ursprünglichen Graphen G aus (c) und dem vollständigen Graphen K3 aus (b) mit der Clique S , die rot dargestellt sind.
Komponenten aus G̃ − S kontrahieren kann, so dass mit der Clique S ein Kt+3 \ △ entsteht.
Da µ(G) ≥ 3 nach Voraussetzung gilt, folgt t ≥ 3. Für die Clique S gilt nach Annahme
|S | = 2 somit bräuchte man mindestens 4 Komponenten um mindestens ein K6 \△ entstehen
zu lassen. Ein Widerspruch, da maximal drei Komponenten benötigt werden. Somit muss
µ(G̃) = µ(G) und die Behauptung folgt mit Theorem 4.3.1 über die Cliquensummen.
Theorem 4.4.2. Es sei G ein Graph und G′ der durch △Y-Transformation entstandene
Graph aus G. Dann gilt, [4]:
(a) µ(G) ≤ µ(G′ ).
(b) Falls µ(G) ≥ 4 gilt, folgt µ(G) = µ(G′ ).
Beweis. Teil (a): Es sei M eine Matrix, die die Eigenschaften aus Definition 4.1.1 für den
Graphen G erfüllt und für die gilt: corank(M) = µ(G). Weiterhin seien 1, 2 und 3 die
Knoten eines Dreiecks, welches die △Y-Transformation erfährt und n sei die Anzahl der
Knoten des Graphs G. Dann schreibe die Matrix M als:
!
A BT
M=
,
B C
wobei A eine 3x3-Matrix ist. Es wird gezeigt, dass ein positiver Vektor b ∈ R3 existiert, so
66
KAPITEL 4. DIE COLIN-DE-VERDIÈRE-ZAHL
dass D ≔ A + bbT eine 3x3-Diagonalmatrix ist. Denn sei:
D = A + bbT
  

a11 a12 a13  b1    

= a12 a22 a23  + b2  b1 b2 b3
  

b3
a13 a23 a33


2
 a11 + b1 a12 + b1 b2 a13 + b1 b3 


2
= a12 + b1 b2 a22 + b2 a23 + b2 b3  .

2 
a13 + b1 b3 a23 + b2 b3 a33 + b3
Aus den Bedingungen: a12 + b1 b2 = 0, a13 + b1 b3 = 0 und a23 + b2 b3 = 0 folgt dann:
b1 = −a12 /b2 und b2 = −a23 /b3 . Und weiter b3 = −a
√13 /b1 und mit b1 folgt: b3 = b2 a13 /a12
und mit b2 folgt: b23 = −a13 a23 /a12 und damit b3 = −a13 a23 /a12 . Da 1, 2 und 3 die Knoten
sind auf denen die △Y-Transformation angewendet wird, gilt: a12 , a13 , a23 < 0 und somit
existiert solch eine Vektor b ∈ R3 .
Sei 0 der neue Knoten in G′ es sei L eine (n + 1) × (n + 1)-Matrix definiert durch:


 1 0 0


L ≔ −b I 0 .


0 0 I
Und dann definiere die (n + 1) × (n + 1)-Matrix M ′ durch:


!
 1 −bT 0 
1 0 T 

M′ ≔ L
L = −b D BT  .
0 M


0
B
C
Es wird nun gezeigt, dass M ′ eine zu dem Graphen G′ zugehörige Matrix ist. Die Matrix
M ′ erfüllt den Punkt M1 der Definition 4.1.1, da die Matrix D eine Diagonalmatrix ist und
0 den neuen Knoten darstellt, der mit den Knoten 1, 2 und 3 adjazent ist, siehe Abbildung
4.11. Aufgrund von Sylvesters Trägheitssatz 2.1.6 folgt: corank(M) = corank(M ′ ) und
3
3
0
1
2
(a) G
1
2
(b) G ′
Abbildung 4.11: Der Graph G′ aus (b) entsteht durch △Y-Transformation der Knoten 1,2
und 3 aus dem Graphen G aus (a). Der neue Knoten 0 ist dann zu den Knoten 1,2 und 3
adjazent und die Knoten 1,2 und 3 sind untereinander nicht mehr adjazent.
somit auch µ(G′ ) ≥ µ(G). Wegen des Perron-Frobenius-Theorems 2.1.19 folgt, dass der
Punkt M2 ebenfalls erfüllt ist, da alle Matrixeinträge kleiner gleich 0 sind. Es bleibt zu
zeigen, dass M ′ auch den Punkt M3 erfüllt. Angenommen es existiert eine Matrix X mit
den Eigenschaften aus M3, für die X , 0 und M ′ X = 0 gilt. Dann lässt sich X schreiben
als:


0 0 vT 

T
X = 0 Y Z  .


v Z W
67
KAPITEL 4. DIE COLIN-DE-VERDIÈRE-ZAHL
Da die Matrix L invertierbar ist, folgt aus der Gleichung M ′ X = 0, dass


!
 0
−bT Y
vT − bT Z T 
1 0 T
 T

0=
L X =  B v AY + BT Z AZ T + BT W  .
0 M


Cv
BY + CZ
BZ T + CW
Aus −bT Y = 0 folgt:
−b Y = − b1
T
b2

 0
b3 y12

y13
= − b2 y12 + b3 y13

y13 

y23 

0
y12
0
y23
b1 y12 + b3 y23
b1 y12 + b2 y23
= 0.
Aus der zweiten und dritten Spalte folgt für y23 :
y23 = −
b1
b1
y12 = − y13 .
b3
b2
Aus der ersten Spalte folgt für y12 :
y12 = −
b3
y13 .
b2
Daraus folgt dann:
b1
b1
y13 = y13 .
b2
b2
Insgesamt folgt dann: Y = 0. Daraus folgt dann für die Matrix X:


0 0 vT 


X = 0 0 Z T 


v Z W
−
und

 0

M ′ X =  BT v

Cv
0
BT Z
CZ
Sei X ′ die Untermatrix von X:
!
ZT
.
W
0
Z
X′ ≔
Dann folgt aus MX ′ :
A
MX =
B
′
BT
C
BT Z
=
CZ

vT − bT Z T 

AZ T + BT W  .

T
BZ + CW
!
0
Z
ZT
W
!
!
AZ T + BT W
.
BZ T + CW
Da die Matrix M bereits den Punkt M3 für den Graphen G erfüllt, folgt auch X ′ = 0 also
Z = W = 0. Daraus folgt dann für M ′ X:


 0
0 vT 
 T

′
M X =  B v 0 0  .


Cv 0 0
Dann folgt vT = 0 und somit ist X = 0 und die Matrix M ′ erfüllt den Punkt M3 für
den Graphen G′ . Damit erfüllt die Matrix M ′ die Definition 4.1.1 für den Graphen G′ . Da
68
KAPITEL 4. DIE COLIN-DE-VERDIÈRE-ZAHL
corank(M ′ ) = corank(M) gilt, ist der Teil (a) bewiesen.
Teil (b): Der Graph G̃ entsteht aus einer Cliquensumme aus dem ursprünglichen Graphen
G und dem vollständigen Graphen K4 mit gemeinsamer Clique S = K3 . Falls µ(G) ≥ 4
gilt, resultiert µ(G) ≥ 4 > µ(K4 ) = 3. Weiterhin gilt µ(G) > |S | = 3. Falls nun G̃ − S
höchstens eine Komponente C hat, so dass N(C) = S ist, ergibt sich nach Korollar 4.3.2
µ(G̃) = µ(G), siehe dazu Abbildung 4.12. Mit Theorem 4.2.5 über die Minormonotonie
folgt µ(G̃) ≥ µ(G′ ) ≥ µ(G). Aus µ(G̃) = µ(G) impliziert dies dann die Behauptung. Falls
3
3
0
1
2
1
(a) G
2
(b) K4
3
0
1
2
(c) G̃
Abbildung 4.12: Der Graph G̃ aus (c) entsteht aus einer Cliquensumme aus dem Graphen
G aus (a) und dem vollständigen Graphen K4 aus (b) mit der gemeinsamen Clique S , hier
rot dargestellt.
nun G̃−S mindestens zwei Komponente C ′ und C ′′ hat, so dass N(C ′ ) = N(C ′′ ) = S ist, gibt
es zwei Fälle für den Graphen G̃. Falls G̃ = max{µ(G), µ(K4 )} folgt die Behauptung, wie
oben aus Theorem 4.2.5 über die Minormonotonie. Gilt aber µ(G̃) > t ≔ max{µ(G), µ(K4 )},
dann folgt wegen des Theorems 4.3.1 über Cliquensummen, dass µ(G̃) = t + 1 ist und das
sich zwei oder drei Komponenten aus G̃ − S kontrahieren lassen, so dass mit der Clique
S ein Kt+3 \ △ entsteht. Nach Voraussetzung gilt: µ(G) ≥ 4. Daraus folgt dann: t ≥ 4.
Für die Clique S gilt: |S | = 3 und somit bräuchte man mindestens 4 Komponenten damit
mindestens ein K7 \ △ entstehen könnte. Ein Widerspruch, da maximal drei Komponenten gebraucht werden. Somit muss µ(G̃) = µ(G) und die Behauptung folgt aufgrund des
Theorems 4.3.1 über die Cliquensummen.
4.5 Der Nullraum der Matrix M
Definition 4.5.1. (supp, supp+ und supp− ).
Es sei x ∈ Rn ein Vektor, dann definiere folgende Variationen des Trägers von x:
• supp(x) ≔ {i | xi , 0} (Träger),
69
KAPITEL 4. DIE COLIN-DE-VERDIÈRE-ZAHL
• supp+ (x) ≔ {i | xi > 0} (positiver Träger),
• supp− (x) ≔ {i | xi < 0} (negativer Träger),
• supp0 (x) ≔ {i | xi = 0} (Komplement des Trägers).
Lemma 4.5.2. Es sei M eine Matrix, die für einen Graphen G die Definition 4.1.1 erfüllt.
Für alle Vektoren x ∈ ker(M) gilt:
N(supp+ (x)) \ supp(x) = N(supp− (x)) \ supp(x).
Beweis. Es sei x ∈ ker(M). Dann folgt: N(supp+ (x)) = {i | ai j , 0, j ∈ supp+ (x), j , i}
und N(supp− (x)) = {i | ai j , 0, j ∈ supp− (x), j , i}. Dies folgt aus der Eigenschaft M1 der
Definition 4.1.1, da zwei Knoten i, j zueinander adjazent sind, falls ai j < 0 gilt. Insgesamt
folgt dann:
N(supp+ (x)) \ supp(x) = {i | ai j , 0, j ∈ supp+ (x), j , i, i < supp(x)}
N(supp− (x)) \ supp(x) = {i | ai j , 0, j ∈ supp− (x), j , i, i < supp(x)}.
Zunächst wird gezeigt, dass N(supp+ (x)) \ supp(x) ⊆ N(supp− (x)) \ supp(x).gilt Angenommen die Aussage sei falsch, dann gäbe es ein i ∈ N(supp+ (x)) \ supp(x) mit i <
N(supp− (x)) \ supp(x). Das hieße, es gäbe ein j ∈ supp+ (x), so dass ai j , 0 gilt und
andererseits existiert kein k ∈ supp− (x), so dass aik , 0 gilt. Aus x ∈ ker(M) folgt:
0=
n
X
ail xl
l=1
=
X
ai j x j +
X
aik xk
k∈supp− (x)
j∈supp+ (x)
=
X
ai j x j .
|
{z
=0
}
j∈supp+ (x)
P
Die letzte Gleichung k∈supp− ain xn = 0, folgt aus der Tatsache, dass es kein k ∈ supp− (x)
mit aik , 0 gilt. Aus x j > 0 für alle j ∈ supp+ (x) und ai j < 0 für alle j ∈ supp+ (x) mit i , j
folgt wiederum
X
ai j x j , 0.
j∈supp+ (x)
Ein Widerspruch und somit muss auch i ∈ N(supp− (x))\supp(x) sein. Damit ist N(supp+ (x))\
supp(x) ⊆ N(supp− (x)) \ supp(x) gezeigt. Für die umgekehrte Inklusion nehme ein i ∈
N(supp− (x)) \ supp(x) und nehme an, dass i < N(supp+ (x)) \ supp(x) gilt. Dann folgt der
Beweis analog wie oben.
Lemma 4.5.3. Es sei G ein zusammenhängender Graph und M eine zu G zugehörige Matrix, die die Definition 4.1.1 erfüllt. Weiter seien x ∈ ker(M) und J , K zwei Komponenten
von G| supp+ (x). Dann existiert ein y ∈ ker(M) mit folgenden Eigenschaften:
• supp+ (y) = J,
• supp− (y) = K,
• y J ist kollinear zu x J mit einem positiven Skalar und yK ist kollinear zu xK mit einem
negativen Skalar.
70
KAPITEL 4. DIE COLIN-DE-VERDIÈRE-ZAHL
Beweis. Es sei L ≔ supp− (x). Zunächst ist M j,k = 0 für j ∈ J und k ∈ K, denn andernfalls
wären J und K zueinander adjazent. Dann gilt:
M J×J x J + M J×K xK + M J×L xL + M J×supp0 (x) xsupp0 (x) = 0
und
MK×J x J + MK×K xK + MK×L xL + MK×supp0 (x) xsupp0 (x) = 0.
Aus M J×K = 0, M J×supp0 (x) xsupp0 (x) = 0 und MK×supp0 (x) xsupp0 (x) = 0 folgt schließlich
M J×J xK + M J×L xL = 0 und
MK×K xK + MK×L xL = 0.
(4.1)
Es sei z ein Eigenvektor zu dem negativen Eigenwert von M. Nach dem Perron-Frobenius
Theorem 2.1.19 kann man z > 0 annehmen. Dann definiere
λ≔
hz J , x J i
,
hzK , xK i
mit hzK , xK i , 0, da z > 0 und xK > 0, weil K aus G| supp+ (x). Wegen xK , x J , z > 0 folgt
ausserdem λ > 0. Nun definiere y ∈ Rn mit:



xi ,
wenn i ∈ J,




yi ≔ 
−λx
,
wenn i ∈ K,
i




0,
wenn i < J ∪ K,
so gilt:
hz, yi = hz J , x J i + hzK , −λxK i
= hz J , x J i − λhzK , xK i
hz J , x J i
= hz J , x J i −
hzK , xK i
hzK xK i
= 0.
Weiter erhält man:
hy, Myi = hy J , M J×J y J i + hyK , MK×K yK i
= hx J , M J×J x J i + h−λxK , −MK×K λxK i
= hx J , M J×J x J i + λ2 hxK , MK×K xK i
= h−x J , M J×L xL i − λ2 hxK , MK×L xL i
≤ 0,
wobei die letzte Gleichung aus der Gleichung 4.1 folgt. Die Ungleichung folgt aus der
Tatsache, dass M J×L und MK×L nicht-positive Matrizen sind. Dies folgt daraus, dass sie
keine Diagonalelemente von der Matrix M enthalten und es gilt: x J > 0, xK > 0, xL < 0
da J, K Komponenten aus G| supp+ (x) sind und L ≔ supp− (x). Da z ein Eigenvektor zum
kleinsten Eigenwert ist und hz, yi = 0 gilt, folgt die lineare Unabhängigkeit von z und y und
hy, Myi ≥ 0, siehe Satz 2.1.16. Insgesamt folgt hz, yi = 0 und hy, Myi = 0 und wegen Satz
2.1.23 erhält man y ∈ ker(M). Daraus resultiert J = supp+ (y) und K = supp− (y) und es
sind beide skalare Vielfache mit positiven beziehungsweisen negativen Skalar von x J und
xK , was zu beweisen war.
Definition 4.5.4. (Minimaler Träger).
Es sei x ∈ ker(M) mit x , 0. Dann hat x einen minimalen Träger falls für alle y ∈ ker(M)
mit y , 0 aus supp(y) ⊆ supp(x) folgt, dass supp(y) = supp(x) gilt.
KAPITEL 4. DIE COLIN-DE-VERDIÈRE-ZAHL
71
Theorem 4.5.5. ([11])
Es sei G ein zusammenhängender Graph und die Matrix M eine zu G zugehörige Matrix,
die die Definition 4.1.1 für G erfüllt. Weiter hat x ∈ ker(M) einen minimalen Träger. Dann
sind G| supp+ (x) und G| supp− (x) jeweils nicht leer und zusammenhängend.
Beweis. Angenommen die Aussage würde nicht gelten, dann ist G| supp+ oder G| supp−
leer oder nicht zusammenhängend. Es sei ohne Beschränkung der Allgemeinheit zunächst
G| supp+ leer. Weiter sei z ein Eigenvektor zum kleinsten Eigenwert, nach dem PerronFrobenius Theorem 2.1.19 lässt sich z < 0 annehmen. Nach Satz 2.1.23 folgt für x ∈
ker(M) sowohl hz, xi = 0 als auch hx, Mxi = 0. Falls supp+ (x) leer ist, ergibt dies einen
Widerspruch zu hz, xi = 0, da z < 0 und x ≤ 0, x , 0 gelten. Dass G| supp− nicht leer sein
darf, wird analog behandelt.
Es sei ohne Beschränkung der Allgemeinheit nun angenommen, dass G| supp+ nicht
zusammenhängend ist. Dann würden in G| supp+ mindestens zwei Komponenten J und K
existieren. Nach Lemma 4.5.3 gäbe es ein y ∈ ker(M) mit supp+ (y) = J und supp− (y) = K.
Da y J und yK skalare Vielfache von x J und xK sind folgt supp(y) ⊆ supp(x). Nach der
Definition 4.5.4 des minimalen Trägers folgt daraus supp(y) = supp(x). Dies ergibt einen
Widerspruch, da andernfalls supp− (x) leer ist. Das supp− (x) nicht leer sein darf wurde oben
bereits behandelt.
Theorem 4.5.6. Es sei G ein Graph und die Matrix M eine zu G zugehörige Matrix, die die
Definition 4.1.1 für G erfüllt. Es sei x ∈ ker(M), so dass G| supp+ (x) unzusammenhängend
ist. Dann gilt:
(i) Es gibt keine Kante, die supp+ (x) und supp− (x) verbindet,
(ii) G| supp+ (x) hat genau zwei Komponenten,
(iii) G| supp− (x) ist zusammenhängend,
(iv) | supp(x)| + corank(M) ≤ |V(G)| + 1,
(v) N(K) = N(supp(x)) für alle Komponenten aus G| supp(x).
Beweis. Der Beweis erfolgt in vier Schritten:
(i): Angenommen es gibt eine Kante, die eine Komponente J von der Menge G| supp+ (x)
mit G| supp− (x) verbindet. Weiter sei K eine Komponente von G| supp+ (x) mit K ,
J. Nach Lemma 4.5.3 existiert dann ein y ∈ ker(M), sodass supp+ (y) = K und
supp− (y) = J und yK und y J sind skalare Vielfache von xK und x J , also y J = −αx J
und yK = βxK mit α, β > 0. Dann definiere z ≔ x + (1/α)y. Dann ist z ∈ ker(M), da
x, y ∈ ker(M) sind. Des Weiteren ist
z J = x J + (1/α)y J = x J + (1/α)αx J = 2x J > 0,
zK = xK + (1/α)yK = xK + (1/α)βxK > 0
sowie
zsupp− (x) = xsupp− (x) + (1/α)ysupp− (x) = xsupp− (x) < 0.
Somit folgt: supp− (z) = supp− (x) und supp+ (z) = supp+ (x) \ J. Dann ist aber
N(supp− (z)) eine Menge, die einen Knoten aus J enthält, da supp− (z) = supp− (x) mit
der Komponente J durch eine Kante adjazent ist und N(supp− (z)) \ supp(z) enthält
immer noch diesen Knoten, da supp+ (z) = supp+ (x) \ J. Allerdings sind K und J
zwei Komponenten und somit nicht adjazent. Daraus folgt, dass supp+ (z) nicht den
Knoten aus J enthält und somit auch nicht N(supp+ (z)) \ supp(z). Daraus folgt dann:
N(supp− (z)) \ supp(z) , N(supp+ (z)) \ supp(z) ein Widerspruch zum Lemma 4.5.2.
KAPITEL 4. DIE COLIN-DE-VERDIÈRE-ZAHL
72
(ii) & (iii): Seien C1 , . . . , Cm Komponenten aus G| supp(x), dann folgt MCi xCi = 0 für alle i =
1, . . . , m. Nach (i) sind die Komponenten entweder in supp+ (x) oder in supp− (x), da
supp+ (x) und supp− (x) nicht adjazent sind. Da supp+ (x) nach Voraussetzung mindestens zwei Komponenten Ci und C j enthält und MCi xCi = MC j xCJ = 0 tritt der Fall (ii)
des Lemmas 4.2.19 ein mit S = {1, . . . , n} \ supp(x), da der Eigenwert 0 mindestens
zweimal auftaucht. Demnach gibt es höchstens drei Komponenten Ci , C j und Ck , so
dass λ1 (Ci, j,k ) = 0 ist. Allerdings hat supp+ (x) bereits zwei Komponenten Ci und C j
mit der Eigenschaft λ1 (Ci, j ) = 0 und supp− (x) ist nicht leer somit hat supp+ (x) genau
zwei Komponenten und supp− (x) muss zusammenhängend sein.
(iv) Es sei S = {1, . . . , n} \ supp(x), dann gilt nach Lemma 4.2.19 (ii):
corank(M) − |S | + 2 ≤ 3
corank(M) ≤ |{1, . . . , n} \ supp(x)| + 1
| supp(x)| + corank(M) ≤ |{1, . . . , n} \ supp(x)| + 1 + | supp(x)|
| supp(x)| + corank(M) ≤ |V(G)| + 1.
(v) Es seien J und K zwei Komponenten aus G| supp+ (x). Dann gibt es nach Lemma
4.5.2 ein y ∈ ker(M), sodass supp+ (y) = K und supp− (y) = J. Nach Lemma 4.5.2
folgt dann:
N(supp+ (y)) \ supp(y) = N(supp− (y)) \ supp(y).
Da J und K nicht adjazent sind, folgt: N(supp+ (y)) = N(supp− (y)), also N(K) = N(J).
Im Teil (i) wurde gezeigt, wie man einen Vektor z konstruiert, so dass supp− (z) =
supp− (x) und supp+ (z) = supp+ (x) \ J = K. Nach Lemma 4.5.2 folgt dann wiederum:
N(supp+ (z)) \ supp(z) = N(supp− (z)) \ supp(z).
Nach (i) sind supp+ (x) und supp− (x) nicht adjazent, also folgt: N(supp+ (z)) = N(supp− (z)),
also N(K) = N(supp− (x)). Und insgesamt:
N(K) = N(J) = N(supp− (x)) = N(J) ∪ N(supp(x)) = N(supp(x)).
4.6 Kleine Werte für µ
4.6.1 Pfade und außerplanare Graphen
Theorem 4.6.1. Genau dann, wenn G eine Knoten-disjunkte Vereinigung von Pfaden ist,
gilt:
µ(G) ≤ 1.
Beweis. Es sei µ(G) ≤ 1. Angenommen der Graph G wäre keine Knoten-disjunkte Vereinigung von Pfaden, dann müsste er den vollständigen Graphen K3 oder den vollständigen bipartiten Graphen K1,3 enthalten, siehe Theorem 3.1.25. Allerdings gilt µ(K3 ) = µ(1, 3) = 2
und dies ergibt einen Widerspruch zu dem Theorem über die Minormonotonie 4.2.5.
Es sei G eine Knoten-disjunkte Vereinigung von Pfaden, dann gilt nach Satz 4.1.5 bereits µ(Pn ) = 1 und falls G mehrere Komponenten hat, gilt nach Theorem 4.2 µ(G) =
max µ(C) = 1.
Theorem 4.6.2. Genau dann, wenn G ein außerplanarer Graph ist, gilt:
µ(G) ≤ 2.
73
KAPITEL 4. DIE COLIN-DE-VERDIÈRE-ZAHL
Beweis. Es sei µ(G) ≤ 2. Angenommen der Graph G wäre nicht außerplanar, dann müsste
er den vollständigen Graphen K4 oder den vollständigen bipartiten Graphen K2,3 enthalten,
siehe Theorem 3.1.29. Allerdings gilt µ(K4 ) = µ(2, 3) = 3 und dies ergibt einen Widerspruch zu dem Theorem über die Minormonotonie 4.2.5.
Es sei G ein außerplanarer Graph und nach Theorem 4.2 sei G zusammenhängend. Der
Beweis erfolgt mittels vollständiger Induktion nach |V|:
Induktionsanfang:
(a) Ein Knoten
(b) Ein Pfad P2
(c) Der vollständige Graph K3
(d) Ein Pfad P3
Abbildung 4.13: Für |V| = 1 besteht der Graph G aus einem Knoten, siehe Abbildung (a)
und es gilt µ(G) = 0. Für |V| = 2 besteht der Graph G aus einem Pfad, siehe Abbildung (b)
und es gilt µ(G) = 1. Für |V| = 3 besteht der Graph G aus einem vollständigen Graphen K3 ,
siehe Abbildung (c) und es gilt µ(G) = 2 oder er besteht aus einem Pfad, siehe Abbildung
(d) und es gilt µ(G) = 1
Für die ersten vier Fälle von |V| siehe Abbildung 4.13.
Induktionsvoraussetzung: Die Aussage sei für |V| = k mit k ≥ 3 wahr.
Induktionsschritt: Es bleibt zu zeigen, dass unter der Induktionsvoraussetzung die Aussage
auch für |V| = k + 1 wahr ist. Der Graph G mit |V(G)| = k + 1 sei dann eine Cliquensumme aus einen Graphen G′ mit |V(G′ )| = k und dem vollständigen Graphen K3 mit der
gemeinsamen Clique K2 . Der Graph G′ entsteht aus G durch Entfernen eines Knoten mit
deg(v) ≤ 2, denn angenommen es gibt keinen Knoten mit deg(v) ≤ 2, dann haben alle
Knoten mindestens einen Grad von 3 und dann wäre der Graph G mit vier Knoten nicht
mehr außerplanar, da sonst G = K4 wäre. Im Folgenden werden zwei Fälle unterschieden.
Der erste Fall besagt, dass es einen Knoten v vom Grad 2 gibt und der zweite Fall lautet, dass es einen Knoten v vom Grad 1 gibt. Man betrachte den ersten Fall, es gibt einen
Knoten v vom Grad 2, der zu den Knoten u und w adjazent ist. Dieser Knoten v wird zu
u oder w kontrahiert, so dass u und w zu Nachbarn werden. Der neue Graph wird mit G′
bezeichnet. Anschließend wird ein Graph G̃ aus einer Cliquensumme aus dem Graphen G′
und dem vollständigen Graphen K3 mit der gemeinsamen Clique S = (u, w) gebildet, siehe
74
KAPITEL 4. DIE COLIN-DE-VERDIÈRE-ZAHL
u
v
w
(a) G
u
S
w
(b) G ′
u
v
S
w
(c) K3
(d) G̃
Abbildung 4.14: Man betrachte den Graphen G aus Abbildung (a), sofern es einen Knoten
gibt, der den Grad 2 hat, hier der Knoten v, wird dieser entfernt und die adjazenten Knoten u und w werden miteinander verbunden, sofern sie nicht schon verbunden sind. Der
neue Graph wird mit G′ bezeichnet, siehe Abbildung (b). Mit dem Graphen G′ und dem
vollständigen Graphen K3 aus Abbildung (c) wird mit der Clique S ein neuer Graph G̃ aus
Abbildung (d) gebildet. Dieser ist dann eine Cliquensumme aus G′ und K3 mit der Clique
S.
dazu Abbildung 4.14. Der Graph G̃ ist dann ebenfalls außerplanar, denn wäre er es nicht,
hätte der Graph einen K4 oder einen K2,3 als Minor. Da zu dem außerplanaren Graphen
G nur eine Kante hinzugefügt wurde um G̃ zu erhalten, kann dieser keinen K4 oder K2,3
als Minor enthalten, da G dann schon wegen des Pfades von v zu w über u ein Minor von
K4 oder K2,3 sein müsste. Nach dem Theorem über die Minormonotonie 4.2.5 folgt dann:
µ(G′ ) ≤ µ(G) ≤ µ(G̃). Nach dem Theorem über Cliquensummen 4.3.1 und dem Korollar
4.3.2 folgt für µ(G̃) entweder µ(G̃) = t ≔ max{µ(G′ ), µ(K3 )} oder µ(G̃) = t+1. Nach Induktionsvoraussetzung folgt für G′ : µ(G′ ) ≤ 2, da G′ einen Knoten weniger als G̃ hat. Falls nun
µ(G̃) = t folgt nach dem Theorem 4.2.5 über die Minormonotonie: µ(G′ ) ≤ µ(G) ≤ µ(G̃)
und damit µ(G) ≤ 2. Was zu beweisen war. Angenommen es gilt: µ(G̃) = t + 1 = 3, dann
75
KAPITEL 4. DIE COLIN-DE-VERDIÈRE-ZAHL
lassen sich zwei oder drei Komponenten aus G̃−S finden, so dass diese kontrahierten Komponenten mit S einen K5 \ △ enthalten. Allerdings ist ein K5 \ △ das gleiche wie ein K2,3 ,
ein Graph mit fünf Knoten und sieben Kanten. Und dies würde bedeuten, dass G̃ einen K2,3
als Minor hätte, was im Widerspruch zu Außerplanarität von G̃ steht.
u
v
w
(a) G
u
S
w
(b) G ′
u
u
S
v
w
(c) K3
v
w
(d) G̃
Abbildung 4.15: Man betrachte den Graphen G aus Abbildung (a), sofern es einen Knoten
gibt, der den Grad 1 hat, hier der Knoten v, wird dieser entfernt, der neue Graph wird mit
G′ bezeichnet, siehe Abbildung (b). Mit dem Graphen G′ und dem vollständigen Graphen
K3 aus Abbildung (c) wird mit der Clique S ein neuer Graph G̃ aus Abbildung (d) gebildet.
Dieser ist dann eine Cliquensumme aus G′ und K3 mit der Clique S .
Man betrachte den zweiten Fall, es gibt einen Knoten v vom Grad 1, der zu den Knoten
u adjazent ist, der wiederum zu Knoten w adjazent ist. Dieser Knoten v wird entfernt und
der neue Graph wird mit G′ bezeichnet. Dann wird ein Graph G̃ aus einer Cliquensumme
aus dem Graphen G′ und dem vollständigen Graphen K3 mit der gemeinsamen Clique S =
(u, w) gebildet, siehe dazu Abbildung 4.15. Der Graph G̃ ist dann ebenfalls außerplanar,
denn wäre er es nicht, hätte der Graph einen K4 oder einen K2,3 als Minor. Da zu dem
außerplanaren Graphen G nur eine Kante hinzugefügt wurde um G̃ zu erhalten, kann dieser
keinen K4 oder K2,3 als Minor enthalten. Angenommen durch die hinzugefügte Kante wäre
KAPITEL 4. DIE COLIN-DE-VERDIÈRE-ZAHL
76
ein K2,3 entstanden, dann müsste jeder Kreis gerade sein allerdings gibt es einen Kreis von
v nach v über u und w der ungerade ist und somit ist der Minor nicht bipartit. Falls durch das
Hinzufügen der Kante ein K4 entstünde, müsste v einen Grad von 3 haben. Dieser Knoten
hat dann allerdings einen Grad von 2 und somit kann auch kein K4 entstanden sein. Nach
dem Theorem über die Minormonotonie 4.2.5 folgt dann: µ(G′ ) ≤ µ(G) ≤ µ(G̃). Nach
dem Theorem über Cliquensummen 4.3.1 und dem Korollar 4.3.2 folgt für µ(G̃) entweder
µ(G̃) = t ≔ max{µ(G′ ), µ(K3 )} oder µ(G̃) = t + 1. Nach Induktionsvoraussetzung folgt
für G′ : µ(G′ ) ≤ 2, da G′ einen Knoten weniger als G̃ hat. Falls nun µ(G̃) = t folgt nach
dem Theorem über die Minormonotonie 4.2.5: µ(G′ ) ≤ µ(G) ≤ µ(G̃) und damit µ(G) ≤ 2,
was zu beweisen war. Gilt hingegen µ(G̃) = t + 1 = 3, dann lassen sich zwei oder drei
Komponenten aus G̃ − S finden, so dass diese kontrahierten Komponenten mit S einen
K5 \ △ enthalten. Allerdings ist ein K5 \ △ das gleiche wie ein K2,3 ein Graph mit fünf
Knoten und sieben Kanten. Und dies würde bedeuten, dass G̃ einen K2,3 als Minor hätte,
was im Widerspruch zu Außerplanarität von G̃ steht.
4.6.2 Planare Graphen
Dieses Theorem ist nun eins der Hauptresultate von Colin de Verdière [32]. Der Beweis
verwendet die Theorie von partiellen Differentialgleichungen. Das auch ein kombinatorischer Beweis reicht, zeigt van der Holst [11]. Und dieser Beweis soll hier auch verwendet
werden.
Theorem 4.6.3. Genau dann, wenn G ein planarer Graph ist, gilt:
µ(G) ≤ 3.
Beweis. Es sei µ(G) ≤ 3. Angenommen der Graph G wäre nicht planar, dann müsste er
den vollständigen Graphen K5 oder den vollständigen bipartiten Graphen K3,3 als Minor
enthalten, siehe Theorem 3.1.27. Allerdings gilt µ(K5 ) = µ(3, 3) = 4 und dies ergibt einen
Widerspruch zu dem Theorem über die Minormonotonie 4.2.5.
Es sei G ein 3-zusammenhängender planarer Graph. Es sei M eine zu G zugehörige Matrix,
die die Definition 4.1.1 für G erfüllt. Angenommen, es gelte corank(M) > 3. Weiter sei uvw
ein Dreieck in G, dann gibt es ein x ∈ ker(M) für das xu = xv = xw = 0 gilt. Denn der Kern
von M beinhaltet mindestens vier linear unabhängige Vektoren x1 , x2 , x3 , x4 ∈ ker(M).
Somit hat das Gleichungssystem:
 1
 2
 3
 4
 xu 
 xu 
 xu 
 xu 
 
 
 
 
α1  x1v  + α2  x2v  + α3  x3v  + α4  x4v  = 0
 1
 2
 3
 4
xw
xw
xw
xw
mindestens eine nicht triviale Lösung für α1 , α2 , α3 , α4 ∈ R. Dann lässt sich ein x =
α1 x1 +α2 x2 +α3 x3 +α4 x4 finden, so dass x einen minimalen Träger hat und xu = xv = xw = 0
gilt. Nach dem Theorem 4.5.5 sind dann G| supp+ (x) und G| supp− (x) nicht leer und jeweils
zusammenhängend. Aufgrund der maximalen Planarität von G lassen sich drei verschiedene Knoten-disjunkte Pfade P1 , P2 und P3 von u, v und w zu supp(x) finden, dies resultiert
aus der Bemerkung vom Satz 3.1.11. Weiter seien P′1 , P′2 und P′3 die Teile der Pfade P1 , P2
und P3 , die außerhalb von supp(x) liegen und dort beginnen. Es wird im Folgenden gefolgert, dass der erste Knoten aus der Menge N(supp(x)) zu einem Pfad P′i für i = 1, 2, 3 in
N(supp+ (x)) und N(supp− (x)) liegt. Angenommen dies wäre nicht so und der erste Knoten
P′i (1) von P′i für i = 1, 2, 3 liegt ohne Beschränkung der Allgemeinheit nur in der Menge N(supp+ (x)) aber nicht in der Menge N(supp− (x)), dann folgt aus P′i (1) < supp(x) die
Aussagen:
Pi (1) ∈ N(supp+ (x)) \ supp(x)
P′i (1) < N(supp− (x)) \ supp(x).
77
KAPITEL 4. DIE COLIN-DE-VERDIÈRE-ZAHL
Dies ergibt wiederum einen Widerspruch zum Lemma 4.5.2, da N(supp+ (x)) \ supp(x) =
N(supp− (x))\supp(x) gelten muss. Kontrahiere jeweils supp+ (x) beziehungsweise supp− (x)
zu einem Knoten t beziehungsweise t′ zusammen, dann haben u, v und w jeweils einen
unabhängigen Pfad zu t und t′ , was der Planarität von G, wie im Folgenden noch gezeigt
wird, widerspricht, siehe dazu Abbildung 4.16. Angenommen der Graph wäre planar mit
u
P′1
v
w
supp− (x)
P′3
supp+ (x)
P′2
Abbildung 4.16: Der Graph G mit supp+ (x) und supp− (x). Man könnte nun die Pfade P′1 ,
P′2 und P′3 zu den Endknoten u, v und w kontrahieren.
µ(G) ≥ 4, dann könnte man nach Theorem 2.13 eine △Y-Transformation auf u, v und w
anwenden. Für den neuen Graph G′ gelte µ(G′ ) ≥ 4 und die Planaritätseigenschaft würde
ebenfalls gelten, allerdings entstünde dadurch ein K3,3 , was der Planarität widerspräche.
4.7 Verlinkungsfreie einbettbare Graphen
Definition 4.7.1. (Jordan-Kurve)
Eine Jordan-Kurve ist eine geschlossene, stetige, schnittpunktfreie Kurve.
Definition 4.7.2. (verlinkt).
Zwei disjunkte Jordan-Kurven A, B ∈ R3 heißen verlinkt, falls es keine topologische 2Sphäre im R3 gibt, die beide Jordan-Kurven trennt und zwar so, dass eine Kurve im Inneren
und die andere Außerhalb liegt, siehe Abbildung 4.17.
(a)
(b)
Abbildung 4.17: Die beiden Jordan-Kurven aus Abbildung (a) sind nicht verlinkt, da es
eine topologische 2-Sphäre gibt, die beide Kurven trennt, siehe Abbildung (b).
KAPITEL 4. DIE COLIN-DE-VERDIÈRE-ZAHL
78
Abbildung 4.18: Die beiden Jordan-Kurven haben die ungerade Verlinkungszahl 1, da die
2-Scheibe und die Kurve sich in einem Punkt transversal schneiden.
Definition 4.7.3. (Verlinkungszahl).
Zwei disjunkte Jordan-Kurven A, B ∈ R3 haben eine ungerade Verlinkungszahl, falls es eine
Einbettung der 2-Scheibe mit Rand A gibt, so dass die Anzahl der transversalen Schnitte
mit dem Bild von B ungerade ist. Siehe Abbildung 4.18.
Bemerkung: Eine ungerade Verlinkungszahl bedeutet, dass beide Jordan-Kurven verlinkt sind. Die Umkehrung gilt im Allgemeinen nicht.
Definition 4.7.4. (verlinkungsfrei einbettbar).
Es sei G ein Graph. G ist verlinkungsfrei einbettbar, falls eine Einbettung des Graphen G
in R3 keine verlinkten Kreise besitzt. Ein Graph ist verlinkungsfrei einbettbar, falls es eine
solche Einbettung gibt.
Bemerkung:
Ein Graph heißt verlinkbar, falls er nicht verlinkungsfrei einbettbar ist.
Definition 4.7.5. (flache Einbettung).
Eine Einbettung eines Graphen G heißt flach, falls es für alle Kreise C in G eine offene
Scheibe gibt, die disjunkt von G ist und den Rand von C hat.
Bemerkung: Jede flache Einbettung ist auch verlinkungsfrei einbettbar aber die Umkehrung gilt im Allgemeinen nicht, siehe Abbildung 4.19. Robertson, Seymour und Thomas [29] bewiesen, dass ein verlinkungsfrei einbettbarer Graph G auch flach einbettbar
ist. Somit sind die Klassen der verlinkungsfrei und flachen Einbettungen gleich. Weiterhin ist die Klasse der verlinkungsfrei einbettbaren Graphen invariant unter Y△- und △YTransformationen. Somit ist auch die Klasse der verbotenen Minoren von verlinkungsfreien einbettbaren Graphen invariant unter Y△- und △Y-Transformationen. Diese Klasse
nennt man die Petersen Familie, da ein Graph dem Petersen Graph entspricht, siehe dazu
Abbildung 4.20. Robertson, Seymour und Thomas [29] bewiesen folgenden Satz:
Satz 4.7.6. Die Petersen Familie ist eine Klasse von verbotenen Minoren für verlinkungsfrei einbettbare Graphen.
Theorem 4.7.7. Genau dann, wenn G ein verlinkungsfrei einbettbarer Graph ist, gilt:
µ(G) ≤ 4.
79
KAPITEL 4. DIE COLIN-DE-VERDIÈRE-ZAHL
Abbildung 4.19: Wird ein Graph G bestehend aus einem Kreis, wie oben eingebettet, ist
die Einbettung nicht mehr flach.
Beweis. Es wird zunächst gezeigt, dass µ(G) ≤ 4 impliziert, dass G ein verlinkungsfrei einbettbarer Graph ist. Es sei µ(G) ≤ 4. Angenommen der Graph G wäre nicht verlinkungsfrei
einbettbar, dann müsste er nach Satz 4.7.6 den vollständigen Graphen K6 beziehungsweise
einen Graphen der Petersen Familie als Minor enthalten. Es gilt aber µ(K6 ) = 5, ein Widerspruch zu dem Theorem über die Minormonotonie 4.2.5. Des Weiteren entstehen die
Graphen der Petersen Familie durch △Y- beziehungsweise Y△-Transformationen, woraus
nach Theorem 4.4.2 dann µ(G) = 5 für alle Graphen G der Petersen Familie gilt.
Die Umkehrung wurde von Robertson, Seymour und Thomas [27] vermutet und in [22]
bewiesen. Der Beweis erfolgt hier in Abschnitt 4.7.2.
4.7.1 Borsuks Theorem für antipodale Verlinkungen
Definition 4.7.8. (konvexe Menge conv).
Sei A ∈ Rm×n :
(
n
X
conv(A) ≔ Aλ | λ ∈ Rn+ ,
Definition 4.7.9. (affine Menge aff).
Sei A ∈ Rm×n :
(
n
aff(A) ≔ Aλ | λ ∈ R ,
Definition 4.7.10. (lineare Hülle lin).
Sei A ∈ Rm×n :
i=1
n
X
i=1
(
)
λ1 = 1 .
)
λ1 = 1 .
n
)
lin(A) ≔ Aλ | λ ∈ R .
Definition 4.7.11. (konvexes Polytope).
Ein Polytope P im Rd ist die konvexe Menge aus endlich vielen Punkten A = v1
P = conv{A}.
. . . vk :
80
KAPITEL 4. DIE COLIN-DE-VERDIÈRE-ZAHL
(a)
(b)
(c)
(d)
(e)
(f)
(g)
Abbildung 4.20: Die Petersen Familie, eine Klasse von verbotenen Minoren für verlinkungsfrei einbettbare Graphen. Die bekanntesten Vertreter sind hier der vollständige Graph
K6 in Abbildung (a) und der Petersen Graph in Abbildung (g).
Bemerkungen: Für Bezeichnungen eines Polytopes, wie Seiten, Facetten, definierende
Hyperebene eine Facette und so weiter, sei auf [34] hingewiesen. Für die Definition und
weiterführende Eigenschaften eines Zellkomplexes wird [33] empfohlen.
Definition 4.7.12. (Antipodal).
Es sei P ein konvexes Polytop im Rd . Zwei Seitenflächen F, F ′ sind antipodal zueinander,
wenn ein Vektor c ∈ Rd mit c , 0 existiert, so dass für x ∈ P die lineare Funktion hc, xi
maximal für alle x ∈ F und minimal für alle x ∈ F ′ wird.
KAPITEL 4. DIE COLIN-DE-VERDIÈRE-ZAHL
81
Bemerkung: Anschaulich bedeutet dies, dass es zwei parallele Hyperebene H1 , H2 gibt,
wobei F ⊂ H1 und F ′ ⊂ H2 gilt und das Polytop von beiden Hyperebenen eingeschlossen
wird. Siehe dazu Abbildung 4.21.
Abbildung 4.21: Das Polytop mit zwei antipodalen Seitenflächen, die von zwei Hyperebenen eingeschlossen werden.
Definition 4.7.13. (generische Abbildung).
Es sei φ eine stetige Abbildung von einem Zellkomplex in den Rd . Die Abbildung heißt
generisch, falls die Bilder einer k-Seitenfläche und l-Seitenflächen sich nur schneiden falls
k + l ≥ d und für k + l = d die Anzahl der transversalen Schnittpunkte endlich ist.
Bemerkung: Zusätzlich soll noch die Bedingung gestellt werden, dass die Bilder unter φ
rektifizierbar sind.
Bemerkung:
Im Folgenden seien die Seitenflächen immer relativ offen.
Definition 4.7.14. (Rand ∂P).
Es sei P ein konvexes Polytop im Rd , dann bezeichne ∂P deren Rand.
Definition 4.7.15. (parallel).
Zwei Seitenflächen eines Polytops sind parallel, wenn ihre projektiven Hüllen einen nicht
leeren Schnitt haben, der in der unendlichen Hyperebene enthalten ist, siehe dazu Abbildung 4.22.
Bemerkung:
Definition:
Eine alternative Bedingung für parallele Seitenflächen wäre die folgende
Definition 4.7.16. (parallel).
Es sei P ein konvexes Polytop im Rd . Zwei Seitenflächen F und F ′ von P sind parallel genau
dann, wenn ihre affinen Hüllen disjunkt sind und es einen Vektor c mit c , 0 und c ∈ F − F
und c ∈ F ′ − F ′ gibt.
Definition 4.7.17. (Minkowski-Summe).
Es seien A, B Mengen, dann ist die Minkowski-Summe definiert durch: A + B ≔ {a + b| a ∈
A, b ∈ B}.
KAPITEL 4. DIE COLIN-DE-VERDIÈRE-ZAHL
82
Definition 4.7.18. (Minkowski-Differenz).
Es seien A, B Mengen, dann ist die Minkowski-Differenz definiert durch: A− B ≔ {a −b| a ∈
A, b ∈ B}.
Abbildung 4.22: Zwei Geraden in der Ebene (R2 ) werden auf die obere Halbkugel projiziert
Sofern die Geraden parallel sind, haben sie einen Schnittpunkt am Äquator.
Theorem 4.7.19. Es sei P ein voll-dimensionales konvexes Polytop im Rd und sei φ eine generisch, stetige Abbildung von ∂P in den Rd−1 . Dann existiert ein Paar antipodaler
Seitenflächen F und F ′ mit dim(F) + dim(F ′ ) = d − 1, so dass |φ(F) ∩ φ(F ′ )| ungerade ist.
Bemerkung: Im Folgenden wird zunächst ein allgemeinerer Satz vorgestellt. Danach
wird gezeigt, dass dieser Satz 4.7.20 das Theorem 4.7.19 impliziert. Nach Lemma 4.7.26
wird schließlich Theorem 4.7.19 gezeigt.
Satz 4.7.20. Es sei P ein voll-dimensionales konvexes Polytop im Rd , das keine parallelen
Seitenflächen besitzt und sei φ eine generisch, stetige Abbildung von ∂P in den Rd−1 , dann
folgt:
X
|φ(F) ∩ φ(F ′ )|
ist ungerade, wobei über alle antipodalen Paare (F, F ′ ) summiert wird.
Da die Abbildung generisch ist, genügt es über alle antipodalen Paare (F, F ′ ) mit dim(F)+
dim(F ′ ) = d − 1 zu summieren. Falls dim(F) + dim(F ′ ) ≥ d folgt, dass (F, F ′ ) parallel sind.
Angenommen sie wären nicht parallel, dann gebe es kein c ∈ F−F, F ′ −F ′ , was aber im Widerspruch zu dim(F) + dim(F ′ ) ≥ d steht, da die linearen Hüllen den Raum Rd aufspannen,
dann könnten sie aber wiederum nicht in zwei parallelen (nicht schneidende) Hyperebenen
liegen.
Satz 4.7.21. Der Satz 4.7.20 impliziert das Theorem 4.7.19.
Beweis. Angenommen das Polytop P hat parallele Seitenflächen. Für alle Paare Seitenflächen (E, E ′ ) von P, deren affine Hülle sich schneiden, sei pE E′ ein Punkt, der im Schnitt
der affinen Hüllen liegt. Und für jedes Paar paralleler Seitenflächen (E, E ′ ) von P, deren
projektive Hülle sich schneiden, sei qE E′ der Fernpunkt, der im Schnitt der projektiven
Hülle liegt. Weiter sei H eine endliche Hyperebene, die den Raum so teilt, dass alle Punkte
pE E′ auf einer Seite liegen und die Hyperebene H keinen Punkt qF F ′ enthält. Solch eine
Hyperebene existiert, denn sofern die Anzahl der pE E′ endlich ist, lässt sich eine konvexe Hülle mit den pE E′ bilden und damit auch eine Hyperebene finden, die außerhalb der
konvexen Hülle liegt und diese nicht schneidet. Da es unendlich viele dieser Hyperebenen gibt und nur endlich viele Fernpunkte qF F ′ , lässt sich ebenso eine Hyperebene finden,
die zusätzlich die Fernpunkte meidet. Durch Anwendung einer projektiven Transformation, die die Hyperebene auf die uneigentliche Hyperebene abbildet, erhält man eine neues
83
KAPITEL 4. DIE COLIN-DE-VERDIÈRE-ZAHL
Polytop P′ . Diese Polytop P′ enthält keine parallelen Seitenflächen mehr. Durch die projektive Transformation, bleiben die Punkte pE E′ endlich und werden nicht zu Fernpunkten,
da kein Punkt auf der Hyperebene liegt. Da die Fernpunkte qF F′ ebenfalls nicht auf der
Hyperebene liegen werden sie nach der projektiven Transformation zu endlichen Punkten.
Weiterhin gibt es für alle antipodalen Seitenflächen (F P′ , F P′ ′ ) in P′ ein antipodales Seitenflächenpaar in P. Denn dann folgt dim(F P′ ) + dim(F P′ ′ ) ≤ d − 1, andernfalls wäre die
beiden Seitenflächen parallel, was nach Konstruktion nicht sein kann. Dann lassen sich
zwei Hyperebenen H1 und H2 finden, so dass F P′ in H1 und F P′ ′ in H2 enthalten sind,
das Polytop P′ einschließen und das ein gemeinsamer Punkt, der auf der uneigentlichen
Hyperebene nach der projektiven Transformation liegt, finden. Nach Rücktransformation
würden die beiden Hyperebenen F P beziehungsweise F P′ sowie den Punkt, der nun auf der
uneigentlichen Hyperebene liegt, enthalten. Somit wäre sie auch parallel, da sie einen gemeinsamen Punkt auf der uneigentlichen Hyperebene haben und weiterhin würden sie auch
P einschließen, da die projektive Transformation bijektiv ist. Siehe auch Abbildung 4.23.
P
Falls nun |φ(F) ∩ φ(F ′ )| ungerade ist, bedeutet dies, dass es mindestens ein antipodales
Paar geben muss, welches auch eine ungerade Anzahl an Schnittpunkten besitzt.
(a)
(b)
(c)
Abbildung 4.23: Das Sechseck soll, wie im Beweis von Satz 4.7.20, transformiert werden.
Zunächst werden die Seitenflächen verlängert und die Schnittpunkte p ermittelt, in Bild
(a) blau dargestellt. Im nächsten Schritt wird das Sechseck mit den Schnittpunkten und den
uneigentlichen Schnittpunkten q aus den parallelen Seitenflächen, in Bild (b) rot dargestellt,
auf die obere Halbsphäre projiziert. Im Bild (c) wird eine grüne Hyperebene dargestellt,
die die Punkte p auf einer Seite hat und die Punkte q meidet. Anschließend wird diese
Hyperebene auf den Äquator projiziert, somit wird das Sechseck ebenfalls verzerrt und die
Schnittpunkte liegen nicht mehr auf dem Äquator.
Definition 4.7.22. (≤).
Für zwei Seitenflächen F, F ′ bezeichnet: F ≤ F ′ : F ⊆ F̄ ′ .
KAPITEL 4. DIE COLIN-DE-VERDIÈRE-ZAHL
84
Satz 4.7.23. Seien F, F ′ zwei Seitenflächen eines konvexen Polytops P im Rd . Dann sind
die beiden Seitenflächen F, F ′ genau dann antipodal, wenn F − F ′ in einer Seitenfläche von
P − P enthalten ist.
Beweis. Es seien F, F ′ zwei antipodale Seitenflächen. Nach Definition 4.7.12 gibt es folglich ein c ∈ Rd mit c , 0, so dass hc, xi maximal für alle x ∈ F und minimal für alle
x ∈ F ′ wird. Somit gilt hc, Fi ≥ hc, xi und hc, F ′ i ≤ hc, yi für alle x, y ∈ P. Addition ergibt:
hc, F − F ′i ≥ hc, x − yi für alle x, y ∈ P. Somit ist F − F ′ eine Seitenfläche in P − P, da c dem
Normalenvektor der Hyperebene entspricht, die F − F ′ enthält. Da hc, F − F ′ i ≥ hc, x − yi
für alle x, y ∈ P gilt, kann F − F ′ nicht im Inneren von P − P liegen.
Sei nun F − F ′ in einer Seitenfläche von P − P enthalten. Angenommen F, F ′ wären keine
antipodalen Seitenflächen in P, dann gibt es für alle c ∈ Rd ein x ∈ P mit hc, xi > hc, Fi
und hc, F ′ i < hc, xi. Da F − F ′ in einer Seitenfläche S in P − P enthalten ist, enthält jede S definierende Hyperebene auch F − F ′ . Also existiert ein c ∈ Rd mit c , 0, so dass
hc, F − F ′ i ≥ hc, xi für alle x ∈ P − P gilt. Daraus folgt dann hc, Fi ≥ hc, x + F ′ i beziehungsweise hc, F ′ i ≤ hc, F − xi für alle x ∈ P − P also auch x ∈ P − F oder x ∈ P − F ′ . Dies
ergibt somit einen Widerspruch zu der Annahme, dass es für alle c ∈ Rd ein x ∈ P gibt, so
dass hc, xi > hc, Fi beziehungsweise hc, F ′ i < hc, xi gilt.
Lemma 4.7.24. Es sei P ein konvexes Polytop ohne parallele Seitenflächen im Rd .
i. Sind A, B antipodale Seitenflächen in P, dann ist A − B eine Seitenfläche von P − P
und es gilt dim(A − B) = dim(A) + dim(B).
ii. Ist F eine Seitenfläche von P − P so existiert ein einziges Paar (A, B) antipodaler
Seitenflächen in P mit A − B = F.
iii. Für zwei Paare (A, B) und (A′ , B′ ) von antipodalen Seitenflächen gilt A − B ≤ A′ − B′
genau dann, wenn A ≤ A′ und B ≤ B′ gilt.
Beweis. Nach Voraussetzung besitzt das Polytop P keine parallelen Seitenflächen.
i. Sind A, B antipodale Seitenflächen sind, folgt aus Satz 4.7.23, dass A − B eine Seitenfläche von P − P ist. Da A, B nicht parallele Seitenfläche von P bilden, lassen sie sich
als Linearkombination von dim(A) beziehungsweise dim(B) linear unabhängigen
P
P
Vektoren schreiben. Also: A = a + dim(A)
λi vi und B = b + dim(B)
γi wi , mit a ∈ A,
i=1
i=1
P
d
b ∈ B,vi, wi ∈ R und λi , γi ∈ R. Daraus folgt dann: A − B = a − b + dim(A)
λi vi −
i=1
Pdim(B)
γ
w
.
Da
A
und
B
nicht
parallel
sind,
sind
die
linear
unabhängigen
Vektoren
i i
i=1
auch untereinander linear unabhängig, so dass dim(A − B) = dim(a) + dim(B) folgt.
ii. Aus dem Satz 4.7.23 folgt bereits, dass A, B antipodale Seitenflächen sein müssen.
Seien (A, B) und (A′ , B)′ zwei antipodale Seitenflächenpaare mit A − B = F und
A′ − B′ = F, dann folgt A − B = A′ − B′ und aus iii. folgt dann A = A′ und B = B′ .
iii. Es seien (A, B) und (A′ , B′ ) zwei antipodale Seitenflächenpaare und es gilt A − B ≤
A′ − B′ . Da (A, B) antipodale Seitenflächen sind, existiert ein c ∈ Rd mit c , 0 und
hc, Ai ≥ hc, xi ≥ hc, Bi für alle x ∈ P. Daraus folgt dann: hc, Ai ≥ hc, A′ i und hc, Bi ≤
hc, B′i. Weiter folgt aus A − B ≤ A′ − B′ , dass hc, A − Bi = hc, A′ − B′i gilt, da für alle
a ∈ A, b ∈ B zwei Elemente a′ ∈ Ā′ , b ∈ B̄′ mit a − b = a′ − b′ existieren. Gilt nun
hc, Ai > hc, A′ i, dann folgt hc, A − Bi > hc, A′ − B′ i. Dies ergibt einen Widerspruch,
also muss hc, Ai = hc, A′ i und hc, Bi = hc, B′ i gelten. Also liegen A, A′ und B, B′
jeweils in der gleichen Hyperebene H1 und H2 . Dann seien D, D′ zwei Seitenfläche
mit D, D′ ⊂ P und A, A′ ≤ D sowie B, B′ ≤ D′ . Laut Voraussetzung gilt: Für alle
a ∈ A, b ∈ B existieren zwei Elemente a′ ∈ Ā′ , b ∈ B̄′ , so dass a−b = a′ −b′ gilt. Also
folgt a − a′ = b − b′ und a, a′ ∈ D sowie b, b′ ∈ D′ . Würde nun A 6≤ A′ gelten, dann
gäbe es ein Element a ∈ A und a < Ā′ und damit wäre a − a′ , 0 aber a − a′ = b − b′ ,
das würde bedeuten, dass D − D und D′ − D′ einen von Null verschiedenen Vektor
KAPITEL 4. DIE COLIN-DE-VERDIÈRE-ZAHL
85
gemeinsam hätten. Nach Definition 4.7.16 würde daraus die Parallelität von D und
D′ folgen. Ein Widerspruch, da P keine parallelen Seitenflächen hat.
Sind (A, B) und (A′ , B′ ) zwei antipodale Seitenflächenpaare mit A ≤ A′ und B ≤ B′ ,
dann folgt daraus A − B ≤ A′ − B′ . Denn für alle a ∈ A und b ∈ B existiert ein a′ ∈ Ā′
und b′ ∈ B̄′ , so dass a = a′ und b = b′ folgt, also auch a − b = a′ − b′ .
Lemma 4.7.25. Es seien (F, F ′) ein antipodales Seitenflächenpaar von einem konvexen
Polytop P im Rd , gilt dim(F) + dim(F ′ ) ≥ d, so sind F und F ′ parallel.
Beweis. Angenommen F und F ′ wäre nicht parallel, dann folgt aus Definition 4.7.16, dass
sich die affinen Hüllen der Seiten F und F ′ schneiden oder das es kein c , 0 gibt mit
c ∈ F − F und c ∈ F ′ − F ′ . Da F und F ′ antipodale Seitenflächen sind, liegen sie jeweils
in einer Hyperebene F ⊂ H1 , F ′ ⊂ H2 , die parallel zueinander sind. Somit können die
affinen Hüllen der beiden Seiten sich nicht schneiden. Würde es kein c , 0 mit c ∈ F − F
und c ∈ F ′ − F ′ geben müsste eine Basen von F und F ′ den Rd aufspannen. In diesem Fall
können die Hyperebenen H1 und H2 nicht mehr parallel sein. Dies ergibt einen Widerspruch
und (F, F ′ ) ist ein antipodales, paralleles Seitenflächenpaar.
Lemma 4.7.26. Es sei P ein konvexes Polytop im Rd ohne parallele Seiten. Für alle Seitenflächenpaare (A, B) von P mit dim(A) + dim(B) = d − 2 beträgt die Anzahl antipodaler
Seitenflächenpaare (F, F ′ ) mit A ≤ F, B ≤ F ′ und dim(F) + dim(F ′ ) = d − 1 null oder zwei.
Beweis. Angenommen das Seitenflächenpaar (A, B) wäre nicht antipodal, dann würde die
Anzahl antipodaler Seitenflächenpaare (F, F ′) mit A ≤ F, B ≤ F ′ und dim(F) + dim(F ′ ) =
d − 1 null betragen, da (A, B) nicht in parallelen Hyperebenen liegen und somit würde sich
auch keine (F, F ′ ) finden lassen, die die Bedingung erfüllen.
Angenommen das Seitenflächenpaar (A, B) wäre antipodal, dann würde die Anzahl antipodaler Seitenflächenpaare (F, F ′ ) mit A ≤ F, B ≤ F ′ und dim(F) + dim(F ′ ) = d − 1
zwei betragen. Denn nach Lemma 4.7.24 iii. ist die Anzahl gleich der Anzahl von Facetten in P − P, die inzident zu der Seitenfläche A − B wären. Nach Lemma 4.7.24 i. folgt:
dim(A − B) = dim(A) + dim(B) = d − 2. Und es gilt, dass sich zwei Seitenflächen der
Dimension d − 1 in einer Seitenfläche der Dimension d − 2 schneiden. Somit gibt es zwei
Facetten, die inzident zu A − B sind und nach Lemma 4.7.24 ii. gibt es für die genau ein
Paar antipodaler Seitenflächen.
Bemerkung:
Im Folgenden soll nun der Satz 4.7.20 bewiesen werden.
Beweis. Die Aussage ist wahr für folgende Abbildung φ: Es wird ein Punkt p in der Nähe
des Mittelpunkts einer Facette F bestimmt. Dieser Punkt soll außerhalb des Polytops P
liegen. Anschließend wird ∂P auf die Facette F durch den Punkt p projiziert. Dies ist
das Prinzip des Schlegeldiagramms, siehe dazu Abbildung 4.24. Da das Polytop P konvex
ist, wird ∂P auf die Facette F projiziert ohne das es zu Selbstschnitten kommt. Es wird
gezeigt, dass es nur einen eindeutigen nichttrivialen Schnitt gibt. Dabei schneiden sich nur
die Facette F und dem Punkt, der am weitesten von F entfernt liegt. Wäre er es nicht,
sondern gäbe es eine Seitenfläche F ′ der Dimension d ≥ 1, so wäre die Seitenfläche und
die Facette F parallel zueinander, da nach Lemma 4.7.25 zwei antipodale Seitenflächen
mit einer Dimension dim(F) + dim(F ′ ) ≥ d parallel sind. Der Satz 4.7.20 ist also für
die Abbildung φ richtig, denn der Punkt p und die Facetten bilden den einzigen Schnitt
antipodaler Seitenflächen.
Nun sei φ eine beliebig stetig, generische Abbildung. Um den Satz 4.7.20 zu beweisen, soll
die Abbildung φ in die Abbildung φ deformiert werden. Dabei kann man die projizierten
Seitenflächen im Rd−1 von der Abbildung φ so in die projizierten Seitenflächen im Rd−1
von der Abbildung φ verformen, dass sich zwei Seitenflächen φ(E), φ(E ′ ) mit dim(φ(E)) +
86
KAPITEL 4. DIE COLIN-DE-VERDIÈRE-ZAHL
dim(φ(E ′ )) ≤ d −3 nicht schneiden. Denn es sei φ(A) eine beliebige projizierte Seitenfläche
von φ der Dimension m ≤ d − 3, die in einer Seitenfläche A′ = φ(A) der Dimension m von
der Abbildung φ überführt werden soll. Es wird gezeigt, dass sich ein Weg finden lässt,
so dass φ(A) zu A′ = φ(A) verformt wird, ohne eine Seitenfläche der Dimension l mit
m+l ≤ d−3 zu schneiden. Es sei Hφ(A) die Menge aller Hyperebenen durch die Seitenfläche
φ(A), da die Dimension von dim(φ(A)) = m ≤ d − 3 beträgt, gibt es unendlich viele solcher
Hyperebenen. Weiter seien
Him (φ(A)) ∈ Hφ(A)
mit i ∈ I einer beliebige Indexmenge, die Hyperebenen, die durch die Seitenfläche φ(A)
gehen und durch eine Seitenflächen φ(B) der Dimension dim(φ(B)) = l, mit m + l = d − 3.
Diese Hyperebenen existieren, sind allerdings unter Umständen nicht eindeutig bestimmt.
Für jede Seitenfläche φ(B) reicht es sich einen Repräsentanten für Him (φ(A)) auszuwählen.
Schließlich gilt dann |HIm (φ(A))| < ∞. Weiter seien
Him−k (φ(A)) ∈ Hφ(A)
mit i ∈ I ′ einer beliebige Indexmenge, die Hyperebenen die durch alle Seitenflächen φ(S )
innerhalb von φ(A) also φ(S ) ⊂ φ(A) und φ(S ′ ) gehen, weiter soll dim(φ(S )) = m − k und
φ(S ′ ) = l mit m−k+l = d−3 gelten. Diese sind ebenfalls nicht eindeutig bestimmt allerdings
S
m− j
reicht es sich wieder einen Repräsentanten auszuwählen. Dann ist | mj=0 HI ′ (φ(A))| < ∞.
Dann geben alle Paare von nicht-parallelen Hyperebenen aus
Hφ(A) \
m
[
j
HIm−
(φ(A))
′
j=0
∪
HIm (φ(A))
m
[
!
m− j ′
m ′
, H A′ \
HI ′ (A ) ∪ HI (A )
j=0
eine Möglichkeit an von φ(A) nach A′ zu gelangen. Zunächst über
Hφ(A) \
m
[
j=0
j
HIm−
(φ(A)) ∪ HIm (φ(A))
′
und ab der Schnittmenge von dem Paar zu
H A′ \
m
[
j=0
j ′
HIm−
(A ) ∪ HIm (A′ ) .
′
Dabei kann es immer noch vorkommen, dass die zu φ(A) adjazenten Seitenflächen φ(B) der
Dimension m′ bei der Verschiebung auf Seitenflächen der Dimension l′ mit m′ + l′ ≤ d − 3
S ′ m′ −i
treffen. Dann gehe man wie oben vor und bilde zunächst m
i=0 HI ′′ (φ(B)), betrachte die
Paare (P, P′ ) mit
P = Hφ(A) \
m
[
j
HIm−
(φ(A))
′
j=0
∪
HIm (φ(A))
und
P′ = H A ′ \
′
m
[
j=0
j ′
HIm−
(A ) ∪ HIm (A′ )
′
m′
[
′
HIm′′ −i (φ(B))
i=0
m′
[
i=0
′
HIm′′ −i (B′ ) ,
wobei B = φ(B) die zu B korrespondierende Seitenfläche der Abbildung φ ist. Dieses Verfahren wird solange durchgeführt bis man geeignete Hyperebenen gefunden hat, die die
Verformung garantieren ohne das sich zwei Seitenflächen schneiden, sofern sie eine Dimension haben, die größer ist als d − 3. Das Prinzip funktioniert, da man aus unendlich
87
KAPITEL 4. DIE COLIN-DE-VERDIÈRE-ZAHL
vielen Hyperebenen immer nur endlich viele herausnimmt und man somit immer noch unendlich viele zur Auswahl hat. Falls nun durch Verformung der Seitenfläche φ(A), diese
durch eine Seitenfläche φ(B) geht mit dim(φ(A)) + dim(φ(B)) = d − 2, dann gibt es nach
Lemma 4.7.26 entweder zwei oder gar keine antipodalen Seitenflächen, die die Seitenflächen φ(A) beziehungsweise φ(B) enthalten. Und dies würde die Parität der Schnittanzahl
P
nicht ändern. Somit bleibt die Schnittanzahl von |φ(F) ∩ φ(F ′ )| immer ungerade.
(a)
(b)
(c)
Abbildung 4.24: Es soll das Schlegeldiagramm des Würfels konstruiert werden. Dazu nehme man einen Punkt, der sich zum einen in der Nähe der Mitte einer Facette des Würfels
und andererseits außerhalb des Würfels befindet, Abbildung (a). Anschließend werden Geraden erstellt, die durch diesen Punkt und einen anderen Punkt des Würfels gehen. Der
Schnittpunkt dieser Geraden mit der Hyperebenen, die auf der Facette liegen, werden eingetragen und durch die entsprechenden Geraden verbunden, sofern zwei Punkte auch im
Würfel adjazent sind. Man erhält dann Abbildung (b) und als Einbettung im R2 dann Abbildung (c).
KAPITEL 4. DIE COLIN-DE-VERDIÈRE-ZAHL
88
Definition 4.7.27. (k-Skelett).
Es sei P ein Polytop im Rd , dann bezeichne (P)k das k-Skelett von P, wobei das k-Skelett
der Zellkomplex mit allen Seitenflächen des Polytop P der Dimension d ≤ k ist.
Theorem 4.7.28. Es sei P ein voll-dimensionales konvexes Polytop im R5 und sei φ eine
Einbettung von (P)1 in den R3 . Dann existiert ein antipodales Seitenflächenpaar (F, F ′ ) der
Dimension 2 von P, so dass φ(∂F) und φ(∂F ′ ) eine ungerade Verlinkungszahl haben.
Beweis. Zunächst wird die Abbildung φ um eine letzte Koordinate 0 erweitert, also φ(x) =
(φ(x), 0). Somit erhält man eine Einbettung des (P)1 in den R4 . Dann wird die Abbildung φ
zu einer generischen Abbildung von ϕ : ∂P → R4 erweitert, so dass die letzte Koordinate
positiv ist, sofern x ∈ ∂P \ (P)1 . Zum Beweis des Theorems 4.7.28 benötigt man noch ein
Lemma.
Lemma 4.7.29. Die Einbettung φ lässt sich zu einer generischen Abbildung ϕ erweitern.
Beweis. Da es sich um eine Einbettung handelt, schneiden sich Seitenflächen der Dimension 1 nicht paarweise. Für eine generische Abbildung ϕ müssen die Seitenflächen der
Dimension 2 so gewählt werden, dass sie sich paarweise nur in endlich vielen Punkten
schneiden. Da sich die Einbettung der Seitenflächen der Dimension 1 nicht schneiden und
eine Einbettung einen Homöomorphismus darstellt, lässt sich um die Bilder der Dimension
1 eine Röhre konstruieren, die den Radius ǫ besitzt. Innerhalb dieser Röhre lässt sich dann
ein Polygonzug konstruieren, siehe dazu Abbildung 4.25. Für jedes Bild der Seitenfläche
Ai der Dimension 2 des Polytops P, die von der Kurve umrandet wird, konstruiert man
Kegel. Somit definiere man für die generische Abbildung ein Punkt pi , der dann die Spitze
für das Bilde der Seitenfläche bildet, wobei die vierte Koordinate des Punktes pi positiv
ist. Die Seitenfläche der Dimension 2 wird somit aus Dreiecken gebildet, die die gleiche
Anzahl haben, wie Kanten des Polygonzuges es begrenzen. Um nun zu gewährleisten, dass
sich die Bilder Seitenflächen der Dimension 2 nur in endlich vielen Punkten schneiden,
genügt es die pi geschickt zu wählen und dabei zu sorgen, dass zwei nicht adjazente belief
g
bige Dreiecke sich höchstens in endlich vielen Punkten schneiden. Seien also △l und △k
zwei beliebige nicht adjazente Dreiecke aus den Bildern der Seitenflächen Al und Ak . Weiter seien pl , ai , a j ∈ △ef und pk , a s, at ∈ △gk , wobei ai , a j und a s , at die Bilder zweier Ecken
sind, die im Urbild durch eine Seitenfläche der Dimension 1 verbunden sind und pk , pl die
Spitzen von Ak und Al . Daraus ergibt sich dann:
△lf = ai + r1 (a j − ai ) + r2 (pl − ai )
△gk = a s + t1 (at − a s ) + t2 (pk − a s )
mit r1 , r2 , t1 , t2 ∈ R+0 und 0 ≤ r1 , r2 , t1 , t2 ≤ 1 und r1 +r2 ≤ 1 sowie t1 +t2 ≤ 1. Da ai , a j , at , a s
Seitenflächen der Dimension 0 sind, haben sich nach der Einbettung oben eine vierte Koordinate 0. Deswegen wird zu Vereinfachung der vierdimensionale Punkt ai zum Punkt
(ai , 0) und aus pl wird (pl , αl ) mit der vierten Koordinate αl . Für die Schnittpunktmenge
ergibt sich aus △lf = △gk , dann:
 
!
!  t1 
ai − a s
a − a s pk − a s ai − a j ai − pl  t2 
 .
= t
0
0
αk
0
−αl r1 
r2
Aus der letzten Gleichung folgt: t2 αk = r2 αl also:
αk
r2 = t2 .
αl
Daraus ergibt sich dann:
 

at − a s ai − a j 1 (αl pk − a s αl + αk ai − αk pl )  t1 
 r  .
ai − a s = | {z } | {z } αl
|
{z
}  1 
 I
II
t2
III
KAPITEL 4. DIE COLIN-DE-VERDIÈRE-ZAHL
89
(a)
(b)
(c)
Abbildung 4.25: Für die Einbettung einer Seitenfläche der Dimension 1, siehe Abbildung
(a), lässt sich eine Röhre um diese Kurve konstruieren, siehe Abbildung (b). Solch eine
Röhre existiert, da die Einbettung garantiert, dass zwei Seitenflächen der Dimension 1,
sich nicht schneiden. Innerhalb dieser Röhre lässt sich dann ein Polygonzug finden, siehe
Abbildung (c).
Wären nun I, II und III linear unabhängig, gäbe es eine eindeutige Lösung und die Anzahl der Schnittpunkte wäre endlich. Für den Fall, dass es unendlich viele Lösungen gibt,
KAPITEL 4. DIE COLIN-DE-VERDIÈRE-ZAHL
90
müssen mindestens zwei Vektoren linear abhängig sein und das Ergebnis müsste im span
der Vektoren liegen. Dies ergibt nun Kriterium für die Wahl der pi für die Bilder der Seitenflächen Ai um eine generische Abbildung zu erhalten. Im Folgenden wird eine rekursive
Möglichkeit vorgestellt, um eine endliche Schnittmenge zu gewährleisten.
Sei p1 = (p1 , α1 ) so gewählt, dass p1 < span(a1i ) liegt mit a1i ∈ A1 . Man bilde die affinen
Ebenen aus:
Et = a2s + span(p1 − a1j , a1j − a1i )
mit t ∈ I einer Indexmenge und für alle Bilder aus Ecken a2s ∈ A2 , a1i , a1j ∈ A1 , wobei a1i
und a1j durch die Bilder einer Seitenfläche der Dimension 1 adjazent sind. Die Spitze p2 für
A2 muss so gewählt werden, dass sie nicht auf den Et liegt. Für jedes p j kommen weitere
affine Ebenen hinzu auf denen p j nicht enthalten sein darf:
Et = a sj +
j−1
X
k=1
span(pk − akj , akj − aki ),
mit t ∈ I einer Indexmenge und für alle Bilder aus Ecken a sj ∈ A j , aki , akj ∈ Ak , wobei aki
und akj durch die Bilder einer Seitenfläche der Dimension 1 adjazent sind und 1 ≤ k ≤ j − 1
gilt. Diese Konstruktion stellt sicher, dass pk − a s , pl − ai und ai − a j linear unabhängig sind.
Somit können I und III beziehungsweise II und III nicht linear abhängig sein. Der zweite
Fall, dass I und II linear abhängig sind, soll nun ausgeschlossen werden. Wären sie linear
abhängig, würde zunächst einmal ai − a s < span(ai − a j ) folgen, denn angenommen es wäre
nicht so. Dann wäre a j = a s und mit dem Term I dann at = ai und die beiden Dreiecke
hätte eine gleiche Seitenfläche der Dimension 1. Allerdings wäre sie dann adjazent, was
ausgeschlossen wurde. Es könnte aber ai − a s ∈ span(ai − a j , III) sein. Sei also p1 wie
oben. Dann bilde man alle Ebenen:
α2
m
2
Et = ( (p1 − a1i ) + span(a1i − a1j , am
k − al )) + a s
α1
für alle a2s ∈ A2 , a1i , a1j ∈ A1 , wobei a1i und a1j adjazent durch eine Seitenfläche der Dimenn
m n
1 1
sion 1 sind und am
k , al ∈ (P)1 mit ak , al , ai , a j . Und p2 muss dann wiederum so gewählt
werden, dass es nicht auf der Ebene Et liegt. Somit wird verhindert, dass für den Fall das I
und II linear abhängig sind, II und III keine Ebene aufspannen, auf der ai − a s liegt. Somit
haben zwei beliebige Dreiecke immer nur eine endliche Schnittpunktanzahl. Da die Röhre
einen Radius von ǫ hat und dieser Radius sich beliebig verkleinern lässt, lässt sich der Radius ǫ des Polygonzuges durch die Bedingung der Rektifizierbarkeit beliebig verkleinern und
konvergiert somit gegen die Kurve der Einbettung. Und φ lässt sich zu einer generischen
Abbildung erweitern.
Es sei nun ϕ eine generische Einbettung von ∂P → R4 . Nach dem Theorem 4.7.19
hat das Polytop P zwei antipodale Seitenflächen F und F ′ mit dim(F) + dim(F ′ ) = 4
und |ϕ(F) ∩ ϕ(F ′ )| ist ungerade. Angenommen dim(F) ≤ 1, dann ist die letzte Koordinate
in jedem Punkt in ϕ(F) 0, während ϕ(F ′ ) eine positive letzte Koordinate hat, somit kann
dim(F) ≤ 1 nicht gelten. Aus dim(F) + dim(F ′ ) = 4 folgt dann, dass dim(F) = dim(F ′ ) = 2
gelten muss. Damit ist der Rand von F und F ′ eine 1-Sphäre S 1 und S 2 , die aufgrund der
Einbettung disjunkt sein müssen. Die generische Abbildung ϕ erweitert den Rand zu einem 2-Ball in dem positiven Halbraum des R4 und damit schneiden sich die 2-Bälle in
einer ungeraden Anzahl von Punkten, dies soll nun durch Widerspruch gezeigt werden.
Dies impliziert wiederum die Verlinktheit und eine ungerade Verlinkungszahl. Angenommen sie hätten eine gerade Verlinkungszahl, dann gibt es eine Erweiterung von ∂F zu einer
stetigen Abbildung ϕ′ mit (ϕ′ (F))4 = 0 wobei mit (ϕ′ (x))4 die letzte Koordinate gemeint
ist und die ist für jeden Punkt im Inneren von F gleich 0. Und ϕ′ (F) und ϕ(∂F ′ ) schneiden
sich transversal in einer geraden Anzahl an Punkten, siehe dazu Abbildung 4.26. Anschließend erweitere ϕ′ zu der generischen Abbildung der Seitenfläche F. Man erhält damit eine
KAPITEL 4. DIE COLIN-DE-VERDIÈRE-ZAHL
91
Abbildung 4.26: Die Spitze der Pyramide besitzt eine positive vierte Koordinate. Die Seitenfläche, hier rot dargestellt, hat eine vierte Koordinate 0.
geschlossenen 2-Sphäre auf ϕ(F) ∪ ϕ′ (F). Die Abbildung ϕ von ∂F ′ wird nun ebenfalls zu
der generischen Abbildung ϕ(F ′ ) erweitert und wird nun ebenfalls allerdings in den negativen Halbraum der letzten Koordinate des R4 geschlossen. Man erhält somit zwei 2-Sphären
durch . Diese schneiden sich im positiven Halbraum der positiven letzten Koordinate des R4
in einer ungeraden Anzahl an transversalen Schnittpunkten. Für die letzte Koordinate gleich
0 gibt es eine gerade Anzahl an Schnittpunkten, da eine gerade Verlinkungszahl angenommen wurde und für eine negative letzte Koordinate gibt es keine Schnittpunkte, da nur F ′
dorthin erweitert wurde. Man erhält somit zwei 2-Sphären, die sich in einer ungeraden Anzahl transversaler Schnittpunkte treffen und dies ergibt wie folgt einen Widerspruch. Denn
beide 2-Sphären ergeben sich als Bilder von Seitenflächen F, F ′ der Dimension 2. Diese
Seitenflächen sind kompakt und somit auch die 2-Sphären. Nach der Verallgemeinerung
des Jordanschen Kurvensatzes [17] teilt das Komplement die Menge in zwei Zusammenhangsmengen. Der Abschluss einer dieser beiden Mengen ist kompakt und hat den Rand
der 2-Sphäre. Somit gibt es ein Inneres der 2-Sphäre. Schneidet nun die andere 2-Sphäre
diese, befindet sie sich im Inneren um dieses wider zu verlassen, gibt es einen weiteren
Schnittpunkt und somit ist die Anzahl transversaler Schnitte zwischen zwei kompakten
2-Sphären immer gerade.
4.7.2 Der Beweis von Theorem 4.7.7
Beweis. Es sei G ein verlinkungsfreie einbettbarer Graph und angenommen, es gilt µ(G) ≥
5. Nach [29] lässt sich annehmen, dass G flach einbettbar im R3 ist. Denn jede flache
Einbettung ist verlinkungsfrei, aber die Umkehrung ist im Allgemeinen falsch. Allerdings
wurde in [29] gezeigt, dass, sofern es für G eine verlinkungsfreie Einbettung gibt, es auch
eine flache Einbettung existiert. Es reicht also zu zeigen, dass der Graph G nicht flach
einbettbar ist falls µ(G) ≥ 5 gilt. Es soll nun ein Gegenbeispiel konstruiert werden.
Lemma 4.7.30. Es sei G ein verlinkungsfrei einbettbarer Graph mit einer minimalen Anzahl von Knoten, dann folgt, dass G 4-zusammenhängend ist.
Beweis. Angenommen G hat einen minimalen Eckenschnitt U mit |U| ≤ 3. Das bedeutet, dass G − U nicht mehr zusammenhängend ist. Im Folgenden wird ein Graph G̃ konstruiert. Es wird gezeigt, dass G ein Minor von G̃ ist. Schließlich wird µ(G̃) = 4 gefolgert, was wegen des Theorems über die Minormonotonie 4.2.5 zum Widerspruch führt, da
4 = µ(G̃) ≥ µ(G) folgt und nach Annahme µ(G) ≥ 5 ist.
Man betrachte eine Zusammenhangskomponente K von G − U. Dann sei G′1 der Graph,
den man aus G − K und der gebildeten Clique aus den Knoten von U erhält. Schließlich
92
KAPITEL 4. DIE COLIN-DE-VERDIÈRE-ZAHL
ist G′1 ebenfalls verlinkungsfrei einbettbar, da G′1 ein Minor von G ist. Weiter sei G′2 der
induzierte Graph, den man aus der Zusammenhangskomponente K und der induzierten Clique aus U erhält. Dann ist G′2 ebenfalls verlinkungsfrei einbettbar, da der Graph ebenfalls
ein Minor von G ist. Schließlich sei G̃ der Graph, der sich aus einer Cliquensumme aus
den Graphen G′1 und G′2 bildet mit der auf U induzierten Clique, siehe dazu Abbildung
4.27. Da die Graphen G′1 und G′2 weniger Knoten als G haben und G ein Graph ist, der
für eine minimale Anzahl von Knoten die Ungleichung µ(G) ≥ 5 erfüllt, muss µ(G′1 ) ≤ 4
und µ(G′2 ) ≤ 4 gelten. Weiterhin ist G ein Untergraph von G̃. Nach Theorem 4.3.1 würde
aus G̃ > t ≔ max{µ(G′1 ), µ(G′2 )} die Gleichheit von µ(G̃) = t + 1 folgen und das es zwei
oder drei kontrahierten Komponenten aus G̃ − U gibt, so dass diese mit U einen Kt+3 \ △
formen. Allerdings gilt µ(G̃) ≥ µ(G) und aus µ(G) ≥ 5 erhält man schließlich µ(G̃) ≥ 5.
Damit µ(G) ≥ 5 gilt, muss t = 4 sein. Da aber |U| ≤ 2 ist, erhält man mit drei anderen
kontrahierten Komponenten höchstens fünf Ecken und diese können keinen K7 \ △ bilden.
Somit folgt 4 = µ(G̃) ≥ µ(G). Dies ergibt einen Widerspruch.
U
U’
(a) G
(b) G ′1
U
U
K
K
K
(c) G ′2
(d) G̃
Abbildung 4.27: Zunächst wird eine Zusammenhangskomponente K aus dem Graphen G −
U, siehe Abbildung (a), ausgewählt. Anschließend wird der Graph G′1 aus der induzierten
Clique auf U und G − K konstruiert, siehe dazu Abbildung (b). Anschließend wird G′2 aus
der induzierten Clique auf U und K gebildet, siehe dazu Abbildung (c). Der Graph G̃ aus
Abbildung (d) entsteht dann als Cliquensumme aus G′1 und G′2 mit der hier rot dargestellten
Clique.
Sei nun |U| = 3. Man betrachte eine Zusammenhangskomponente K von G − U. Dann
ist der G′1 der Graph, den man aus G − K und der gebildeten Clique aus den Knoten von U
erhält ebenfalls verlinkungsfrei einbettbar. Um zu sehen, dass G′1 verlinkungsfrei einbettbar
ist, wird die Zusammenhangskomponente auf einen Knoten k kontrahiert. Anschließend
wird auf den Knoten aus U und k eine Y△-Transformation angewendet und man erhält
schließlich G′1 , siehe dazu Abbildung 4.28. Da verlinkungsfrei einbettbare Graphen invariant unter Y△-Transformation bleiben, ist G′1 ebenfalls verlinkungsfrei einbettbar. Weiter
sei G′2 der induzierte Graph, den man aus der Zusammenhangskomponente K und der induzierten Clique aus U erhält. Dann ist G′2 ebenfalls aus der obigen Argumentation ver-
93
KAPITEL 4. DIE COLIN-DE-VERDIÈRE-ZAHL
linkungsfrei einbettbar. Schließlich sei G̃ der Graph, der sich aus einer Cliquensumme aus
den Graphen G′1 und G′2 bildet mit der auf U induzierten Clique, siehe dazu Abbildung
4.29. Da die Graphen G′1 und G′2 weniger Knoten als G haben und G ein Graph ist, der
für eine minimale Anzahl von Knoten die Ungleichung µ(G) ≥ 5 erfüllt, muss µ(G′1 ) ≤ 4
und µ(G′2 ) ≤ 4 gelten. Weiterhin ist G ein Untergraph von G̃. Nach Theorem 4.3.1 würde
aus G̃ > t ≔ max{µ(G′1 ), µ(G′2 )} die Gleichheit von µ(G̃) = t + 1 folgen und das es zwei
oder drei kontrahierten Komponenten aus G̃ − U gibt, so dass diese mit U einen Kt+3 \ △
formen. Allerdings gilt µ(G̃) ≥ µ(G) und aus µ(G) ≥ 5 erhält man schließlich µ(G̃) ≥ 5.
Damit µ(G) ≥ 5 gilt, muss t = 4 sein. Da aber |U| ≤ 2 ist, erhält man mit drei anderen
kontrahierten Komponenten höchstens sechs Ecken und diese können keinen K7 \ △ bilden.
Somit folgt 4 = µ(G̃) ≥ µ(G). Dies ergibt einen Widerspruch.
Es sei M mit corank(M) = 5 eine zu G zugehörige Matrix, die die Definition 4.1.1
erfüllt.
U
K
(a) G
U
k
(c) G ′1
(b)
Abbildung 4.28: Sei K eine Zusammenhangskomponente aus dem Graphen G − U, siehe Abbildung (a). Die Zusammenhangskomponente K wird in Abbildung (b) auf die
Ecke k kontrahiert. Anschließend wird an den Punkt k und der Komponente U eine Y△Transformation vollzogen. Der resultierende Graph G′1 , siehe Abbildung (c) ist dann ebenfalls verlinkungsfrei einbettbar und hat weniger Knoten als G.
Definition 4.7.31. (∼).
Zwei Elemente x, x′ ∈ ker(M) sind äquivalent x ∼ x′ , sofern supp+ (x) = supp+ (x′ ) und
supp− (x) = supp− (x′ ) gilt.
Definition 4.7.32. (endlich erzeugter offener Kegel).
Für eine endliche Menge von Vektoren v1 , v2 , . . . , vm ∈ Rn ist
cone(v1 , v2 , . . . , vm ) ≔
m
nX
i=1
ein endlich erzeugter offener Kegel.
λi vi | λi ∈ R, λi > 0
o
94
KAPITEL 4. DIE COLIN-DE-VERDIÈRE-ZAHL
U
U
(a) G
(b) G ′1
K
U
K
(c) G ′2
U
K
(d) G̃
Abbildung 4.29: Zunächst wird eine Zusammenhangskomponente K aus dem Graphen G −
U, siehe Abbildung (a), ausgewählt. Anschließend wird der Graph G′1 aus der induzierten
Clique auf U und G − K konstruiert, siehe dazu Abbildung (b). Anschließend wird G′2 aus
der induzierten Clique auf U und K gebildet, siehe dazu Abbildung (c). Der Graph G̃ aus
Abbildung (d) entsteht dann als Cliquensumme aus G′1 und G′2 mit der hier rot dargestellten
Clique.
KAPITEL 4. DIE COLIN-DE-VERDIÈRE-ZAHL
95
Bemerkung: Falls λi ≥ 0 gilt, bezeichnet man den Kegel als einen endlich erzeugten abgeschlossen Kegel oder einfach als endlich erzeugten Kegel. Anstatt der Vektoren
v1 , v2 , . . . , vm lässt sich der Kegel auch mit Hilfe einer Matrix definieren. Sei A ∈ Rm×n eine
Matrix mit den Spalten v1 , v2 , . . . , vm , dann bezeichnet
o
cone(A) ≔ {Aλ, λ ∈ Rn , λ > 0
den gleichen offenen Kegel wie cone(v1 , v2 , . . . , vm ). Weiter ist coneA der Co-Kegel von
cone(A) definiert als
coneA ≔ {x ∈ Rn | Ax ≤ 0}.
Satz 4.7.33. Die Äquivalenzklassen [xi ] von ker(M) bilden einen zentralsymmetrischen
Komplex P von spitzen polyhedrischen Kegeln.
Beweis. Seien xij ∈ [xi ] für alle j ∈ J einer Indexmenge linear unabhängig, dann bilden
P
alle positiven Linearkombinationen von xij wieder ein Element in [xi ], also j α j xij ∈ [xi ]
für endlich viele α j > 0. Durch die positiven Koeffizienten bleibt sowohl der negative als
P
auch der positive Träger erhalten. Für die Linearkombination folgt ebenfalls j α j xij ∈
ker(M).
Definition 4.7.34. (zerbrochener Kegel).
Ein Kegel f von P heißt zerbrochen, falls G| supp+ (x) für alle x ∈ f unzusammenhängend
ist.
Satz 4.7.35. Sei x ∈ ker(M) mit G| supp+ (x) unzusammenhängend. Dann hat G| supp(x)
genau 3 Komponenten K1 , K2 und K3 mit K1 ∪ K2 = supp+ (x) und K3 = supp− (x) und
N(Ki ) = V \ supp(x) für i = 1, 2, 3.
Beweis. Aus Theorem 4.5.6 folgt zunächst die Existenz der Zusammenhangskomponenten
K1 , K2 und K3 mit K1 ∪K2 = G| supp+ (x) und K3 = G| supp− (x). Weiter folgt nach Theorem
4.5.6, dass N(Ki ) = N(supp(x)) für alle Zusammenhangskomponenten Ki aus G| supp(x)
gilt. Daraus folgt dann
N(K1 ) = N(K2 ) = N(K3 ).
Also haben die drei Komponenten die gleichen Nachbarn. Des Weiteren gibt es nach Theorem 4.5.6 keine Kante, die G| supp+ (x) und G| supp− (x) verbindet.
Angenommen, die Aussage des Satzes 4.7.35 wäre falsch. Dann gäbe es eine Komponente Ki , so dass N(Ki ) , V \ supp(x) gilt. Dafür gibt es zunächst zwei Fälle:
a) es gibt ein a ∈ V(G), so dass a ∈ N(Ki ) aber a < V \ supp(x) gilt oder
b) es gibt ein a ∈ V(G), so dass a < N(Ki ) aber a ∈ V \ supp(x) gilt.
Es wird der Fall a) behandelt. Dieser Fall kann nicht eintreten, denn falls a ∈ N(Ki ) kann
a nicht Element von K j mit i , j sein, da es keine Kante, gibt die jeweils zwei der drei
Komponenten aus G| supp(x) verbindet. Somit muss a ein Element aus V \ supp(x) sein.
Es wird der Fall b) behandelt. Falls a nicht in N(Ki ) aber in V \ supp(x) enthalten ist, ist die
Menge V \ (supp(x) ∪ N(supp(x)) nicht leer und a ist darin enthalten. Da der Graph zusammenhängend ist, muss die Menge V \ (supp(x) ∪ N(supp(x)) mit der Menge N(supp(x)) adjazent sein. Um die Bedingung für den 4-zusammenhängenden Graphen zu gewährleisten,
müssen die beiden Mengen V \ (supp(x) ∪ N(supp(x)) und N(supp(x)) durch mindestens
vier Kanten verbunden sein, siehe dazu Abbildung 4.30. Dieser hat dann allerdings einen
Untergraphen der Petersen Familie 4.20d und wäre somit nicht verlinkungsfrei einbettbar.
Ein Widerspruch, somit gilt die Aussage.
Satz 4.7.36. Jeder zerbrochene Kegel f ist 2-dimensional.
96
KAPITEL 4. DIE COLIN-DE-VERDIÈRE-ZAHL
K3
K2
K1
N(supp(x))
V \ (supp(x) ∪ N(supp(x))
(a)
K3
K2
K1
N(supp(x))
V \ (supp(x) ∪ N(supp(x))
n4
(b)
K3
n1
K2
n2
K1
n3
K1
K2
K3
n1
n2
n3
n4
v
v
(c)
(d)
Abbildung 4.30: Nach Kontraktion der Komponenten K1 , K2 und K3 auf die gleichnamigen Knoten hat der Graph G die folgende Gestalt (a). Es wurde angenommen,
das die Aussage des Satzes 4.7.35 nicht gilt. Dann gibt es noch eine weiteren Menge V \ (supp(x) ∪ N(supp(x)), die nicht zu den Ki adjazent ist. Um die Bedingung,
dass der Graph 4-zusammenhängend ist zu erfüllen, muss diese Menge durch mindestens
vier Kanten mit N(supp(x)) verbunden sein. Man erhält den Graphen aus Abbildung (b).
In der Abbildung (c) wurde die Menge N(supp(x)) auf vier Knoten n1 , n2 , n3 , n4 sowie
V \ (supp(x) ∪ N(supp(x)) auf den Knoten v kontrahiert. In der Abbildung (d) erkennt man,
dass dieser Graph einen Graph aus der Petersen Familie als Minor enthält, siehe Abbildung
4.20d.
97
KAPITEL 4. DIE COLIN-DE-VERDIÈRE-ZAHL
Beweis. Es sei x ∈ f und K1 , K2 und K3 die Komponenten wie in Satz 4.7.35. Für v ∈ f
folgt: supp(v) = supp(x), da x und v in der gleichen Äquivalenzklasse liegen. Dann gilt
MKi vKi = 0 und MKi xKi = 0 für i = 1, 2, 3, siehe dazu den Beweis von Theorem 4.5.6.
Weiterhin gilt xK1 > 0, xK2 > 0 und xK3 < 0. Nach dem Perron-Frobenius-Theorem 2.1.19
folgt dann: vKi = λi xKi mit λi > 0. Angenommen dies würde nicht gelten. Dann definiere d
so, dass d > maxi |aii | gilt. Schließlich wäre (MKi − d · Id)xKi = −d · xKi und xKi wäre ein Eigenvektor mit einem negativen Eigenwert −d und ebenso vKi . Nach dem Perron-FrobeniusTheorem 2.1.19 muss aber xKi der einzige Eigenvektor zu einem negativen Eigenwert sein.
Denn MKi − d · Id hat nur Einträge, die kleiner als 0 sind. Somit muss vKi ein Vielfaches
von xKi sein.
Weiter gibt es nach dem Perron-Frobenius-Theorem 2.1.19 einen positiven Vektor z zu dem
negativen Eigenwert der Matrix M. Somit folgt dann hz, vi = hz, xi = 0, da die Eigenvektoren einer symmetrischen Matrix orthogonal zueinander sind. Sofern für alle Vektoren
y ∈ R|V| die folgenden Bedingungen erfüllt sind
• hz, yi = 0,
• supp+ (x) = supp+ (y) und supp− (x) = supp− (y),
• yKi = λi xKi , λi > 0,
folgt die Gleichung hy, Myi = 0. Nach Satz 2.1.23 folgt dann y ∈ ker(M) und y ∈ f sowie
die Umkehrung. Es seien nun w, x, y ∈ f gegeben. Sind nun w, x, y linear abhängig dann ist
f 2-dimensional. Zum einen ergibt sich:
 




 xK1 
λ1 xK1 
γ1 xK1 
 x 
λ x 
γ x 
 K2 
 2 K2 
 2 K2 
 xK3 
λ3 xK3 
γ3 xK3 
x =  0  ,
y =  0  ,
w =  0  .
 




 .. 
 .. 
 .. 
 . 
 . 
 . 
 




0
0
0
Aus der Gleichung hy, zi = 0 folgt:
λ1 =
−λ2 hxK2 , zK2 i − λ3 hxK3 , zK3 i
.
hxK1 , zK1 i
Der Bruch ist wohldefiniert, da hxK1 , zK1 i , 0. Dies sieht man, weil z ein positiver Vektor
ist und xK1 gerade eine Komponente des Trägers von x ist. Weiter folgt aus Gleichung
hy, zi = 0:
−γ2 hxK2 , zK2 i − γ3 hxK3 , zK3 i
.
γ1 =
hxK1 , zK1 i
Zu zeigen ist nun, dass
α1 x + α2 y + α3 w = 0
eine nicht-triviale Lösung besitzt. Es gibt also α1 , α2 , α3 , so dass
 




 xK1 
λ1 xK1 
γ1 xK1 
 xK2 
λ2 xK2 
γ2 xK2 
 




 xK3 
λ3 xK3 
γ3 xK3 





α1  0  + α2  0  + α3  0  = 0
 . 
 . 
 . 
 . 
 . 
 . 
 . 
 . 
 . 
0
0
0
gilt und nicht alle α j = 0 sind. Aus der ersten Zeile folgt dann:
α1 + α2
−λ2 hxK2 , zK2 i − λ3 hxK3 , zK3 i hxK1 , zK1 i
+ α3
−γ2 hxK2 , zK2 i − γ3 hxK3 , zK3 i !
hxK1 , zK1 i
xK1 = 0.
98
KAPITEL 4. DIE COLIN-DE-VERDIÈRE-ZAHL
Durch Multiplikation von −hxK1 , zK1 i mit der Gleichung folgt dann
 
α1 
 
A α2  xK1 = 0
 
α3
mit:
A ≔ −hxK1 , zK1 i λ2 hxK2 , zK2 i + λ3 hxK3 , zK3 i γ2 hxK2 , zK2 i + γ3 hxK3 , zK3 i
Durch Multiplikation von −hxK2 , zK2 i mit der zweiten Zeile folgt dann
 
α1 
 
B α2  xK1 = 0
 
α3
mit:
B ≔ −hxK2 , zK2 i −λ2 hxK2 , zK2 i
−γ2 hxK2 , zK2 i .
Durch Multiplikation von −hxK3 , zK3 i mit der dritten Zeile folgt dann
 
α1 
 
C α2  xK1 = 0
 
α3
mit:
C ≔ −hxK3 , zK3 i −λ3 hxK3 , zK3 i −γ3 hxK3 , zK3 i .
Um zu zeigen, dass es eine nicht-triviale Lösung von
   
 A α1 
 B · α2  = 0
   
α3
C
 
 A
 
gibt, genügt es, die Determinante von  B zu bestimmen. Schließlich folgt nach Berech 
C
nung der Determinante
 
 A
 
det  B = 0.
 
C
Somit ist der Kern mindestens eindimensional und der Rang höchsten zweidimensional. Da
die λi sowie die γi paarweise verschieden sein können folgt, dass der Rang zweidimensional
ist und damit auch f .
Weiter zum Beweis von Theorem 4.7.7. Wähle eine Menge von hinreichend endlich
vielen Einheitsvektoren aus jedem Kegel P in einer zentralsymmetrischen Gestalt. Dies ist
möglich, weil aus jedem Einheitsvektor x im Kern der Matrix M auch folgt, dass −x im
Kern liegt. Weiter sei P die konvexe Hülle dieser Vektoren. Dann ist P ein 5-dimensionales
zentralsymmetrisches konvexes Polytop, so dass jede Seitenfläche von P in einem Kegel
von P enthalten ist. Die Vektoren lassen sich so dicht wählen, dass jede Seitenfläche von P
höchstens eine Kante, die Teil eines 2-dimensionales Kegels von P ist, beinhaltet.
Definition 4.7.37. (zerbrochene Kante).
Eine Kante von P heißt zerbrochen, falls sie in einem zerbrochenen Kegel in P enthalten
ist.
99
KAPITEL 4. DIE COLIN-DE-VERDIÈRE-ZAHL
Man definiere nun eine Einbettung φ des 1-Skelett (P)1 von P in den R3 . Dazu wird
die verlinkungsfreie Einbettung Ω des Graphen G benutzt. Sei zunächst x eine Ecke von P
und v ∈ supp+ (x) eine Ecke des Graphen G. Nun soll φ(x) in der Nähe der Einbettung von
v also Ω(v) abgebildet werden. Weiter soll nun die Einbettung der Kanten geklärt werden.
Jede unzerbrochene Kante e = xy von P wird auf eine Kurve abgebildet, die φ(x) und φ(y)
verbindet. Dabei soll die Kurve in der Nähe der verlinkungsfreien Einbettung der Ecken
aus G| supp+ (z) mit z ∈ e abgebildet werden und zwar so, dass die Abbildung φ injektiv ist.
Sei nun e eine zerbrochene Kante von P. Sei x ∈ e und sei K1 , K2 und K3 wie in Satz 4.7.35
und sei T ≔ N(supp(x)).
Lemma 4.7.38. Es gibt eine Kurve C in R3 \G, die die Komponente K1 und K2 so verbindet,
dass es kein Paar an disjunkten verlinkten Kreise A in G|(K1 ∪K2 ∪T )∪C und B in G|(K3 ∪T )
gibt.
Beweis. Es sei H der flach eingebettete Graph von G nach Kontraktion der Ki zu den
Punkten vi . Es reicht zu zeigen, dass es eine Kurve C gibt, die v1 und v2 verbindet, so dass
H ∪ C verlinkungsfrei einbettbar ist. Denn sei C mit H ∪ C verlinkungsfrei einbettbar, dann
lassen sich die vi langsam zu Ki dekontrahieren und C mit zwei beliebigen Punkten in K1
und K2 verbinden. Dann betrachte einen Kreis A in G|(K1 ∪ K2 ∪ T ) ∪C und B in G|(K3 ∪ T )
disjunkt von A. Nach Kontraktion erhält man disjunkte Zyklen A′ und B′ in H ∪C. Da H ∪C
verlinkungsfrei einbettbar ist, sind A′ und B′ nicht verlinkt und folglich auch A und B nicht.
Siehe hierzu Abbildung 4.31.
v1
K1
C
C
T
T
v2
K2
(a)
(b)
Abbildung 4.31: Zunächst betrachtet man einen Kreis in G|(K1 ∪ K2 ∪ T ) ∪C, in Abbildung
(a) rot dargestellt. Nach Kontraktion von K1 und K2 erhält man einen Zyklus, ebenfalls rot
dargestellt in Abbildung (b).
Weiterhin ist H|T ein hamiltonischer Kreis oder ein Teil davon. Im Folgenden soll durch
einen Widerspruchsbeweis gezeigt werden, dass H|T ein hamiltonischer Kreis oder ein
Teil davon ist. Sei nun angenommen H|T ist weder ein hamiltonischer Kreis noch ein Teil
davon. Dann können für H|T folgende Fälle eintreten:
• H|T enthält einen Kreis C sowie ein Knoten v ∈ T und v < C oder
• H|T besteht aus einem Wald in der mindestens eine Komponente K kein Pfad ist.
100
KAPITEL 4. DIE COLIN-DE-VERDIÈRE-ZAHL
Im ersten Fall lassen sich die Kanten des Kreises C kontrahieren, so dass nur noch ein Dreieck übrig bleibt. Die restlichen Knoten bis auf v werden entfernt. Der entstandene Minor
ist ein Dreieck mit einer isolierten Ecke. Im zweiten Fall lassen sich die Zusammenhangskomponenten ausser K entfernen. Die Komponente K enthält mindestens eine Ecke vom
Grad 3, da K kein Pfad ist. Nach Kontraktion von K erhält man schließlich einen K1,3 . Allerdings enthält in beiden Fällen der Graph H einen Minor der ein Mitglied der Petersen
Familie ist. Dies ergibt einen Widerspruch zum Satz 4.7.6, da H verlinkungsfrei einbettbar
ist, siehe dazu Abbildung 4.32. Nach Kontraktion der Komponenten Ki zu den Ecken vi
sind die Ecken vi mit allen Ecken aus T adjazent. Somit ist H isomorph zum vollständigen
bipartiten Graphen K3,|T | mit einigen Kanten in T , die einen hamiltonischen Kreis in T oder
einen Teil davon formen. Da H flach einbettbar ist, gibt es für alle Kanten e = {t1 , t2 } von
H|T eine offene Scheibe, die mit den Rand des Dreiecks t1 t2 v3 disjunkt zu H ist. Böhmes
Lemma [5] besagt, dass falls es solche offenen Scheiben gibt, lassen sich ebenfalls offene Scheiben finden, die alle paarweise disjunkt sind. Da die Vereinigung von H|({v3 } ∪ T )
mit den offenen Scheibe kontrahierbar ist, lässt sich eine Kurve C finden, die v1 und v2
verbindet und keine Scheibe schneidet. Diese Kurve hat die geforderten Bedingungen. v3
v2
v3
v1
(a)
v2
v1
(b)
Abbildung 4.32: Wäre in H|T ein Minor mit 4 Knoten enthalten, der einen K1,4 , siehe
Abbildung (a), oder ein Dreieck mit einem isolierten Punkt, siehe Abbildung (b), enthielte,
so entsprächen die Graphen zwei Mitglieder der Petersen Familie, siehe Abbildung 4.20b
und 4.20c.
Somit lässt sich für alle zerbrochenen Kanten eine Einbettung φ in der Nähe von G|(K1 ∪
K2 ) ∪ C finden, so dass diese injektiv ist. Nach jeder zerbrochenen Kante ist die Einbettung
φ fertig.
Nach Satz 4.7.28 gibt es für eine Einbettung zwei antipodale Seitenflächen F und F ′ der
Dimension 2, so dass die Bilder ihrer Ränder verlinkt sind. Da P ein zentralsymmetrisches
Polytop ist, gibt es eine Facette D von P, so dass F ≤ D und F ′ ≤ −D. Sei y ∈ D \ ∂D, dann
folgt das die Bilder der Einbettung φ unter ∂F und ∂F ′ jeweils in der Nähe der verlinkungsfreien Einbettung Ω unter supp+ (y) und supp− (y) sind. Dies folgt aus supp+ (x) ⊆ supp+ (y)
und supp− (x) ⊆ supp− (y) und soll im folgenden Lemma bewiesen werden.
Lemma 4.7.39. Seien D, F Seitenflächen eines Polytops P für die F ≤ D gilt. Dann folgt
für alle y ∈ D \ ∂D und x ∈ F̄:
supp+ (x) ⊆ supp+ (y)
und
supp− (x) ⊆ supp− (y).
Beweis. Sei y ∈ D \ ∂D und x ∈ F̄. Dann folgt für alle z ∈ D \ ∂D, dass y ∼ z gilt.
Insbesondere gilt für alle λ ∈ [0, 1) auch y ∼ λx+(1−λ)y, da die Gerade λx+(1−λ)y für λ ∈
[0, 1) im relativen Inneren der Seitenfläche D liegt und D in einem Kegel aus P enthalten
KAPITEL 4. DIE COLIN-DE-VERDIÈRE-ZAHL
101
ist. Es soll nun gefolgert werden, dass supp+ (x) ⊆ supp+ (y) und supp− (x) ⊆ supp− (y)
gilt. Angenommen die Aussage supp+ (x) ⊆ supp+ (y) wäre falsch. Dann gibt es mindestens
einen Index i ∈ supp+ (x) aber i < supp+ (y). Nach Voraussetzung ist y ∼ λx + (1 − λ)y für
λ ∈ [0, 1) und somit auch yi ∼ λxi + (1 − λ)yi für λ ∈ [0, 1). Da i < supp+ (y) gibt es zwei
Fälle zu unterscheiden: 1. i ∈ supp− (y) und 2. i ∈ supp0 (y).
Angenommen der erste Fall tritt ein. Dann ist yi < 0 und es müsste 0 > λxi + (1 − λ)yi für
i
alle λ ∈ [0, 1) gelten. Dann sei λ ≔ x−y
. Dann ist λ in den geforderten Intervall [0, 1), da
i −yi
−yi > 0. Schließlich folgt
!
−yi
−yi
λxi + (1 − λ)yi =
yi
xi + 1 −
xi − yi
xi − yi
!
−yi · xi
xi − yi + yi
yi
+
=
xi − yi
xi − yi
−yi · xi
xi · yi
=
+
xi − yi
xi − yi
= 0.
Dies ergibt einen Widerspruch, da 0 > λxi + (1 − λ)yi für alle λ ∈ [0, 1) gelten soll.
Angenommen der zweite Fall tritt ein. Dann ist yi = 0 und es müsste 0 = λxi + (1 − λ)yi für
alle λ ∈ [0, 1) gelten. Sei nun λ ∈ (0, 1). Dann folgt
λ · xi + (1 − λ)yi = λ · xi
> 0.
Dies ergibt einen Widerspruch, da 0 > λxi + (1 − λ)yi für alle λ ∈ [0, 1) gelten soll.
Somit folgt supp+ (x) ⊆ supp+ (y). Der Fall supp− (x) ⊆ supp− (y) folgt analog. Daraus folgt
schließlich die Behauptung.
Somit ist das Bild der Einbettung φ auf ∂F in der Nähe der Einbettung Ω auf supp+ (y)
und das Bild der Einbettung φ auf ∂F ′ ist in der Nähe der Einbettung Ω auf supp− (y)
beziehungsweise auf supp− (y) enthalten.
Im Folgenden soll gezeigt werden, dass ∂F oder ∂F ′ eine zerbrochene Kante beinhalten
müssen.
Lemma 4.7.40. Genau ein Rand einer Seitenfläche eines antipodalen Seitenflächenpaares
F, F ′ muss eine zerbrochene Kante enthalten.
Beweis. Falls ∂F und ∂F ′ keine zerbrochene Kante enthalten, folgt, dass G zwei disjunkte
verlinkte Kreise hat. Ein Widerspruch, denn die Ecken von x, y ∈ ∂F einer unzerbrochenen Kante e = xy würden unter der Einbettung φ in der Nähe der Bilder von supp+ (x)
und supp− (y) unter der Einbettung Ω eingebettet sein. Für z ∈ e ist G| supp+ (z) zusammenhängend und somit gibt es einen Weg von φ(x) nach φ(y) in der Einbettung von G, die
in der Nähe von Ω liegt und somit verlinkbar ist. Somit kann Ω nicht eine verlinkungsfreie
Einbettung sein. Dies ergibt einen Widerspruch und somit muss es mindestens eine zerbrochene Kante geben. Also nehme an, dass ∂F eine zerbrochene Kante enthält. Dann ist es
die einzige zerbrochene Kante in ∂F, da nach Konstruktion ∂D höchstens eine Kante von
P beinhaltet, die Teil eines 2-dimensionalen Kegel f in P ist. Also ist f ein zerbrochener
Kegel. Es wird nun gezeigt, dass ∂F ′ keine zerbrochene Kante enthält, sofern ∂F bereits
eine zerbrochene Kante beinhaltet. Angenommen ∂F ′ enthält eine zerbrochene Kante e′ .
Dann ist nach Konstruktion e′ Teil eines zerbrochenen Kegels f ′ in P. Da P zentralsymmetrisch ist, folgt − f = f ′ . Aber für x ∈ f ist G| supp− (x) zusammenhängend. Dann ist
−x ∈ f ′ und G| supp+ (x) müsste unzusammenhängend sein. Also enthält ∂F ′ keine zerbrochene Kante.
KAPITEL 4. DIE COLIN-DE-VERDIÈRE-ZAHL
102
Nun sei x ∈ f und betrachte K1 , K2 , K3 und T wie in Satz 4.7.38. Aus Satz 4.7.35 folgt
dann supp+ (x) = K1 ∪ K2 und supp− (x) = K3 . Sei nun wieder y ∈ D \ ∂D. Nach Lemma
4.7.39 ergibt sich K1 ∪ K2 ⊆ supp+ (y) und K3 ⊆ supp− (y). Aus einer weiteren Überlegung
folgt ebenfalls supp+ (y) ⊆ K1 ∪ K2 ∪ T und supp− (y) ⊆ K3 ∪ T . Denn nach Satz 4.7.35 folgt
T = V \ supp(x) und somit supp+ (y) ⊆ K1 ∪ K2 ∪ T und supp− (y) ⊆ K3 ∪ T .
Das Bild von ∂F unter der Einbettung φ ist in der Nähe von G|(K1 ∪ K2 ∪ T ) ∪ C unter
Ω, denn es gilt supp+ (y) ⊆ K1 ∪ K2 ∪ T und supp− (y) ⊆ K3 ∪ T . Weiter ist ∂F im Bild von φ
unter supp+ (y) also in der Nähe von G|(K1 ∪ K2 ∪ T ) ∪ C und ∂F ′ ist im Bild von supp− (y)
unter φ also in der Nähe von G|(K3 ∪T ). Dies ergibt einen Widerspruch zum Lemma 4.7.38,
da es keine verlinkten Kreise geben darf.
Kapitel 5
Vom Permutaeder zur
Verdière-Matrix
5.1 Grundlegendes
L. Lovász gab in den Publikationen [23] und [20] einen Weg an, wie man aus verschiedene Klassen von Graphen mit gegebener Verdière-Matrix eine Einbettung gewinnt. Dabei
werden Pfade nach R, ausserplanare Graphen nach R2 und planare Graphen nach R3 eingebettet. Die Einbettung garantiert, dass sich die Kanten nur in inzidenten Knoten berühren.
Bei der Klasse der planaren Graphen wird die Einbettung so realisiert, dass die Knoten auf
die Einheitssphäre S 2 abgebildet werden und adjazenten Knoten durch Geodäten verbunden sind. Des Weiteren gab er noch eine Möglichkeit an, wie man aus einem 3-Polytop
eine Verdière-Matrix konstruiert. Diese Verdière-Matrix hat einen maximalen Corank für
den Graphen, der durch das 1-Skelett des Polytops hervorgegangen ist. I. Izmestiev verallgemeinerte in [15] dieses Verfahren. Nach diesem Verfahren ist es möglich eine Verdière-Matrix aus einem n-dimensionalen Polytop zu bestimmen, welche dann zu dem Graphen des 1-Skelett assoziiert ist. Diese Matrix ist dann eine Verdière-Matrix mit einem
Corank von n. Allerdings wird nicht garantiert, dass der Corank n der maximale unter allen möglichen Verdière Matrizen ist. Im folgenden Kapitel wird dieses Verfahren für einen
bestimmte Klasse von Polytopen, die Permutaeder, untersucht.
5.2 Permutaeder
Definition 5.2.1. (affine Hülle).
Für eine endliche Menge von Vektoren v1 , v2 , . . . , vm ∈ Rn ist
aff(v1 , v2 , . . . , vm ) ≔
m
nX
i=1
λi vi | λi ∈ R,
m
X
i=1
λi = 1
o
die affine Hülle erzeugt von den vi .
Definition 5.2.2. (Permutaeder Pn ).
Das Permutaeder Pn ist die konvexe Hülle aller Punkte, die durch Permutationen σ ∈ Σn
auf der Menge [n] ≔ {1, 2, . . . , n} entsteht:
Pn ≔ conv{(σ(1), σ(2), . . . , σ(n))T ∈ Rn | σ ∈ Σn }.
Hierbei bezeichnet Σn die Menge aller Permutationen auf [n].
KAPITEL 5. VOM PERMUTAEDER ZUR VERDIÈRE-MATRIX
(a) P2
104
(b) P3
(c) P4
Abbildung 5.1: Der Pn mit den Fällen n =2 (a), 3 (b) und 4 (c).
Beispiel: Für n = 2 gibt es nur zwei Permutationen der Menge [2] = {1, 2} nämlich (1, 2)
und (2, 1). Somit ist
P2 = conv{(1, 2)T , (2, 1)T }.
Der P2 besteht somit nur aus einer Strecke, siehe dazu Abbildung 5.1a. Für den Fall n = 3
besteht das Permutaeder P3 aus der konvexe Hülle, die von sechs Ecken gebildet wird:
P3 = conv{(1, 2, 3)T , (1, 3, 2)T , (2, 1, 3)T , (2, 3, 1)T , (3, 1, 2)T , (3, 2, 1)T }.
Der P3 ist somit ein reguläres Sechseck, siehe dazu Abbildung 5.1b. Und für den Fall n = 4
ist der P4 ein Oktaederstumpf mit 24 Ecken, siehe dazu Abbildung 5.1c. Allgemein lässt
sich sagen, dass das Permutaeder Pn genau n! Ecken besitzt, dies ist genau die Anzahl aller
möglichen Permutationen der Zahlen 1, 2, . . . , n.
Lemma 5.2.3. (Farkas Lemma).
Für jede Matrix B ∈ Rn×r und b ∈ Rn gilt entweder:
• b ∈ cone(B) oder
• es existiert ein a ∈ Rn mit aT B ≤ 0 und aT b > 0.
Beweis. Der Beweis wird in [34] erbracht.
Satz 5.2.4. Der Pn befindet sich in der Hyperebene:
n
X
i=1
xi =
n(n + 1)
.
2
KAPITEL 5. VOM PERMUTAEDER ZUR VERDIÈRE-MATRIX
105
Beweis. Sei A ∈ Rn×n! mit

σ1 (1) σ2 (1) · · ·
σ (2) σ (2) · · ·
2
 1
A ≔  .
..
..
.
 .
.
.

σ1 (n) σ2 (n) · · ·

σn! (1)

σn! (2)

..  ,
. 
σn! (n)
mit σi , σ j ∈ Σn und σi , σ j für alle verschiedenen i, j ∈ {1, 2, . . . , n}. Dann ist A die Matrix,
deren Spaltenvektoren aus allen Punkten des Permutaeders besteht. Sei x ∈ Pn = conv(A),
P
dann existiert ein λ ∈ Rn! mit x = Aλ und n!
i=1 λi = 1. Es bleibt zu zeigen, dass
(1, 1, . . . , 1)Aλ =
gilt, was äquivalent zu
Pn
i=1
xi =
n(n+1)
2
n(n + 1)
2
ist. Dann folgt:
 n

n
n
X
X
X


(1, 1, . . . , 1)Aλ =  σ1 (i),
σ2 (i), · · · ,
σn! (i) λ
i=1
i=1
i=1

 n
n
n 
X
X X


i, · · · ,
i λ
=  i,
i=1
i=1
i=1
!
n(n + 1) n(n + 1)
n(n + 1)
=
λ
,
,··· ,
2
2
2
n!
X
n(n + 1)
=
λi
2
i=1
n!
=
n(n + 1) X
λi
2
i=1
|{z}
1
n(n + 1)
=
2
Bemerkung: Die Minkowski-Weyl-Dualität [34] besagt, dass sich jedes Polyeder P als
Minkowski-Summe von einer konvexen Menge conv(A) als auch eines endlich erzeugten
Kegels cone(B) schreiben lässt also P = conv(A) + cone(B) und das sich jedes Polyeder als
die Schnittmenge von Halbräumen darstellen lässt.
Satz 5.2.5. Es sei v ∈ Pn mit vT = (σ(1), σ(2), . . . , σ(n)) für ein σ ∈ Σn . Dann ist v eine
Ecke von Pn .
Beweis. Es genügt zu zeigen, dass es eine Hyperebene cT x = d gibt, so dass cT v = d gilt
und cT w < d für alle wT ∈ {(σ(1), σ(2), . . . , σ(n)) | σ ∈ Σn } mit w , v. Dann definiere:
Weiter definiere:

 



(n + 1) σ(1)
(n + 1)
(n + 1) σ(2)
(n + 1)
1
 1
 

c ≔ v −  .  =  .  −  .  .
2  ..   ..  2  .. 

 



σ(n)
(n + 1)
(n + 1)
T
d≔c v=
n
X
i=1
1
i2 − n(n + 1)2 .
4
KAPITEL 5. VOM PERMUTAEDER ZUR VERDIÈRE-MATRIX
106
Nach Definition gilt cT v = d. Bleibt noch cT w < d für alle wT ∈ {(σ(1), σ(2), . . . , σ(n)) | σ ∈
Σn } mit w , v zu zeigen. Sei nun wT = (τ(1), τ(2), . . . , τ(n)) mit τ ∈ Σn und τ , σ, dann
folgt
n
X
1
cT w =
σ(i) · τ(i) − n(n + 1)2 .
4
i=1
Pn 2 1
Mit d = i=1 i − 4 n(n + 1)2 bleibt cT w < d beziehungsweise
n
X
i2 >
i=1
n
X
i=1
σ(i) · τ(i)
zu zeigen. Der Beweis erfolgt mittels Induktion nach n.
Induktionsanfang: Es sei n = 2. Für n = 2 besteht das Permutaeder aus einer konvexen
P
Hülle, die von zwei Ecken (1, 2) und (2, 1) gebildet wird. Demnach folgt: 2i=1 i2 = 12 +22 =
P2
5 und i=1 σ(i)τ(i) = 1 · 2 + 2 · 1 = 4. Somit ist die Aussage für n = 2 wahr.
Induktionsvoraussetzung: Die Aussage sei für n ≥ 2 wahr.
Induktionsschritt: Es bleibt zu zeigen, dass unter der Induktionsvoraussetzung, die Aussage
auch für n + 1 wahr ist, also:
n+1
n+1
X
X
i2 >
σ(i) · τ(i).
i=1
i=1
Schließlich ergibt sich:
n+1
X
i2 =
i=1
n
X
i2 + (n + 1)2
i=1
>
n
X
i=1
≥
n+1
X
i=1
σ(i) · τ(i) + (n + 1)2
σ(i) · τ(i).
Die erste Ungleichung ergibt sich aus der Induktionsvoraussetzung. Somit ist v eine Ecke
von Pn .
Satz 5.2.6. Allgemein gilt dann:
) (
)
n
X
\(
X
n(n + 1)
|I|(|I| + 1)
∩ x ∈ Rn |
.
xi =
Pn =
x ∈ Rn |
xi ≥
2
2
i∈I
i=1
I⊂[n]
Bemerkung: Im Folgenden soll der Satz 5.2.6 bewiesen werden. Das Lemma 5.2.7 zeigt
die erste Inklusion während die verbleibende Inklusion durch das Lemma 5.2.15 vollendet
wird.
Lemma 5.2.7. Es gilt:
) (
)
n
\(
X
X
|I|(|I| + 1)
n(n + 1)
n
n
xi ≥
Pn ⊆
x∈R |
∩ x∈R |
.
xi =
2
2
i∈I
I⊂[n]
i=1
P
für alle I ⊂ [n] Facetten von
Beweis. Zunächst muss gezeigt werden, dass i∈I xi ≥ |I|(|I|+1)
2
Pn sind. Mit Pn = conv{(σ(1), σ(2), . . . , σ(n))T ∈ Rn | σ ∈ Σn } sei nun x ∈ Pn , dann lässt
sich x als Konvexkombination der Ecken schreiben:


σi (1)
n!
n!
σi (2)
X
X
x=
λi  .  , mit
λi = 1.
 .. 
i=1
i=1


σi (n)
KAPITEL 5. VOM PERMUTAEDER ZUR VERDIÈRE-MATRIX
107
Dann bleibt zu zeigen, dass für x und eine beliebige Teilmenge I ⊂ [n]
X
i∈I
xi ≥
|I|(|I| + 1)
2
gilt. Nachrechnen ergibt:
X
xi =
i∈I
n!
X
λj
n!
X
σ j (i)
i∈I
j=1
≥
X
λj
j=1
|{z}
|I|
X
i
i=1
=1
|I|(|I| + 1)
.
=
2
Somit folgt dann:
X
i∈I
xi ≥
|I|(|I| + 1)
.
2
Gleichheit folgt für alle x ∈ {(σ(1), σ(2), . . . , σ(n))T ∈ Rn | σ ∈ Σn } mit
xi ∈ [I]
für i ∈ I. Somit ergibt sich, dass alle x ∈ {(σ(1), σ(2), . . . , σ(n))T ∈ Rn | σ ∈ Σn } auf
mindestens einer Facetten liegen. Für ein gegebenes x ∈ {(σ(1), σ(2), . . . , σ(n))T ∈ Rn | σ ∈
Σn } lassen sich durch Ik = {i | xi ≤ k} mit 1 ≤ k ≤ n − 1 genau n − 1 Facetten konstruieren.
Die Ecke x liegt dann auf den Facetten:
X
i∈Ik
xi ≥
|Ik |(|Ik | + 1)
, mit 1 ≤ k ≤ n − 1.
2
Somit wurde zunächst
) (
)
n
X
\(
X
n(n + 1)
|I|(|I| + 1)
∩ x ∈ Rn |
xi =
Pn ⊆
x ∈ Rn |
xi ≥
2
2
i∈I
i=1
I⊂[n]
gezeigt. Es bleibt noch die andere Inklusion zu zeigen.
Definition 5.2.8. Es sei Σn ≔ {(σ(1), σ(2), . . . , σ(n))T ∈ Rn | σ ∈ Σn }.
Definition 5.2.9. (Abbildung τ).
Man definiere die Abbildung τ durch:
τ : [n − 1] × Σn −→ Σn .
Sei vT = (σ(1), . . . , σ(n)) und i = σ(k) sowie i + 1 = σ(l), dann ist
τi ◦ v = (σ(1), . . . , σ(k − 1), σ(l), σ(k + 1), . . . , σ(l − 1), σ(k), σ(l + 1), . . . , σ(n)).
Die Abbildung τi vertauscht die Positionen der Einträge eines Vektors mit dem Wert i und
i + 1.
KAPITEL 5. VOM PERMUTAEDER ZUR VERDIÈRE-MATRIX
108
Abbildung 5.2: Die rot markierten Ecken sind adjazent, da es eine Hyperebene gibt auf
denen die Ecken liegen und die restlichen Ecken liegen in dem unteren Halbraum.
Beispiel:
Sei vT = (2, 1, 5, 4, 3), dann ist τ4 ◦v = (2, 1, 4, 5, 3)T und τ2 ◦v = (3, 1, 5, 4, 2)T .
Definition 5.2.10. (Adjazenz zweier Ecken).
Es sei P ein Polytop und v, w ∈ P zwei Ecken. Die Ecken v, w sind zueinander adjazent,
wenn es eine Hyperebene nT x = d gibt, so dass nT v = nT w = d und nT u > d für alle Ecken
u ∈ P mit u , v, w gilt. Zur Veranschaulichung siehe Abbildung 5.2.
Lemma 5.2.11. (Adjazenz zweier Ecken im Permutaeder).
Es seien v, w ∈ Pn zwei Ecken im Permutaeder. Die Ecken v, w sind genau dann adjazent,
wenn ein i ∈ [n − 1] existiert, so dass τi ◦ v = w gilt.
Beweis. Seien zunächst zwei Ecken v, w gegeben und es gibt ein i ∈ [n − 1], so dass
τi ◦ v = w gilt. Im Folgenden soll nun eine Hyperebene N T x = D konstruiert werden, so
dass N T v = N T w = D und N T u > D für alle Ecken u , v, w gilt. Dazu definiere eine
Klasse nk ∈ Rn von Normalenvektoren für Hyperebenen mit 0 < k ≤ n − 1 und k , i. Dafür
betrachte



1, wenn vi ≤ k und wi ≤ k,
(nk )i ≔ 

0, sonst.
P
P
Weiter definiere dk ≔ nTk v. Schließlich sei N ≔ k nk und D = k dk . Es muss nun gezeigt
werden, dass N T x = D die gesuchte Hyperebene ist. Aus der Konstruktion folgt zunächst
N T v = N T w = D. Bleibt N T u > D für alle Ecken u , v, w zu zeigen. Aus dem Beweis
aus Satz 5.2.6 folgt nTk u ≥ dk um die Gleichheit aus N T u = D zu folgern, muss nTk u = dk
für alle k gelten. Zur Vereinfachung seien die Positionen an denen vk den Wert 1 hat durch
j1 , j2 , . . . , jk gegeben. Zum Beispiel folgt dann aus der Gleichung
nT2 u = (n2 ) j1 u j1 + (n2 ) j2 u j2 = u j1 + u j2 .
KAPITEL 5. VOM PERMUTAEDER ZUR VERDIÈRE-MATRIX
109
Schließlich ergibt sich folgendes Gleichungssystem:
u j1 = 1
u j1 + u j2 = 3
u j1 + u j2 + u j3 = 6
..
.
1
u j1 + u j2 + u j3 + . . . + u ji−1 = (i − 1)i
2
i+1
X
1
u jl = (i + 1)(i + 2)
2
l=1
..
.
n−2
X
u jl =
l=1
1
(n − 2)(n − 1).
2
Lösen des Gleichungssystem ergibt u j1 = 1, u j2 = 2, . . . u ji−1 = i − 1. An den Stellen ji , ji+1
muss u gleich i und i + 1 sein. Schließlich sind die Werte von u eindeutig, bis auf den
Stellen ji , ji+1 , bestimmt. Beide Fälle ergeben erneut die Ecke v oder w. Dies ergibt einen
Widerspruch. Folglich sind v und w adjazent.
Sei nun umgekehrt zwei adjazente Ecken v, w gegeben. Es soll gezeigt werden, dass es ein
i ∈ [n−1] gibt, so dass τi ◦v = w ergibt. Der Beweis erfolgt nun mittels Widerspruch. Sofern
v, w adjazente Ecken sind, gibt es eine Hyperebene nT x = d, so dass nT v = nT w = d und
nT u > d für alle Ecken u , v, w gilt. Es genügt sich dabei auf den Fall vT = (1, 2, 3, . . . , n)
P
zu beschränken. Denn sei vT = (σ(1), . . . , σ(n)), dann ist nT v = ni=1 ni σ(i) = d. Dann sei
ṽ = (1, 2, . . . , n) und wende σ auf n und w an also σ ◦ n = (nσ(1) , nσ(2) , . . . , nσ(n) ), dann folgt
P
P
(σ ◦ n)T ṽ = ni=1 nσ(i) i = ni=1 ni σ(i) = d und für w analog.
Seien nun v1 , v2 , . . . , vn−1 die Nachbarn von v, die sich durch τ ergeben. Also ist vk ≔
τk ◦ v. Nach Voraussetzung ist w , vk für alle k. Es soll nun gezeigt werden, dass die Ecke
w im aufgespannten Kegel
v + cone{v1 − v, v2 − v, . . . , vn−1 − v}
liegt und somit nach Farkas Lemma 5.2.3 die Ecke w nicht zu v adjazent sein kann. Zunächst
definiere
ṽk ≔ vk − v,
dann ist



1,
wenn i = k,




(ṽk )i ≔ 
−1,
wenn i = k + 1,




0,
sonst.
Sei vT = (1, 2, . . . , n) und w = (σ(1), σ(2), . . . , σ(n)) es sollen nun gezeigt werden, dass
w=v+
n−1
X
ri ṽi
i=1
für ri ≥ 0. Setze
ri = ri−1 + σ(i) − i
und r0 = 0. Eingesetzt folgt an der Position k:
(v)k +
n−1
X
ri (ṽi )k = k + rk−1 (ṽk−1 )k + rk (ṽk )k
i=1
= k + (−1) · (rk−1 ) + 1 · (rk−1 + σ(k) − k)
= σ(k).
KAPITEL 5. VOM PERMUTAEDER ZUR VERDIÈRE-MATRIX
110
Folglich ist w im Kegel v + cone{ṽ1 , ṽ2 , . . . , ṽn−1 } und nach Farkas Lemma 5.2.3 gibt es
keine Hyperebene auf der v und w liegt und die, die anderen Ecken trennt.
Lemma 5.2.12. Die Dimension des Permutaeders Pn beträgt n − 1.
Beweis. Es sei vT = (1, 2, . . . , n) eine Ecke in Pn . Dann definiere vk ≔ τk ◦ v − v für
1 ≤ k ≤ n − 1. Dann gilt:



1,
wenn i = k,




(vk )i ≔ 
−1, wenn i = k + 1,




0,
sonst.
Es wird gezeigt, dass die Matrix M, die aus den Spaltenvektoren vk besteht einen nulldimensionalen Kern hat. Aus M = (v1 , v2 , . . . , vn ) folgt:

 1
−1 1


−1




..
.
..
.
 
  x1  0
  
 
  x2  0

  
 
 ·  x3  = 0 .
  .   . 
  .   . 
1   .   . 
xn+1
0
−1
Schließlich folgt aus der ersten Gleichung x1 = 0 daraus folgt wiederum x2 = 0 und so
weiter. Folglich ist x = 0 und die Dimension des Kerns der Matrix M ist 0. Dementsprechend ist der Rang volldimensional also n − 1-dimensional. Somit beträgt die Dimension
des Permutaeders n − 1.
Lemma 5.2.13. Es sei F eine Facette des Pn . Weiter seien v1 , . . . , vk ∈ Pn alle Ecken auf
F, dann gibt es eine F bestimmende Hyperebene nT x = d, so dass (n)i ∈ {0, 1} gilt.
Beweis. Es sei Ik ≔ {i | (v1 )i ≤ k}. Es wird gezeigt, dass falls ein k < n existiert, so dass
(vi )Ik = {(vi ) j | j ∈ Ik } ⊂ [k] für alle i gilt, gibt es solch eine Hyperebene. Dann setze



1, wenn i ∈ Ik ,
(n)i ≔ 

0, sonst.
Weiter definiere d ≔ 12 |Ik |(|Ik | + 1). Dann ist nT x = d eine F definierende Hyperebene mit den gewünschten Eigenschaften. Angenommen es gibt nun kein k < n , so dass
(vi )Ik ∈ [k] für alle i gilt. Dann gibt es mindestens zwei Ecken u, w auf F, so dass [k] =
{(u)i1 , (u)i2 , . . . , (u)ik } , {(w) j1 , (w) j2 , . . . , (w) jk } für alle 0 < k ≤ n − 1 gilt. Da das 1Skelett eines konvexen Polytopes zusammenhängend ist, gibt es einen kürzesten Weg u =
v1 , v2 , . . . , vk = w von u nach w, wobei vi und vi+1 für alle 0 < i < k adjazent sind. Zur Vereinfachung nehme man, wie im Beweis von Lemma 5.2.11, uT = (1, 2, . . . , n) an. Es wird
gezeigt, dass der Weg aus mindestens n Knotenpunkten besteht und der Weg die folgende
Gestalt hat
u = v1 , v2 = τi1 ◦ v1 , v3 = τi2 ◦ τi1 ◦ v1 , . . . , w = vk = τik−1 ◦ τik−2 ◦ · · · ◦ τi1 ◦ v1 ,
wobei {i1 , i2 , . . . , ik−1 } = [n−1] gilt. Zunächst folgt nach Lemma 5.2.11, dass v j die folgende
Gestalt hat v j = τi j−1 ◦ τi j ◦ · · · ◦ τi1 ◦ v1 , da aufeinanderfolgende Ecken adjazent sein sollen.
Durch einen Widerspruchsbeweis soll nun gezeigt werden, dass der Weg aus mindestens n
Knotenpunkten besteht. Angenommen der Weg besteht aus weniger Ecken und es gilt
u = v1 , v2 = τi1 ◦ v1 , v3 = τi2 ◦ τi1 ◦ v1 , . . . , w = vk = τik−1 ◦ τik−2 ◦ · · · ◦ τi1 ◦ v1 ,
KAPITEL 5. VOM PERMUTAEDER ZUR VERDIÈRE-MATRIX
111
dann folgt {i1 , i2 , . . . , ik−1 } , [n − 1]. Somit gibt es ein j für das j < {i1 , i2 , . . . , ik−1 } aber
j ∈ [n − 1] gilt. Dann setze



1, wenn i ≤ j,
(n)i ≔ 

0, sonst.
Da auf dem Weg von u nach w kein τ j vorkommt, gilt {(vi )1 , (vi )2 , . . . , (vi ) j } = [ j] für
alle 0 < i ≤ k. Dies ergibt einen Widerspruch, da nT x = 12 j( j + 1) eine F bestimmende
Hyperebene ist, für die (n)i ∈ {0, 1} gilt. Daraus folgt, dass der Weg aus mindestens n Ecken
bestehen muss. Aus der gleichen Argumentation folgt ebenfalls, dass {i1 , i2 , . . . , ik−1 } =
[n − 1] gelten muss.
Man definiere nun e j durch:
e j ≔ τi j ◦ τi j−1 ◦ · · · ◦ τi1 ◦ u − τi j−1 ◦ τi j−2 ◦ · · · ◦ τi1 ◦ u,
wobei τi0 = id ist. Durch die Definition der e j folgt:
vk = u +
k
X
ei .
i=1
Im Folgenden soll nun gezeigt werden, dass die Dimension der affinen Hülle, die von den
e j aufgespannt werden, n − 1 ist. Daraus folgt, dass die Facette ebenfalls n − 1 dimensional
ist und dies ergibt einen Widerspruch, da nach Lemma 5.2.12 der Permutaeder Pn die Dimension n − 1 hat und somit die Facette n − 2 dimensional ist.
Der Beweis erfolgt mittels Induktion nach n.
Induktionsanfang: Es sei n = 2. Mit uT = (1, 2) ergibt sich wT = (2, 1) und somit
eT1 = (1, −1). Die affine Hülle, die von e1 aufgespannt wird, ist 1-dimensional. Somit
können u und w nicht in einer Facette liegen. Im Induktionsschritt wird ein Argument
verwendet, welches an dieser Stelle einmal erläutert wird. Falls der Weg aus genau n Eckpunkten besteht, konstruiere man eine Matrix M ∈ R2×1 deren Spaltenvektoren aus den e j ’s
bestehen. In diesem Fall nur aus eT1 = (1, −1). Weiterhin fügt man der Matrix M eine weitere Spalte bestehend aus dem ersten kanonischen Einheitsvektor (1, 0, . . . , 0) hinzu. Die
Matrix lautet dann:
!
1 1
M=
.
−1 0
Die Determinante der Matrix M ergibt dann: det(M) = 1. Somit ist der Rang der Matrix
M zweidimensional und insbesondere heißt dies, dass die Dimension der affinen Hülle, die
von den e j ’s aufgespannt wird, 1-dimensional sein muss.
Induktionsvoraussetzung: Die Aussage sei für n mit n ≥ 2 wahr.
Induktionsschritt: Es bleibt zu zeigen, dass unter der Induktionsvoraussetzung, die Aussage
auch für n + 1 wahr ist. Hierfür werden zunächst zwei Fälle unterschieden. Der erste Fall
beinhaltet den Fall, das der Weg aus genau n + 1 Eckpunkten besteht und der zweite Fall
schließt die Möglichkeit ein, dass der Weg aus mehr als n + 1 Eckpunkten besteht.
Man betrachte zunächst den ersten Fall, der Weg besteht aus n + 1 Eckpunkten. Man konstruiere eine Matrix M ∈ R(n+1)×(n) , deren Spaltenvektoren aus den e1 , e2 , . . . , en bestehen.
Zu der Matrix fügt man noch eine weitere Spalte mit dem Vektor (1, 0, . . . , 0)T . Der Weg
von u nach w besteht aus einer Kette von Abbildungen τ. Angenommen die Abbildung τn−1
wird vor τn benutzt. Weiter sei vl = τn ◦ vl−1 . Der Wert n + 1 an der n + 1. Stelle wird mit n
vertauscht. Somit ist (vl )n+1 = n und (vl−1 )n+1 = n + 1 und (el−1 )n+1 = −1. Da im Folgenden
die Abbildung τn nicht mehr benutzt wird, da der Weg aus n + 1 Eckpunkte besteht, enthält
die letzte Zeile der Matrix M nur eine −1. Schließlich berechne man die Determinante der
Matrix M. Dazu wende man den Laplaceschen Entwicklungssatz auf die letzte Zeile an,
falls τn−1 nach τn angewendet wird, gilt die gleiche Argumentation nur mit der vorletzten
Zeile. Dann ist:
X
det(M) =
(−1)n+1+ j(M)n+1, j det(Mn+1, j ),
j=1
KAPITEL 5. VOM PERMUTAEDER ZUR VERDIÈRE-MATRIX
112
wobei Mn+1, j die n × n-Untermatrix von M ist, die durch Streichen der n + 1-ten Zeile und
j-ten Spalte entsteht. Schließlich folgt dann:
det(M) = (−1)n+1+l−1 (−1) det(Mn+1,l−1 ).
Durch das Streichen der n + 1-ten Zeile und j-ten Spalte der Matrix M, ist die Matrix
Mn+1,l−1 eine mögliche Matrix aus den e j ’s für den Fall, dass die Dimension des Permutaeders n ist. Nach Induktionsvoraussetzung hat Mn+1,l−1 volldimensionalen Rang also ist
det(Mn+1,l−1 ) , 0. Somit ist auch det(M) , 0. Folglich hat auch M einen volldimensionalen Rang und daraus folgt, dass die Dimension der Facette n sein muss. Dies ergibt einen
Widerspruch.
Man betrachte nun den zweiten Fall, der Weg besteht aus m Eckpunkten mit m > n + 1. Da
nach Lemma 5.2.12 die Dimension des Permutaeders n beträgt, muss die Dimension der
Facette n − 1 sein. Folglich besitzt jede Ecke des 1-Skelett der Facette mindestens n − 1
Nachbarn. Es wird nun gezeigt, dass jede Ecke in F genau n − 1 Nachbarn besitzt. Angenommen die Ecke sei ohne Beschränkung der Allgemeinheit uT = (1, 2, . . . , n + 1) und u
besitzt n Nachbarn nämlich τ1 ◦ u, τ2 ◦ u, . . . , τn ◦ u. Dann definiere:
ωk ≔ τk ◦ u − u,
für 1 ≤ k ≤ n Dann ist



1,
wenn i = k,




(ωk )i ≔ 
−1,
wenn i = k + 1,




0,
sonst.
Im Beweis des Lemmas 5.2.12 wurde gezeigt, dass die Matrix M, die aus den Spaltenvektoren ωk besteht, einen nulldimensionalen Kern hat. Dementsprechend ist der Rang der
Matrix M volldimensional also n-dimensional. Somit kann F aber keine Facette sein, da
sie die Dimension n − 1 haben müsste. Daraus folgt, dass jede Ecke in F genau n − 1 Nachbarn besitzt. Das 1-Skelett der Facette F ist somit (n − 1)-regulär. Es sei nun G der Graph,
der sich durch das 1-Skelett der Facette F ergibt. Weiter sollen die Kanten des Graphen
nun gefärbt werden. Falls zwei Ecken v, w benachbart sind und durch die Abbildung τi in
einander übergehen also v = τi ◦ w gilt, färbe die Kante e = (v, w) mit i. Diese Färbung ist
eindeutig, da auch w = τi ◦ v gilt. Man erhält schließlich einen (n − 1)-regulären Graphen,
dessen Kanten mit n Farben gefärbt wurden. Nach Theorem 3.1.23 gibt es nun einen bunten
Weg der Länge n + 1. Somit gibt es keinen zweiten Fall, das der Weg auf der Facette aus m
Eckpunkten mit m > n + 1 gilt.
Lemma 5.2.14. Es sei J ⊂ N \ {0} eine Teilmenge. Falls
X
|J|(|J| + 1)
j=
2
j∈J
gilt, folgt J = {1, 2, . . . , |J|}.
Beweis. Der Beweis erfolgt durch Induktion nach |J|.
Induktionsanfang: Es sei |J| = 1. Für |J| = 1 ergibt sich: |J|(|J|+1)
= 1. Daraus folgt J = {1}.
2
Somit ist die Aussage für |J| = 1 wahr.
Induktionsvoraussetzung: Die Aussage sei für |J| = 1 ≥ 1 wahr.
Induktionsschritt: Es bleibt zu zeigen, dass unter der Induktionsvoraussetzung, die Aussage
auch für |J| = 1 + 1 wahr ist, also:
X
(|J| + 1) · (|J| + 2)
.
j=
2
j∈J
Es sei jmax ≔ max j∈J j. Es gibt nun drei Fälle zu unterscheiden:
KAPITEL 5. VOM PERMUTAEDER ZUR VERDIÈRE-MATRIX
113
• jmax < |J| + 1,
• jmax = |J| + 1,
• jmax > |J| + 1.
Falls jmax < |J| + 1 gilt, ergibt dies einen Widerspruch, da es noch |J| Zahlen in J geben
muss die kleiner als jmax sind.
Falls jmax = |J| + 1 gilt, folgt:
X
X
j
j = jmax +
j∈J
j∈J\ jmax
=
und daraus wiederum
X
(|J| + 1) · (|J| + 2)
2
j∈J\ jmax
j=
|J|(|J| + 1)
.
2
Anwendung des Induktionsschrittes ergibt die Behauptung.
Falls jmax > |J| + 1 gilt, folgt:
X
X
j
j = jmax +
j∈J
j∈J\ jmax
(|J| + 1) · (|J| + 2)
=
2
und daraus wiederum
X
j∈J\ jmax
j=
(|J| + 1) · (|J| + 2)
− jmax .
2
Eine kurze Rechnung soll nun
|J|(|J| + 1) (|J| + 1) · (|J| + 2)
>
− jmax
2
2
zeigen. Also
|J|(|J| + 1) (|J| + 1) · (|J| + 2)
>
− jmax
2
2
|J|(|J| + 1) (|J| + 1)|J|
>
+ |J| + 1 − jmax
2
2
jmax > |J| + 1.
Dies ergibt eine wahre Aussage. Selbst wenn J = {1, 2, . . . , |J|}, folgt
X
(|J| + 1) · (|J| + 2)
j>
− jmax
2
j∈J\ j
max
und dies ergibt einen Widerspruch. Für eine andere Wahl für J ,mit einer Mächtigkeit von
P
− jmax .
|J|, folgt ebenfalls j∈J\{ jmax } > (|J|+1)·(|J|+2)
2
Lemma 5.2.15. Es gilt:
) (
)
n
\(
X
X
|I|(|I| + 1)
n(n + 1)
n
n
Pn ⊇
x∈R |
xi ≥
∩ x∈R |
.
xi =
2
2
i∈I
I⊂[n]
i=1
Beweis. Es wurde im Beweis von Lemma 5.2.13 gezeigt, dass für alle Ecken ei auf einer
Facette F es eine F bestimmende Hyperebene nT x = d gibt, so dass (n)i ∈ {0, 1} gilt.
Im Beweis von Lemma 5.2.13 sowie im Lemma 5.2.14 wurde auch gezeigt, dass d =
1
2 | supp(v)| · (| supp(v)| + 1) sein muss.
KAPITEL 5. VOM PERMUTAEDER ZUR VERDIÈRE-MATRIX
114
Bemerkung: Es wurden die Lemmata 5.2.7 und 5.2.15 gezeigt. Somit ist der Satz 5.2.6
bewiesen. Im Folgenden soll noch gezeigt werden, dass keine der Hyperebenen redundant
ist.
Lemma 5.2.16. Keine der Hyperebenen aus
Pn =
\(
I⊂[n]
n
x∈R |
X
i∈I
) (
)
n
X
|I|(|I| + 1)
n(n + 1)
n
xi ≥
∩ x∈R |
xi =
2
2
i=1
ist redundant.
P
Beweis. Es sei eine Teilmenge I ⊂ [n] mit dem zugehörigen Halbraum i∈I xi ≥ |I|(|I|+1)
2
gegeben. Dann ist v mit vI = (1, 2, . . . , |I|) und v[n]\I = (|I| + 1, |I| + 2, . . . , n) eine Ecke des
Permutaeders Pn . Angenommen der zu I zugehörige Halbraum kann aus der H-Darstellung
entfernt werden. Es gilt
X
|I|(|I| + 1)
vi =
2
i∈I
und somit liegt v auf der zu I zugehörigen Hyperebene. Im Folgenden soll nun gezeigt
werden, dass sofern der zu I zugehörige Halbraum aus der H-Darstellung entfernt wird, die
Ecke v nur auf n −2 Facetten liegt. Somit kann v keine Ecke mehr sein und dies ergibt einen
Widerspruch. Aus der gegebenen Ecke v ergeben sich n − 1 Facetten aus den Mengen:
Ik ≔ {i | vi ≤ k},
für 1 ≤ k ≤ n − 1. Da der zu I zugehörige Halbraum entfernt wurde und I = I|I| gilt, gibt es
mindestens n − 2 Facetten auf denen v liegt. Es soll nun gezeigt werden, dass v nur auf den
zu Ik zugehörigen Hyperebene liegt. Sei nun angenommen das es eine Menge J existiert,
so dass J , Ik für alle k gilt und das v auf der zu J zugehörigen Hyperebene liegt. Dann
muss gelten:
X
|J|(|J| + 1)
.
vi =
2
i∈J
Nach Lemma 5.2.14 muss dann {(v) j | j ∈ J} = {1, 2, . . . , |J|} gelten. Dann folgt allerdings
wiederum J = I|J| und dies ergibt einen Widerspruch, da J , Ik für alle k angenommen
wurde.
Korollar 5.2.17. Der Pn besitzt genau 2n − 2 Facetten.
Beweis. Nach Satz 5.2.6 gilt:
Pn =
\(
I⊂[n]
x ∈ Rn |
X
i∈I
xi ≥
) (
)
n
X
|I|(|I| + 1)
n(n + 1)
∩ x ∈ Rn |
.
xi =
2
2
i=1
Somit lässt sich der Pn als Schnitt von Halbräumen darstellen. Die Halbräume werden
durch Hyperebenen begrenzt, die einen Normalenvektor von der Gestalt v ∈ {0, 1}n haben.
Auf diese Weise lassen sich 2n Normalenvektoren erzeugen. Die Anzahl der Facetten ergibt
sich dann, wenn man die Hyperebene mit v = (1, 1, . . . , 1) und den gesamten Raum mit
v = (0, 0, . . . , 0) abzieht. Somit ergeben sich 2n − 2 Facetten.
Satz 5.2.18. (Schwerpunkt des Pn ).
Der Schwerpunkt des Pn ist:
!
n+1
n+1
Sn =
.
,...,
2
2
KAPITEL 5. VOM PERMUTAEDER ZUR VERDIÈRE-MATRIX
115
Beweis. Die Zahlen 1, 2, . . . , n sollen auf n Koordinaten verteilt werden. Dafür gibt es
n! Kombination und dementsprechend n! Ecken. Wird für eine Ecke die erste Koordinate festgehalten also (i, σ(2), σ(3), . . . , σ̂(i), . . . , σ(n)) mit σ(k) , i, so gibt es genau (n − 1)!
Kombinationen für Ecken bei denen die erste Koordinate i lautet. Somit ergibt sich die j.
Schwerpunktkoordinate durch:
n!
(S n ) j =
1 X
vi
n! i=1
n
=
1 X
i · (n − 1)!
n! i=1
n
=
X
1
(n − 1)!
i
n!
i=1
n(n + 1)
1
(n − 1)!
n!
2
1 (n + 1)!
=
n!
2
n+1
.
=
2
=
n+1
Schließlich lautet der Schwerpunkt S n = ( n+1
2 , . . . , 2 ).
Satz 5.2.19. Es seien Fi , F j zwei Facetten von Pn mit zugehörigen Normalenvektoren
vi , v j ∈ {0, 1}n . Dann gelten die äquivalenten Bedingungen:
i. Die Facetten Fi und F j sind adjazent.
ii. Sei I = supp(vi ) und J = supp(v j ), dann gilt I ⊂ J oder J ⊂ I.
Beispiel: Es seien v = (1, 0, 0, 0, 1, 1, 1, 0) und w = (1, 0, 1, 0, 1, 1, 1, 1) die Normalenvektoren von den Facetten F und G. Dann ist I = supp(v) = {1, 5, 6, 7} und I = supp(v) =
{1, 3, 5, 6, 7, 8}. Schließlich gilt: I ⊂ J und somit sind die Facetten F und G benachbart.
Bemerkung: Anschaulich entspricht der Bedingung ii., das der Normalenvektor vi entweder durch das Entfernen oder Hinzufügen von 1’en aus v j gewonnen wird.
Beweis. Es soll zunächst die Implikation aus ii. folgt i. gezeigt werden. Es seien vi und v j
zwei Normalenvektoren die durch das Hinzufügen oder Entfernen von 1’en gewonnen wurden. Die Positionen der 1’en in den Normalenvektor vi geben Auskunft über die Position
der Koordinaten von den Ecken des Pn , die in der Hyperebene Fi liegen. Sei also I ⊂ [n]
und J ⊂ [n] zwei Teilmengen von [n] für die gelten: I ≔ supp(vi ) und J ≔ [n] \ I. Dann
gelten für die Ecken x ∈ {(σ(1), σ(2), . . . , σ(n)) ∈ Rn | σ ∈ S n }, die in der Hyperebene
Fi liegen: {(x)i | i ∈ I} = {1, 2, . . . , |I|}. Weiter seien I ′ , J ′ ∈ [n] mit: I ′ ≔ supp(v j ) und
J ′ ≔ [n] \ I. Da vi und v j durch das Hinzufügen oder das Entfernen von 1’en hervorgegangen ist, folgt: I ∩ I ′ = I˜ , ∅. Folglich gibt es x ∈ {(σ(1), σ(2), . . . , σ(n)) ∈ Rn | σ ∈ S n } mit
˜ = {1, 2, . . . , |I|}
˜ die sowohl in Fi als auch F j liegen und somit sind Fi und F j
{(x)i | i ∈ I}
adjazent.
Es soll nun die Implikation aus i. folgt ii. gezeigt werden. Sei nun umgekehrt Fi und F j
zwei adjazente Facetten mit zugehörigen Normalenvektoren vi und v j gegeben. Wieder seien I, I ′ ⊂ [n] zwei Teilmengen von [n] für die gelten: I ≔ supp(vi ) und I ′ ≔ supp(v j ).
Also bestimmen die Positionen der 1’en die Positionen der Koordinaten mit den Einträgen 1, 2, . . . , |I| beziehungsweise 1, 2, . . . , |I ′ |. Somit folgt für alle x ∈ Fi : {(x)i | i ∈ I} =
{1, 2, . . . , |I|} und für alle x′ ∈ F j : {(x′ )i | i ∈ I ′ } = {1, 2, . . . , |I ′ |}. Angenommen die Behauptung, dass I ⊂ I ′ oder I ′ ⊂ I gilt, wäre falsch. Dadurch kann es allerdings keine Ecke
KAPITEL 5. VOM PERMUTAEDER ZUR VERDIÈRE-MATRIX
116
y geben, die sowohl in der Facette Fi als auch F j enthalten ist, da die Zahlen 1, 2, . . . , |I|
beziehungsweise die Zahlen 1, 2, . . . , |I ′ | auf die Positionen I beziehungsweise I ′ verteilt
werden. Sofern nicht I ⊂ I ′ oder I ′ ⊂ I gilt, gibt es keine gemeinsamen Positionen für die
Koordinaten und somit auch kein y. Dies ergibt einen Widerspruch. Somit müssen Fi und
F j adjazent sein.
Definition 5.2.20. (Volumen des Pn ).
Das Volumen des Permutaeders Pn sei mit vol(Pn ) bezeichnet.
Satz 5.2.21. Es sei F eine Facette des Pn mit zugehörigen Normalenvektor v ∈ {0, 1}n .
Weiter seien I, J ⊂ [n] zwei Mengen mit: I ≔ supp(v) und J ≔ [n] \ I. Dann gilt für das
Volumen der Facette F:
vol(F) = vol(P|I| ) · vol(P|J| ).
Beweis. Das Volumen der Facette F berechnet sich durch:
Z
χF (x) dn x.
vol(F) =
Rn
Die Facette F lässt sich schreiben als: F = conv{x ∈ Rn | xI ∈ Σ|I| , x′J ∈ Σ|J| , x J = x′J +
(|I|, . . . , |I|)}.
Und damit folgt:
Z
vol(F) =
χF (x) dn x
Rn
Z
χP|I| ×P|J| (x) dn x
=
Rn
!
Z
Z
′
′′
|I| ′
χP|I| (x ) · χP|J| (x ) d x d|J| x′′
=
R|I|
R|J|
!
Z
χP|I| (x′ )
χP|J| (x′′ ) d|J| x′′ d|I| x′
R|I|
R|J|
Z
χP|J| (x′′ ) d|J| x′′
= vol(P|J|)
=
Z
R|J|
= vol(P|I| ) · vol(P|J|).
Korollar 5.2.22. Es seien F, F ′ zwei benachbarte Facetten des Pn mit zugehörigen Normalenvektoren v, v′ ∈ {0, 1}n . Weiter seien I, I ′ ⊂ [n] zwei Teilmengen von [n] mit: I ≔ supp(v)
und I ′ ≔ supp(v′ ). Weiter sei k ≔ |I|, beziehungsweise k′ ≔ |I ′ | und k > k′ . Dann gilt für
das Volumen Fi j des Schnitts aus den Facetten F und F ′ :
vol(Fi j ) = vol(Pk′ ) · vol(Pk−k′ ) · vol(Pn−k ).
Beweis. Der Beweis funktioniert analog wie der Beweis vom Satz 5.2.21.
Satz 5.2.23. (Volumen eines Kegels).
Es sei G ⊂ Rn−1 eine kompakte Menge und h ∈ R+ . Dann definiert:
Kh (G) ≔ {((1 − λ)x, λh) ∈ Rn | x ∈ G, 0 ≤ λ ≤ 1}
einen Kegel mit der Grundfläche G und der Höhe h, siehe dazu Abbildung 5.3. Und das
Volumen beträgt:
h
vol(Kh ) = vol(G).
n
117
KAPITEL 5. VOM PERMUTAEDER ZUR VERDIÈRE-MATRIX
h
Rn−1
G
Abbildung 5.3: Ein Kegel mit der Grundfläche G und der Höhe h.
Beweis. Das Volumen berechnet sich durch:
vol(Kh ) =
Zh
0
! !
t
vol 1 − G dt
h
= vol(G)
Zh
0
= vol(Kh ) =
t
1−
h
!n−1
h
vol(G).
n
Bemerkung: Im folgenden Verlauf soll das Volumen eines Kegels in einer affinen Hyperebene berechnet werden. Die Rechnung lassen sich dennoch so fortführen, wie die Abbildung 5.4 zeigt.
Satz 5.2.24. Es sei F eine Facette des Permutaeders Pn mit zugehörigen Normalenvektor
v ∈ {0, 1}n . Weiter seien I, J ⊂ [n] zwei Teilmengen von [n] mit: I ≔ supp(v) und J ≔ [n]\ I.
Weiter sei k ≔ |I|. Dann gilt für den Schwerpunkt der Facette F:



falls i ∈ I,
 21 (k + 1),
(S F )i = 

 1 (n + k + 1), falls i ∈ J.
2
Beweis. Es sei i ∈ [n] gegeben. Zunächst betrachte man den Fall, dass i ∈ I gilt. Die
Positionen der 1’en geben wieder Auskunft über die Positionen der Zahlen: 1, 2, . . . , k. Die
Facette F lässt sich demnach wieder schreiben als: F = conv{x ∈ Rn | xI ∈ Σ|I| , x′J ∈
Σ|J| , x J = x′J + (|I|, . . . , |I|)}. Somit gibt es insgesamt k!(n − k)! Ecken in F. Sei x ∈ F und
gilt an der Stelle (x)i = σ(1) mit σ ∈ Σk , dann gibt es für die übrigen Stellen (x)i′ mit
i′ ∈ I noch (k − 1)! Kombinationen und für die Stellen (x) j mit j ∈ J gibt es noch (n − k)!
KAPITEL 5. VOM PERMUTAEDER ZUR VERDIÈRE-MATRIX
(a)
118
(b)
(c)
Abbildung 5.4: In der Abbildung (a) ist ein Kegel in einer affinen Hyperebene zu sehen.
Zunächst wird die Hyperebene so gedreht und verschoben, dass eine Koordinate 0 wird,
wie in Abbildung (b) zu sehen ist. Im Anschluss wird der Kegel noch so verschoben, dass
die Spitze auf einer Achse liegt, siehe dazu Abbildung (c). Rotation und Translation sind
invariant unter der Volumenberechnung, so dass die Volumen der Kegel in der affinen Hyperebene vor und nach der euklidischen Bewegung übereinstimmen.
Kombinationen. Somit ergibt sich für den Schwerpunkt der Facette an der Position i:
(S F )i =
k
X
1
m · (k − 1)!(n − k)!
k!(n − k)! m=1
k
=
(k − 1)!(n − k)! X
m
k!(n − k)! m=1
1 k(k + 1)
·
k
2
k+1
.
=
2
=
Es sei nun j ∈ [n] gegeben. Sei nun der andere Fall j ∈ J gegeben. Weiter sei x ∈ F und es
gilt an der Stelle (x) j = k + τ(1) mit τ ∈ Σn−k , dann gibt es für die übrigen Stellen x j′ mit
j′ ∈ J noch (n − k − 1)! Kombinationen und für die Stellen (x)i mit i ∈ I gibt es noch k!
KAPITEL 5. VOM PERMUTAEDER ZUR VERDIÈRE-MATRIX
119
Kombinationen. Somit ergibt sich für den Schwerpunkt der Facette an der Position j:
(S F ) j =
=
n
X
1
m · k!(n − k − 1)!
k!(n − k)! m=k+1
n
k!(n − k − 1)! X
m
k!(n − k)! m=k+1
n(n + 1) k(k + 1)
1
·
−
=
n−k
2
2
!
2
2
1
n −k +n+k
=
·
n−k
2
!
(n − k)(n + k + 1)
1
·
=
n−k
2
n+k+1
.
=
2
!
Lemma 5.2.25. Es seien F eine Facetten des Permutaeders Pn mit zugehörigem Normalenvektoren v ∈ {0, 1}n . Weiter seien I, J ⊂ [n] zwei Teilmengen von [n] mit: I ≔ supp(v)
und J ≔ [n]\I. Weiter sei k ≔ |I|. Dann gilt für einen Normalenvektor w zu F der zusätzlich
P
noch in der Hyperebene ni=1 xi = 12 n(n + 1) liegen soll:



 12 (k − n), falls i ∈ I,
(w)i = 

 1 k,
falls i ∈ J.
2
Beweis. Der Normalenvektor w berechnet sich durch die Differenz des Schwerpunkt der
Facette mit dem Schwerpunkt des Pn . Somit ergibt sich für den Normalenvektoren w nach
Satz 5.2.24 und Satz 5.2.18:



 12 (k − n), falls i ∈ I,
(w)i = 

 1 k,
falls i ∈ J.
2
Es bleibt zu zeigen, dass w in der Hyperebene
Pn
i=1 wi = 0 gilt.
n
X
wi =
i=1
k
X
1
i=1
2
Pn
i=1
xi = 21 n(n + 1) enthalten ist und damit
(k − n) +
n
X
1
k
2
i=k+1
1
1
k(k − n) + (n − k)k
2
2
1
= (k2 − kn + kn − k2 )
2
= 0.
=
Somit liegt w in der Hyperebene. Weiter muss gezeigt werden, dass die Ecken auf der
Facette F auf der Hyperebene H mit dem zugehörigen Normalenvektor w liegen. Sei also
KAPITEL 5. VOM PERMUTAEDER ZUR VERDIÈRE-MATRIX
120
x ∈ F eine Ecke:
n
X
xi wi =
i=1
k
X
1
i=1
2
(k − n) · i +
n
X
1
k·i
2
i=k+1
1
1
k(k + 1)(k − n) + k(n(n + 1) − k(k + 1))
4
4
1 3
2
2
= (k − k n + k − kn + n2 k + kn − k3 − k2 )
4
1
= (n2 k − k2 n)
4
1
= (nk(n − k)).
4
=
Der Wert 14 (nk(n − k)) hängt nur von den Parametern n und k ab und ist somit unabhängig
von dem Wert der Ecke x und somit liegt F auf der Hyperebene.
Satz 5.2.26. Es sei F eine Facetten des Pn mit zugehörigen Normalenvektor v ∈ {0, 1}n .
Weiter sei I eine Teilmenge von [n] mit: I ≔ supp(v). Weiter sei k ≔ |I|. Dann gilt für den
Abstand h des Schwerpunktes der Facette F und den Schwerpunkt S n des Pn :
h=
1p
nk(n − k).
2
Beweis. Nach Lemma 5.2.25 ergibt sich für die Differenz des Schwerpunkt der Facette mit
dem Schwerpunkt des Pn :



 21 (k − n), falls i ∈ I,
(w)i = 

 1 k,
falls i ∈ J.
2
Wobei J ≔ [n] \ I ist. Damit berechnet sich der Abstand, da w orthogonal zu der Facette
steht, wie folgt:
h = kwk
v
u
t k
n
X
2
1 X
=
n−k +
k2
2 m=1
m=k+1
1p
(n − k)2 k + k2 (n − k)
=
2
1p
=
(n − k)((n − k)k + k2 )
2
1p
=
nk(n − k).
2
Satz 5.2.27. Das Volumen des Pn beträgt:
vol(Pn ) =
√
n · nn−2 .
Beweis. Der Beweis erfolgt mittels Induktion nach n.
Induktionsanfang: Es sei n = 2. Für n = 2 besteht das Permutaeder
aus einer
mit
√
√ Strecke
n−2
2.
Und
aus
n
·
n
ergibt
den Koordinaten: (1, 2) und (2, 1).
Die
Länge
ist
demnach
√
√
sich durch Einsetzen von n = 2: 2 · 22−2 = 2.
Induktionsvoraussetzung: Die Aussage sei für n ≥ 2 wahr.
Induktionsschritt: Es bleibt zu zeigen, dass unter der Induktionsvoraussetzung, die Aussage
auch für n + 1 wahr ist.
KAPITEL 5. VOM PERMUTAEDER ZUR VERDIÈRE-MATRIX
(a)
121
(b)
Abbildung 5.5: Das Pn wird in verschiedenen Kegel aufgeteilt. Dabei bilden die Facetten
die Grundfläche und die Höhe bildet den Abstand der Facette zu dem Schwerpunkt. Die
Summe über die Volumen der Kegel ist dann das Volumen des Pn .
Das Permutaeder Pn soll zunächst in Kegel geteilt werden. Dabei bilden die Facetten des
Pn die Grundfläche und die Höhe ergibt sich als Abstand der Facette zu dem Schwerpunkt
des Pn , siehe dazu Abbildung 5.5.
Es sei k = i. Dann gibt es genau
!
n
#F =
k
Facetten F mit zugehörigen Normalenvektor v ∈ {0, 1}n . So dass es I, J ⊂ [n] zwei Teilmengen von [n]
mit: I ≔ supp(v) und J ≔ [n] \ I und |I| = k. Denn auf die n Koordinaten
gibt es genau nk Möglichkeiten k 1’en zu verteilen. Für den zugehörigen Flächeninhalt gilt
dann nach Satz 5.2.21:
vol(F) = vol(Pk ) · vol(Pn−k ).
Damit folgt nach Induktionsvoraussetzung:
√
√
vol(F) = k · kk−2 n − k · (n − k)n−k−2 .
Die Höhe der Facette zu dem Schwerpunkt des Pn beträgt nach Satz 5.2.26:
h=
1p
nk(n − k).
2
Nach Satz 5.2.23 lautet das Volumen des Kegels mit der Höhe h und der Facette F als
Grundfläche:
h
vol(F).
vol(K) =
n−1
Man beachte dabei, dass das Pn in einer Hyperebene liegt und somit n − 1 dimensional ist.
Damit ergibt sich:
vol(K) =
√
√
p
1
nk(n − k) k · kk−2 n − k · (n − k)n−k−2 .
2(n − 1)
KAPITEL 5. VOM PERMUTAEDER ZUR VERDIÈRE-MATRIX
122
Insgesamt ergibt sich dann durch die Addition der Volumen aller Kegel:
√
√
!√
n−1
X
n nk(n − k) k · kk−2 n − k · (n − k)n−k−2
vol(Pn ) =
k
2(n − 1)
k=1
p
!
n−1
X
n nk2 (n − k)2 · kk−2 · (n − k)n−k−2
=
k
2(n − 1)
k=1
!
n−1
√ X
n k(n − k) · kk−2 · (n − k)n−k−2
= n
k
2(n − 1)
k=1
!
n
√ X n k(n − k) · kk−2 · (n − k)n−k−2
.
= n
k
2(n − 1)
k=1
Es bleibt also noch zu zeigen, dass
!
n
X
n k(n − k) · kk−2 · (n − k)n−k−2
= nn−2
k
2(n
−
1)
k=1
gilt. Dies folgt allerdings aus einer kombinatorischen Betrachtungsweise. Die Summe soll
die Anzahl der aufspannenden Bäume der Eckenanzahl n wiedergeben. Dazu wird ein alternativer Weg zur Berechnung der Anzahl der aufspannenden Bäume vorgestellt.
Es seien
also n Ecken für einen Graph gegeben. Dann lässt sich dieser Graph auf nk Möglichkeiten
aufteilen, so dass der erste Teilgraph T 1 genau k und der anderen Teilgraph T 2 genau n − k
Ecken hat. Für T 1 gibt es nach Satz 3.1.15 genau kk−2 aufspannende Bäume und für T 2
gibt es genau (n − k)n−k−2 aufspannende Bäume. Um nun einen Baum zu erhalten, der n
Ecken besitzt. Müssen beide Teilgraphen durch eine Brücke verbunden werden. Dafür gibt
es dann k(n − k) Möglichkeiten. Die Summe von k = 1 bis n − 1 ergibt
dann
die Zahl der
n
aufspannenden Bäume. Allerdings zählt die Summe zweimal, da nk = n−k
gilt. Des Weiteren ist jeder Baum n − 1 mal enthalten, da durch die Verbindung des T 1 mit T 2 mit einer
Brücke auch Bäume entstehen, die schon einmal gezählt wurden, da diese Graphen bereits
durch die Kombinationen anderer Teilgraphen T 1′ , T 2′ abgedeckt wurden. Folglich ist
n
n−2
!
n−1
X
n k(n − k) · kk−2 · (n − k)n−k−2
.
=
2(n − 1)
k
k=1
Und damit:
vol(Pn ) =
√
n · nn−2 .
Satz 5.2.28. Es seien F, F ′ zwei benachbarte Facetten des Pn mit zugehörigen Normalenvektoren v, v′ ∈ {0, 1}n . Weiter seien I, I ′ ⊂ [n] zwei Teilmengen von [n] mit: I ≔ supp(v)
und I ′ ≔ supp(v′ ). Weiter sei k ≔ |I|, beziehungsweise k′ ≔ |I ′ | und k > k′ . Dann gilt für
den Winkel α zwischen F und F ′ :
√ ′
k (n − k)
cos(α) = − √
.
k(n − k′ )
Beweis. Nach Lemma 5.2.25 ergeben sich für die Normalenvektoren w, w′ der Facetten
F, F ′ :



 21 (k − n), falls i ∈ I,
wi = 

 1 k,
falls i ∈ J.
2
Und
w′i



 12 (k′ − n), falls i ∈ I ′ ,
=

 1 k′ ,
falls i ∈ J ′ .
2
KAPITEL 5. VOM PERMUTAEDER ZUR VERDIÈRE-MATRIX
123
Wobei J ≔ [n] \ I und J ′ ≔ [n] \ I ′ ist. Zu Bestimmung des Winkels α wird folgende
Gleichung benutzt:
hw, w′ i = kwk · kw′ k · cos(α).
Für den Betrag w und w′ folgt:
kwk =
s
k
k−n
2
!2
+ (n − k)
k
2
!2
1√ 3
k − 2nk2 + kn2 + nk2 − k3
2
1p
nk(n − k).
=
2
=
Und analog für w′ :
1p ′
nk (n − k′ ).
2
Für das Skalarprodukt aus w und w′ folgt schließlich:
kw′ k =
1 I ∩ I ′ (k − n)(k′ − n) + J ∩ J ′ (kk′ ) + n − I ∩ I ′ − J ∩ J ′ (k − n)k′
4
!
1
′
′ ′
= n (n − k)|I ∩ I | + (k − n + |J ∩ J |)k .
4
hw, w′ i =
!
Schließlich folgt dann mit k′ = |I ∩ I ′ | und n − k = |J ∩ J ′ |:
√ ′
k (n − k)
.
cos(α) = − √
k(n − k′ )
5.3 Colin-de-Verdière-Matrix
Definition 5.3.1. (Dualität von Polytopen).
Es sei P ⊂ Rn ein Polytop mit 0 ∈ P, dann ist P∗ das duale Polytop von P definiert durch:
P∗ ≔ {y ∈ Rn | xT y ≤ 1, x ∈ P}.
Theorem 5.3.2. (Verdière-Matrix für konvexe Polytope).
Es sei P(x0 ) = {p ∈ Rn | wTi p ≤ x0i , i ∈ I} ein konvexes Polytop. Weiter sei G das 1-Skelett
des P∗ . Dann ist die Matrix M definiert durch:
∂2 vol(P(x)) Mi j = −
∂xi ∂x j x=x0
eine Colin-de-Verdière-Matrix für G.
Bemerkung: Der Beweis des Theorems 5.3.2 wird in [15] erbracht. Dort finden sich zwei
einfachere zu handhabende Gleichungen für M.
Für i , j folgt:
vol(Fi j (x))
∂2 vol(P(x))
=
.
∂xi ∂x j
kwi k · kw j k · sin(αi j )
Und für i = j:
X ∂2 vol(P(x))
∂2 vol(P(x))
w j = 0.
w
+
i
∂xi ∂x j
∂x2i
j,i
KAPITEL 5. VOM PERMUTAEDER ZUR VERDIÈRE-MATRIX
124
Wobei Fi j die Seite ist, die aus dem Schnitt von Fi und F j entsteht.
Im vorigen Kapitel wurden alle Formeln bewiesen, die zur Berechnung der Verdière-Matrix
benötigt werden.
Die zu berechnenden Werte, die zur Bestimmung der Verdière-Matrix benötigt werden,
hängen nur von der Dimension n sowie die Anzahl der 1’en ki , k j aus dem zughörigen
Normalenvektoren vi , v j der Facetten Fi , F j ab. Dabei muss beachtet werden, dass das Permutaeder Pn im Rn liegt allerdings n − 1 dimensional ist. Was zu Folge hat, dass der Normalenraum 2-dimensional ist. Hierbei werden zwischen zwei Darstellungen der Normalen
unterschieden. Mit vi sind die Normalen mit vi ∈ {0, 1}n gemeint, die Auskunft über k, die
Anzahl der 1’en geben. Mit wi ist die Normale aus Satz 5.2.25 gemeint.
Im folgenden soll die Verdière-Matrix des P4 exemplarisch berechnet werden. Dabei werden die benötigten Werte vol(Fi j ), sin(αi j ) und kwi k·kw j k in der Tabelle ausgewertet, die jeweils nur von den Werten n, k, k′ abhängen. Hierbei werden die Facetten immer so gewählt,
dass k > k′ und 4 > k > 1 gilt. Für die Berechnung werden folgende Gleichungen benötigt:
vol(Fi j ) = vol(Pk′ ) vol(Pk−k′ ) vol(Pn−k )
√
√
√
′
′
= k′ k′k −2 k − k′ (k − k′ )k−k −2 n − k(n − k)n−k−2 ,
1 p ′
n kk (n − k′ )(n − k),
4
s
k′ (n − k)
sin(αi j ) = 1 −
k(n − k′ )
s
n(k − k′ )
.
=
k(n − k′ )
kwi k · kw j k =
Somit ergibt sich die folgende Tabelle:
n
k
k′
4
2
1
4
3
1
4
3
2
vol(Fi j )
√
2
√
2
√
2
kwi k · kw j k
√
2 3
3
√
2 3
sin(αi j )
q
2
√3
2
2
3q
2
3
Für die Matrixeinträge Mi j mit i , j und adjazente Fi , F j ergeben sich dann:
1
(Mi j ) = − .
2
Für die Diagonaleinträge sei F die Facette mit vT = (1, 0, 0, 0). Dann ergeben sich für die
Nachbarfacetten von F die folgenden Normalenvektoren:
           
1 1 1 1 1 1
1 0 0 1 1 0
  ,   ,   ,   ,   ,   .
0 1 0 1 0 1
0 0 1 0 1 1
Für v ergibt sich dann der folgende Normalenvektor w: wT = 12 (−3, 1, 1, 1) und damit auch
die anderen Normalenvektoren:
           
−2 −2 −2 −1 −1 −1
1 −2 1  2  1  2  1 −1 1 −1 1  3 
  ,   ,   ,   ,   ,   .
2  2  2 −2 2  2  2 −1 2  3  2 −1
2
2
−2
3
−1
−1
KAPITEL 5. VOM PERMUTAEDER ZUR VERDIÈRE-MATRIX
125
Und für den Diagonaleintrag zu vT = (1, 0, 0, 0) folgt aus:
X ∂2 vol(P(x))
∂2 vol(P(x))
w j = 0,
w
+
i
∂xi ∂x j
∂x2i
j,i
die Gleichung:
 
 
 
 
 
 
 
−3
−2
−2
−2
−1
−1
−1
1  1  1 1 −2 1 1  2  1 1  2  1 1 −1 1 1 −1 1 1  3 
0 = M11 ·   − ·   − ·   − ·   − ·   − ·   − ·  
2  1  2 2  2  2 2 −2 2 2  2  2 2 −1 2 2  3  2 2 −1
1
2
2
−2
3
−1
−1

  
−3 −4.5
 1   1.5 
.
= M11   − 
 1   1.5 
1.5
1
Schließlich ergibt sich M11 = 23 .
Nun sei F die Facette mit vT = (1, 1, 0, 0). Dann ergeben sich für die Nachbarfacetten von
F die folgenden Normalenvektoren:
       
1 0 1 1
0 1 1 1
  ,   ,   ,   .
0 0 1 0
0 0 0 1
Für v ergibt sich dann der folgende Normalenvektor w: wT = (−1, −1, 1, 1) und damit auch
die anderen Normalenvektoren:
       
−3  1  −1 −1
1  1  1 −3 1 −1 1 −1
  ,   ,   ,   .
2  1  2  1  2 −1 2  3 
1
1
3
−1
Und für den Diagonaleintrag zu vT = (1, 1, 0, 0) folgt dann:
 
 
 
 
 
−1
−3
 1 
−1
−1








1 −1 1 1  1  1 1 −3 1 1 −1 1 1 −1
0 = M22 ·   − ·   − ·   − ·   − ·  
2  1  2 2  1  2 2  1  2 2 −1 2 2  3 
1
1
1
3
−1
   
−1 −2
−1 −2
= M22   −   .
 1   2 
1
2
Schließlich ergibt sich M22 = 2. Die restlichen Diagonaleinträge ergeben sich analog.
Sofern eine Facette einen Normalenvektor v hat mit k = 1 oder k = 3 folgt für den
Matrixeintrag 23 und für k = 2 ergibt sich 2. Die Diagonaleinträge sind nun vollständig
bestimmt. Als nächstes müssen noch die Positionen ermittelt werden an welchen Stellen
sich eine 0 und − 12 in der Matrix M ergibt. Dazu muss eine lexikografische Ordnung ermittelt werden um von Fi auf den Normalenvektor zu schließen und damit festzustellen
welche Facetten mit welchen Facetten adjazent sind. Dazu wird zu jedem Normalenvektor
v ∈ {0, 1}n die zu dem Binärsystem aus v die entsprechende Dezimalzahl der Facette zugeordnet. Sei also zum Beispiel vT = (1, 1, 0, 0), dann entspricht dies der 12. Facette, da
1 · 23 + 1 · 22 + 0 · 21 + 0 · 20 = 12. Zu dem Normalenvektor v wurden die Normalenvektoren
126
KAPITEL 5. VOM PERMUTAEDER ZUR VERDIÈRE-MATRIX
der benachbarten Facetten bereits ermittelt:
       
1 0 1 1
0 1 1 1
  ,   ,   ,   .
0 0 1 0
0 0 0 1
Diese Normalenvektoren entsprechen den Facetten: 8,4,14,13. Und somit ergeben sich
dann auch die Matrixeinträge:
1
2
1
=−
2
1
=−
2
1
=−
2
= 2.
M12,8 = −
M12,4
M12,14
M12,13
M12,12
Der Diagonaleintrag M12,12 = 2, da k = 2 ist. Die Verdière-Matrix lautet dann wie folgt:

 3
 0

−1

 0
−1

 0

1 −1
M = 
2  0
−1

 0

−1

 0
−1

0
0
3
−1
0
0
−1
−1
0
0
−1
−1
0
0
−1
−1
−1
2
0
0
0
−1
0
0
0
−1
0
0
0
0
0
0
3
−1
−1
−1
0
0
0
0
−1
−1
−1
−1
0
0
−1
2
0
−1
0
0
0
0
0
−1
0
0
−1
0
−1
0
2
−1
0
0
0
0
0
0
−1
−1
−1
−1
−1
−1
−1
3
0
0
0
0
0
0
0
0
0
0
0
0
0
0
3
−1
−1
−1
−1
−1
−1
−1
0
0
0
0
0
0
−1
2
0
−1
0
−1
0
0
−1
0
0
0
0
0
−1
0
2
−1
0
0
−1
−1
−1
−1
0
0
0
0
−1
−1
−1
3
0
0
0
0
0
0
−1
0
0
0
−1
0
0
0
2
−1
−1
−1
0
0
−1
−1
0
0
−1
−1
0
0
−1
3
0

0 

−1

0 

−1

0 

−1
0 
.
−1

0 

−1
0 

−1

0 

3
Der corank von M beträgt 3. Die Matrix M ist sogar eine optimale Verdière-Matrix für den
Graphen G, dass heißt es gibt keine Matrix, die die Definition 4.1.1 für den Graphen erfüllt
und einen größeren corank als 3 hat. Der Graph G ist das 1-Skelett des dualen Polytops zu
P4 . Zur Veranschaulichung siehe Abbildung 5.6 und 5.7.
KAPITEL 5. VOM PERMUTAEDER ZUR VERDIÈRE-MATRIX
127
Abbildung 5.6: Das duale Permutaeder P∗4 mit den P4 .
Die ermittelte Verdière-Matrix hat einen Corank von drei und der Graph ist planar somit ist diese Matrix sogar eine optimale Verdière-Matrix. Für höhere Dimension ist es nicht
gewährleistet, dass die berechnete Matrix optimal ist. L. Lovász und A. Schrijver gaben in
ihrer Arbeit [20] einen Beweis an, dass alle ermittelten Verdière-Matrizen für dreidimensionale konvexe Polytope optimal sind.
KAPITEL 5. VOM PERMUTAEDER ZUR VERDIÈRE-MATRIX
(a)
128
(b)
(c)
(d)
Abbildung 5.7: Der Graph G des 1-Skelett des dualen Polytops zu P4 lässt sich einfach
konstruieren. Zu dem P4 (a) entsteht der Graph in dem man auf jeder Facette eine Ecke legt
und diese dann mit jeder anderen Ecke durch eine Kante verbindet, sofern die Facetten auf
dem die Ecken liegen adjazent sind, siehe (b). Für die Ebene lässt sich das P4 aufklappen (c)
und dort werden dann wieder die Ecken auf den Facetten durch anderen Ecken verbunden,
sofern die Facetten adjazent sind, siehe (d). Man erhält dann einen planaren Graphen.
KAPITEL 5. VOM PERMUTAEDER ZUR VERDIÈRE-MATRIX
129
5.3.1 Verdière-Matrix mit Mathematica
Diese Kapitel soll die Umsetzung der Berechnungen, aus dem vorigen Kapitel, in Mathematica beschreiben. Hierbei müssen die folgenden Prozeduren umgesetzt werden:
• GetAngle,
• GetVolume,
• GetNormLength,
• CheckAdjacencies,
• GetW,
• SetEntry,
• SetDiagonalEntry,
• GetVMatrix.
GetAngle
Die Prozedur GetAngle hängt nur von den Werten n, k, k′ ab. In dieser Prozedur soll der
Winkel zweier benachbarter Facetten F, F ′ mit zugehörigen Normalenvektoren v, v′ bestimmt werden. Hierbei gilt allerdings k = | supp(v)| und k′ = | supp(v′ )|. Eine mögliche
Mathematica Umsetzung sieht dann so aus:
GetAn g le [ n , k1 , k2 ] :=
Module [ { N1 , K1 , K2 } ,
N1 = n ;
K1 = k1 ;
K2 = k2 ;
Sqrt [ N1 ( K1 − K2 ) / ( K1 ( N1 − K2 ) ) ]
]
Der Aufruf GetAngle[n,k,k’], in Mathematica, ermittelt dann den Winkel der benachbarten
Facetten F, F ′ .
GetVolume
Die Prozedur GetVolume hängt nur von den Werten n, k, k′ ab. In dieser Prozedur soll das
Volumen aus dem Schnitt zweier benachbarter Facetten F, F ′ mit zugehörigen Normalenvektoren v, v′ bestimmt werden. Hierbei gilt allerdings k = | supp(v)| und k′ = | supp(v′ )|.
Eine mögliche Mathematica Umsetzung sieht dann so aus:
GetVolume [ n , k1 , k2 ] :=
Module [ { N1 , K1 , K2 } ,
N1 = n ;
K1 = k1 ;
K2 = k2 ;
Sqrt [ K2 ] K2 ˆ ( K2 − 2 ) ∗
Sqrt [ K1 − K2 ] ( K1 − K2 ) ˆ ( K1 − K2 − 2 ) ∗
Sqrt [ N1 − K1 ] ( N1 − K1 ) ˆ ( N1 − K1 − 2 )
]
Der Aufruf GetVolume[n,k,k’], in Mathematica, ermittelt dann das Volumen des Schnitts
der benachbarten Facetten F, F ′ .
KAPITEL 5. VOM PERMUTAEDER ZUR VERDIÈRE-MATRIX
130
GetNormLength
Die Prozedur GetNormLength hängt nur von den Werten n, k, k′ ab. Es seien F, F ′ zwei benachbarte Facetten mit zugehörigen Normalenvektoren v, v′ . Dann gibt es zu F und F ′ zwei
P
Normalenvektoren w und w′ , die in der affinen Hyperebene ni=1 xi = 12 n(n + 1) enthalten
sind. In der Prozedur GetNormLength soll der Wert kwk · kw′ k der Normalenvektoren w, w′
ermittelt werden. Hierbei gilt allerdings k = | supp(v)| und k′ = | supp(v′ )|. Eine mögliche
Mathematica Umsetzung sieht dann so aus:
GetNormLength [ n , k1 , k2 ] :=
Module [ { N1 , K1 , K2 } ,
N1 = n ;
K1 = k1 ;
K2 = k2 ;
1 / 4 ∗ N1∗ Sqrt [ K1 K2 ( N1 − K2) ( N1 − K1 ) ]
]
Der Aufruf GetNormLength[n,k,k’], in Mathematica, ermittelt dann Wert kwk · kw′ k der
Normalenvektoren w, w′ .
CheckAdjacencies
Die Prozedur CheckAdjacencies hängt nur von den Vektoren v, v′ ab. In dieser Prozedur
soll überprüft werden, ob zwei Facetten F, F ′ mit zugehörigen Normalenvektoren v, v′ zu
einander adjazent sind. Hierbei gilt allerdings k = | supp(v)| und k′ = | supp(v′ )|. Eine
mögliche Mathematica Umsetzung sieht dann so aus:
C h e c k A d j a c e n c i e s [ v1 , v 2 ] :=
Module [ { V1 , V2 } ,
V1 = v1 ;
V2 = v2 ;
V := V1 − V2 ;
p o s i t i v := 0 ;
n e g a t i v := 0 ;
For [ i = 1 , i <= Length [ V] , i ++ ,
Which [ V [ [ i ] ] > 0 , p o s i t i v ++ , V [ [ i ] ] < 0 ,
negativ ++]];
temp := { p o s i t i v , n e g a t i v } ;
b o o l := 0 ;
I f [ ( temp [ [ 2 ] ] > 0 && temp [ [ 1 ] ] == 0 ) | |
( temp [ [ 1 ] ] > 0 &&
temp [ [ 2 ] ] == 0 ) , b o o l = 1 , b o o l = 0 ] ;
bool
]
Der Aufruf CheckAdjacencies[v,v’], in Mathematica, ermittelt dann, ob F, F miteinander
adjazent sind, falls ja gibt er den Wert 1, ansonsten den Wert 0 zurück. Hierbei werden die
Vektoren einfach subtrahiert V = v − v′ . Falls die Facetten adjazent sind, muss v′ entweder
durch das Entfernen oder das Hinzufügen von 1’en aus v entstanden sein. Sofern der Vektor
V einen positiven, wie auch negativen Träger hat, können F und F ′ nicht adjazent sein, da
sonst sowohl 1’en entfernt wie auch hinzugefügt wurden.
131
KAPITEL 5. VOM PERMUTAEDER ZUR VERDIÈRE-MATRIX
GetW
Die Prozedur GetW hängt nur von den Vektoren v ab. In dieser Prozedur soll der zugehörige Vektor v einer Facette F in einen Normalenvektor w, der in der affinen HyperP
ebene ni=1 xi = 21 n(n + 1) enthalten ist, umgewandelt werden. Eine mögliche Mathematica
Umsetzung sieht dann so aus:
GetW [ v ] :=
Module [ { V} ,
V = v;
W = V;
K := 0 ;
For [ i = 1 , i <= Length [ V] ,
For [ i = 1 , i <= Length [ V] ,
I f [ V [ [ i ] ] == 1 ,
W[ [ i ] ] = 1 / 2
W[ [ i
W
]
i ++ , K += V [ [ i ] ] ] ;
i ++ ,
( K − Length [ V ] ) ,
] ] = 1/2 K] ] ;
Der Aufruf GetW[v], in Mathematica, ermittelt dann den Normalenvektor w, der in der
P
affinen Hyperebene ni=1 xi = 12 n(n + 1) enthalten ist.
SetEntry
Die Prozedur SetEntry hängt nur von den Werten n, i, j ab. In dieser Prozedur soll der Matrixeintrag i, j der Verdière-Matrix bestimmt werden. Eine mögliche Mathematica Umsetzung
sieht dann so aus:
S e t E n t r y [ n , i , j ] :=
Module [ { N1 , I , J } ,
N1 = n ;
I = i;
J = j;
k1 := 0 ;
k2 := 0 ;
v1 = I n t e g e r D i g i t s [ I , 2 , N1 ] ;
v2 = I n t e g e r D i g i t s [ J , 2 , N1 ] ;
For [ h = 1 , h <= n , h ++ , k1 += v1 [ [ h ] ] ] ;
For [ h = 1 , h <= n , h ++ , k2 += v2 [ [ h ] ] ] ;
I f [ k1 >= k2 , , { tem p v ec = v1 , v1 = v2 ,
v2 = tempvec , temp = k1 ,
k1 = k2 , k2 = temp } ] ;
temp = 0 ;
I f [ C h e c k A d j a c e n c i e s [ v1 , v2 ] == 1 ,
{ temp = GetVolume [ N1 , k1 , k2 ] ,
temp / = GetNormLength [ N1 , k1 ,
temp / = GetAn g le [ N1 , k1 ,
temp = 0 ] ;
− temp
]
k2 ] ,
k2 ] } ,
KAPITEL 5. VOM PERMUTAEDER ZUR VERDIÈRE-MATRIX
132
Der Aufruf SetEntry[n,i,j], in Mathematica, ermittelt dann den Matrixeintrag i, j. Der Befehl v1 = IntegerDigits[I, 2, N]; wandelt die Zahl I eine Binärzahl der Länge N um. Die
Länge N bedeutet, dass entstandene Vektor mit Nullen aufgefüllt wird, bis er die Länge
N hat. In der nächsten Zeile wird mit For[h = 1, h ¡= n, h++, k1 += v1[[h]]]; der Wert
k = | supp(v1)| ermittelt. Falls v1 mehr 1’en als v2 hat, werden im nächsten Schritt die
Vektoren getauscht. Anschließend wird überprüft, ob die Facetten benachbart sind, falls ja
vol(Fi j (x))
wird der Matrixeintrag aus kwi k·kw j k·sin(α
bestimmt.
i j)
SetDiagonal
Die Prozedur SetDiagonal hängt nur von den Werten n, i und der Matrix m ab. In dieser
Prozedur sollen die Diagonaleinträge der Verdière-Matrix bestimmt werden. Eine mögliche
Mathematica Umsetzung sieht dann so aus:
S e t D i a g o n a l [ n , i , m ] :=
Module [ { N1 , I , M} ,
N1 = n ;
M = m;
I = i;
v = I n t e g e r D i g i t s [ I , 2 , N1 ] ;
w = GetW [ v ] ;
tem p v ec = 0 ;
For [ f = 1 , f <= 2 ˆ N1 − 2 , f ++ ,
I f [ M[ [ I , f ] ] != 0 && f != I ,
tem p v ec −= M[ [ I , f ] ] ∗
GetW [ I n t e g e r D i g i t s [ f , 2 , N1 ] ] ] ] ;
S o l v e [w∗ x == tempvec , x ] [ [ 1 , 1 , 2 ] ]
]
Der Aufruf SetDiagonal[n,i,m], in Mathematica, ermittelt dann den Matrixeintrag Mi,i . Der
Aufruf For[f = 1,...,tempvec -= M[[I, f]]*GetW[IntegerDigits[f, 2, N1]]]]; berechnet den
2
P
vol(P(x))
Wert j,i ∂ ∂x
w j . Der Befehl Solve[w*x == tempvec, x][[1, 1, 2]] löst schließlich
i ∂x j
2
P
vol(P(x))
das Gleichungssystem Mi,i wi + j,i ∂ ∂x
w j = 0.
i ∂x j
GetVMatrix
Die Prozedur GetVMatrix hängt nur von den Wert n ab. In dieser Prozedur wird die Verdière-Matrix bestimmt. Eine mögliche Mathematica Umsetzung sieht dann so aus:
GetVMatr ix [ n ] :=
Module [ { N1 } ,
N1 = n ;
M = I d e n t i t y M a t r i x [ 2 ˆ N1 − 2 ] ;
For [ f = 1 , f <= 2 ˆ N1 − 2 , f ++ ,
For [ g = f , g <= 2 ˆ N 1− 2 , g ++ ,
{ M[ [ f , g ] ] = S e t E n t r y [ N1 , f , g ] ,
M[ [ g , f ] ] = M[ [ f , g ] ] } ] ] ;
For [ f = 1 , f <= 2 ˆ N1 − 2 , f ++ ,
For [ g = f , g <= 2 ˆ N 1− 2 , g ++ ,
{ M[ [ f , g ] ] = S e t E n t r y [ N1 , f , g ] ,
M[ [ g , f ] ] = M[ [ f , g ] ] } ] ] ;
KAPITEL 5. VOM PERMUTAEDER ZUR VERDIÈRE-MATRIX
133
For [ h = 1 , h <= 2 ˆ N1 − 2 , h ++ , M[ [ h , h ] ] =
S e t D i a g o n a l [ N1 , h , M] ] ;
M
]
Der Aufruf GetVMatrix[n], in Mathematica, ermittelt dann die Verdière-Matrix für das
Permutaeder Pn .
Beispiele
Wird nun der Befehl GetVMatrix[5] aufgerufen, erscheint die Verdière-Matrix für das 1Skelett des dualen Polytops vom Permutaeder P5 . Um sich nun einmal den Graph des 1Skelett anzuschauen. Ruft man in Mathematica zunächst << Combinatorica‘ auf und gibt
anschließend den Befehl GraphPlot[GetVMatrix[5]] ein, es erscheint das folgende Bild
5.10. Hierbei wird die Verdière-Matrix als eine Art Adjazenzmatrix interpretiert. Die Anzahl der Knoten entspricht dann der Zeilen- beziehungsweise der Spaltenanzahl und zwei
verschiedene Knoten i und j sind miteinander adjazent, sofern der Matrixeintrag Vi j der
Verdière-Matrix V eine von Null verschiedene Zahl ist. Im Folgenden sind die Graphen für
die Fälle n = 4, 5, 6, 7 in den Abbildungen 5.8, 5.10, 5.12 und 5.14 zu sehen. Weiterhin
lässt sich durch Aufruf der Funktion MatrixPlot[GetVMatrix[5]] eine Visualisierung der
Verdière-Matrix darstellen. Es wird ein Gitter mit der gleichen Dimension wie der Matrix
erzeugt. Falls für den Matrixeintrag Vi j = 0 gilt, folgt dass das Feld {i, j} eine weiße Farbe erhält. Die anderen Matrixeinträge werden entsprechend ihres absoluten Wertes durch
Graustufen dargestellt. Dementsprechend haben zwei gleiche Farben im Gitter auch den
gleichen Matrixeintrag. Die Darstellung der Matrixdarstellungen sind in den Abbildungen
5.9, 5.11, 5.13 und 5.15 für die Fälle n = 4, 5, 6, 7 zu sehen.
KAPITEL 5. VOM PERMUTAEDER ZUR VERDIÈRE-MATRIX
Abbildung 5.8: Das 1-Skelett des P∗4 .
134
KAPITEL 5. VOM PERMUTAEDER ZUR VERDIÈRE-MATRIX
1
5
10
135
14
1
1
5
5
10
10
14
14
1
5
10
Abbildung 5.9: Der Matrix-Plot der Verdière-Matrix für P∗4 .
14
KAPITEL 5. VOM PERMUTAEDER ZUR VERDIÈRE-MATRIX
Abbildung 5.10: Das 1-Skelett des P∗5 .
136
KAPITEL 5. VOM PERMUTAEDER ZUR VERDIÈRE-MATRIX
1
10
20
137
30
1
1
10
10
20
20
30
30
1
10
20
Abbildung 5.11: Der Matrix-Plot der Verdière-Matrix für P∗5 .
30
KAPITEL 5. VOM PERMUTAEDER ZUR VERDIÈRE-MATRIX
Abbildung 5.12: Das 1-Skelett des P∗6 .
138
KAPITEL 5. VOM PERMUTAEDER ZUR VERDIÈRE-MATRIX
1
20
40
139
62
1
1
20
20
40
40
62
62
1
20
40
Abbildung 5.13: Der Matrix-Plot der Verdière-Matrix für P∗6 .
62
KAPITEL 5. VOM PERMUTAEDER ZUR VERDIÈRE-MATRIX
Abbildung 5.14: Das 1-Skelett des P∗7 .
140
141
KAPITEL 5. VOM PERMUTAEDER ZUR VERDIÈRE-MATRIX
1
50
100
126
1
1
50
50
100
100
126
126
1
50
100
Abbildung 5.15: Der Matrix-Plot der Verdière-Matrix für P∗7 .
126
Kapitel 6
Ausblick
Im Rahmen der Recherchen mit dem Thema der Colin-de-Verdière-Zahl, stellten sich einige Fragestellungen heraus, dessen Untersuchungen sich lohnen würde weiter zu ergründen.
So ergab sich beispielsweise die Vermutung von Yves Colin de Verdière, dass die Colin-deVerdière-Zahl eines Graphen einen engen Zusammenhang zu der chromatischen Zahl des
gleichen Graphen hat. Der Zusammenhang der Vermutung besteht darin, dass die Colinde-Verdière-Zahl eines Graphens um die Zahl 1 vermehrt, eine obere Schranke für die
chromatische Zahl des Graphen zu sein scheint:
χ(G) ≤ µ(G) + 1.
Da die Graphenklassen nur für die ersten vier Zahlen der Verdière Zahl bekannt sind, lässt
sich die Vermutung auch nur für diese Graphenklassen bestätigen. Für die Verdière-Zahl
1 folgt, dass der zugehörige Graph ein Pfad sein muss und somit die chromatische Zahl 2
beträgt. Für außerplanare Graphen ergibt sich eine chromatische Zahl von 3 und die Verdière-Zahl beträgt 2. Die Färbung der planaren Graphen führt auf das Vier-Farben-Problem
zurück. Kazimierz Kuratowski zeigte in seiner Arbeit [16], dass planare Graphen sich mit
4 Farben färben lassen. Die zugehörige Verdière-Zahl beträgt 3. Für die verlinkungsfreien einbettbaren Graphen beträgt die Verdière-Zahl 4. Neil Robertson, Paul Seymour und
Robin Thomas bewiesen in [28], dass die chromatische Zahl dieser Graphen 5 beträgt.
Daraus ergibt sich beispielsweise die Frage, ob sich für die Kneser-Graphen ebenfalls eine
Möglichkeit finden lässt, den Verdière-Graphenparameter zu bestimmen. Aus dem bereits
untersuchten Färbungsproblem der Kneser-Graphen [19] ließe sich einerseits die Vermutung der chromatischen Zahl und der Verdière-Zahl für die Kneser-Graphen bestätigen oder
widerlegen und andererseits eine große Klasse von Graphen untersuchen.
Das Kapitel 5 führt auch gleich auf die nächste Idee der Untersuchung. Da die VerdièreZahl nur für die Zahlen 1 bis 4 untersucht ist, ergibt sich in natürlicher Weise die Frage,
welche Graphenklassen sich hinter den anderen Zahlen verbergen. Eine Vermutung ist die,
das Graphen die Verdière-Zahl k haben, sofern der Graph das 1-Skelett eines einfachen
volldimensionalen Polytops im k-dimensionalen Raum ist. Die Arbeit von Ivan Izmestiev
[15] bestätigt eine untere Schranke dieser Vermutung.
Literaturverzeichnis
[1] M. Aigner, Diskrete Mathematik, Vieweg-Teubner, Wiesbaden, 2009
[2] H. Anton, Lineare Algebra, Spektrum Akademischer Verlag, Heidelberg, Berlin,
1998
[3] V. Arnold, Modes and quasi-modes, J. Funct. Anal. 6, 1972, 94-101
[4] R. Bacher, Y. C. d. Verdière, Multiplicités des valeurs propres et transformations
étoile-triangle des graphes, Bulletin de la Société Mathématique de France 123,
1995
[5] T. Böhme, On spatial representations of graphs, Contemporary methodes in graph
theory
[6] G. Chartrand, F. Harary, Planar Permutation Graphs, Annales de l’institut Henri
Poincaré (B) Probabilités et Statistiques, 3 no. 4, 1967, 433-438
[7] R. Diestel, Graphentheorie, Springer-Verlag, Berlin, Heidelberg, 2006
[8] G. Fischer, Lineare Algebra, Vieweg Studium – Grundkurs Mathematik, Wiesbaden, 2005
[9] O. Forster, Analysis 2, Vieweg Studium – Grundkurs Mathematik, Wiesbaden,
2006
[10] B. C. Hall, Lie Groups, Lie Algebras, and Representations, Springer-Verlag, New
York, 2003
[11] H. v. d. Holst, A short proof of the planarity characterization of Colin de Verdière,
Journal of Combinatorial Theory Series B Volume 65 , Issue 2, November 1995,
269-272
[12] H. v. d. Holst, L. Lovász, A. Schrijver, On the Invariance of Colin de Verdière’s
Graph Parameter Under Clique Sums, Linear Algebra and its applications, 1995,
226-228;509-517
[13] H. v. d. Holst, L. Lovász, A. Schrijver, The Colin de Verdière graph parameter,
Graph Theory and Combinatorial Biology, Bolyai Soc. Math. Stud. 7, Budapest,
1996, 29-85
[14] S. Hwang, Cauchy’s interlace theorem for eigenvalues of Hermitian matrices,
Amer. Math. Monthly 111, 2004, 157-159.
[15] I. Izmestiev, The Colin de Verdière number and graphs of polytopes, arXiv:0704.0349v3
[16] K. Kuratowski, Sur le problème des courbes gauches en topologie, Fund Math. 15,
1930, 271-283.
LITERATURVERZEICHNIS
144
[17] E. L. Lima, The Jordan-Brouwer Separation Theorem for Smooth Hypersurfaces,
The American Mathematical Monthly, Vol. 95, No. 1, 1988, 39-42
[18] K. Y. Lin, An Elementary Proof of the Perron-Frobenius Theorem for NonNegative Symmetric Matrices, Chinese Journal of Physics, VOL. 15, NO. 4, Winter, 1977
[19] L. Lovász, Kneser’s conjecture, chromatic number, and homotopy, Journal of
Combinatorial Theory, Series A 25, 319-324
[20] L. Lovász, Steinitz representations of polyhedra and the Colin de Verdière number,
J. Combin. Theory Ser. B, 82(2), 2001, 223-236
[21] L. Lovász, The Colin de Verdière number of a graph, based on joint papers with H.
van der Holst and A. Schrijver, www.cs.elte.hu/ lovasz/colinnotes.pdf
[22] L. Lovász, A. Schrijver, A Borsuk theorem for antipodal links and a spectral characterization of linklessly embeddable graphs, Proc. Amer. Math. Soc., 126(5),
1998, 1275-1285
[23] L. Lovász, A. Schrijver, On the null space of a Colin de Verdière matrix, Annales
de l’institut Fourier, 49 no. 3, 1999, 1017-1026
[24] J. Matoušek, J. Nešetřil, Diskrete Mathematik, Springer-Verlag, Berlin, Heidelberg, 2007
[25] F. Ninio, A simple proof of the Perron-Frobenius theorem for positive symmetric
matrices, J. Phys. A: Math. Gen. 10 1259, 1977
[26] S. M. Osnaga, On rank one matrices and invariant subspaces, Balkan Journal of
Geometry and its Applications, vol. 10, 2005, 145-148
[27] N. Robertson, P. Seymour, R. Thomas, A survey of linkless embeddings, Graph
Structure Theory, 1991, 125-136
[28] N. Robertson, P. Seymour, R. Thomas, Hadwiger’s conjecture for K6-free graphs,
Combinatorica 13 (3): doi:10.1007/BF01202354, 279-361
[29] N. Robertson, P. Seymour, R. Thomas, Sachs’ linkless embedding conjecture, Journal of Combinatorial Theory Series B Volume 64, Issue 2, 1995, 185-227
[30] D. Werner, Funktionalanalysis, Springer-Verlag, Berlin, Heidelberg, 2007
[31] Y. C. de Verdière, On a new graph invariant and a criterion for planarity, Graph
Structure Theory (N. Robertson, P. Seymour, eds.), Contemporary Mathematics,
American Mathematical Society, Providence, Rhode Island, 1993, 137-147.
[32] Y. C. de Verdière, Sur un nouvel invariant des graphes et un critère de planarité,
Journal of Combinatorial Theory, Series B 50, 1990, 11-21.
[33] J. H. C. Whitehead, Combinatorial homotopy. I., Bull. Amer. Math. Soc. 55, 1949,
213-245
[34] G. M. Ziegler, Lectures on Polytopes, Springer-Verlag, New York, 2007
Eidesstattliche Versicherung
Hiermit versichere ich, dass ich die vorliegende Diplomarbeit selbstständig und ohne unerlaubte Hilfe angefertigt und andere als die in der Diplomarbeit angegebenen Hilfsmittel
nicht benutzt habe. Alle Stellen, die wörtlich oder sinngemäß aus anderen Schriften entnommen sind, habe ich als solche kenntlich gemacht.
Berlin, den 4. Februar 2011
Kai Lawonn
Herunterladen