Die Colin-de-Verdière-Zahl Kai Lawonn Diplomarbeit im Fach Mathematik Freie Universität Berlin Gutachter: Prof. Dr. Konrad Polthier Dr. Carsten Lange Abgabetermin 1. März 2011 Inhaltsverzeichnis 1 Einleitung 2 2 Lineare Algebra 2.1 Grundlegendes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4 4 3 Graphentheorie 15 3.1 Grundlegendes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15 4 Die Colin-de-Verdière-Zahl 4.1 Grundlegendes . . . . . . . . . . . . . . . . . . . . . 4.2 Haupteigenschaften . . . . . . . . . . . . . . . . . . . 4.3 Cliquensummen . . . . . . . . . . . . . . . . . . . . . 4.4 Unterteilung und △Y-Transformation . . . . . . . . . . 4.5 Der Nullraum der Matrix M . . . . . . . . . . . . . . 4.6 Kleine Werte für µ . . . . . . . . . . . . . . . . . . . 4.6.1 Pfade und außerplanare Graphen . . . . . . . . 4.6.2 Planare Graphen . . . . . . . . . . . . . . . . 4.7 Verlinkungsfreie einbettbare Graphen . . . . . . . . . 4.7.1 Borsuks Theorem für antipodale Verlinkungen 4.7.2 Der Beweis von Theorem 4.7.7 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28 28 32 54 64 68 72 72 76 77 79 91 Vom Permutaeder zur Verdière-Matrix 5.1 Grundlegendes . . . . . . . . . . . . . . 5.2 Permutaeder . . . . . . . . . . . . . . . . 5.3 Colin-de-Verdière-Matrix . . . . . . . . . 5.3.1 Verdière-Matrix mit Mathematica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103 103 103 123 129 5 6 Ausblick . . . . . . . . . . . . . . . . . . . . . . . . . . . . 142 Literaturverzeichnis 143 Eidesstattliche Versicherung 145 Kapitel 1 Einleitung 1990 stellte Y. Colin de Verdière einen neuen Parameter µ(G) für einfache Graphen vor, siehe [32] und [31]. Dieser Parameter wurde zunächst bei der Untersuchung von der maximalen Vielfachheit des zweiten Eigenwertes von diskreten Schrödinger Operatoren verwendet. Es stellte sich heraus, dass dieser Parameter auch bestimmte Eigenschaften von Graphen darstellt. Für eine gewisse Klasse von Matrizen, die zu einem Graphen gehören, stellt µ(G) die maximale Vielfachheit des zweiten Eigenwertes dieser Klasse von Matrizen dar. Ein weiterer Vorteil dieses Parameters besteht in der Minormonotonie. Graphen, die als Minoren von anderen Graphen hervorgegangen sind, haben eine kleinere maximale Vielfachheit des zweiten Eigenwertes als die ursprünglichen Graphen. Des Weiteren lassen sich aus dem Parameter µ(G) Rückschlüsse auf die topologischen Eigenschaften des Graphen schließen. Sofern µ(G) ≤ 3 gilt, ist der Graph ein planarer Graph und lässt sich kreuzungsfrei in die Ebene einbetten. Für den Fall µ(G) ≤ 4 ist der Graph sogar verlinkungsfrei einbettbar, siehe [22]. In den ersten Teilen dieser Arbeit sollen die Grundlagen des neuen Parameters erläutert werden. Das erste Kapitel klärt hierbei die Grundlagen und weiterführende Theoreme, die für die Matrizenrechnungen im späteren Kapitel unausweichlich sein werden. Die wichtigsten Eigenschaften, die später benötigt sind, werden hier bewiesen. Viele Begrifflichkeiten werden dabei nicht zwingend vorausgesetzt, sind aber erwünscht. Das dritte Kapitel soll mit den Grundlagen der Graphentheorie vertraut machen. Hier sind ebenfalls einige Begriffe und Kenntnisse erwünscht, diese sind aber wie im vorigen Kapitel nicht vorausgesetzt. Wichtige Theoreme werden in diesem Kapitel bewiesen. Allerdings ist dieses Kapitel eher dafür gedacht mit den Begriffen, die im Kapitel 4 benutzt werden umgehen zu können. Das vierte Kapitel ist das Herzstück dieser Arbeit. Es behandelt die Ergebnisse, die Y. Colin de Verdière entdeckte, siehe [32] und [31] sowie andere Erkenntnisse die von H. v. d. Holst, L. Lovász, A. Schrijver [13] und [22] entwickelt wurden. In Anlehnung an den wissenschaftlichen Beiträgen von den genannten Personen, arbeitet diese Ausarbeitung ihre Resultate heraus und stellt sie neu auf. Das Hauptresultat ist hierbei die Äquivalenz zu gewissen topologischen Eigenschaften von Graphen und der zugehörigen Verdière-Zahl. Diese Ergebnisse werden bewiesen und bieten dabei ein weiteres Spektrum für eine weitere Möglichkeit Klassen von Graphen zu kategorisieren und zu analysieren. Im fünften Kapitel wird eine Möglichkeit vorgestellt, wie man von einem konvexen Polytop eine mögliche Verdière-Matrix ermitteln kann. Dieses Verfahren ermittelt eine Verdière-Matrix für einen Graphen, welcher das 1-Skelett des dualen Polytops darstellt. In diesem Kapitel wird dieses Verfahren anhand des Permutaeders vorgestellt. Es wird exemplarisch vorgeführt wie man für beliebig dimensionale Permutaeder eine Verdière-Matrix bestimmt. Im Unterkapitel 5.3.1 wird schließlich gezeigt, wie man mit dem Programm Mathematica eine Verdière-Matrix von Permutaedern beliebiger Dimension erhält. KAPITEL 1. EINLEITUNG 3 Das sechste Kapitel ist der Abschluss dieser Arbeit. Hier wird Verdières berühmte Vermutung zu seinem Parameter und der chromatischen Zahl erwähnt, die zu einem algebraischen Beweis der 4-Farben-Vermutung hinführen könnte. Des Weiteren bietet das letzte Kapitel einen Einblick in mögliche Fragestellungen, die sich lohnen würden weiter zu ergründen. Dort werden neue Probleme aufgeworfen, die noch nicht weiter untersucht worden sind. Kapitel 2 Lineare Algebra 2.1 Grundlegendes Dieses Kapitel soll die grundlegenden Definitionen und Sätze erläutern, die in den späteren Kapiteln von wichtiger Bedeutung sein sollen. Zunächst werden für diese Arbeit ausschließlich symmetrische Matrizen verwendet. Dabei werden altbekannte Tatsachen, wie die Existenz von orthogonalen Eigenvektoren zu reellen Eigenwerten, die Ergänzung der Dimension des Kerns und des Bildes zu der Dimension des Vektorraum und andere Eigenschaften verwendet. Der corank einer Matrix ist die Dimension des Kerns. Die Spur trace“ einer Matrix ist hierbei wie üblich durch die Addition ihrer Diagonaleinträge de” finiert, womit auch ein Skalarprodukt zweier Matrizen A und B durch die Spur definiert ist hA, Bi = trace(AT B). Damit erhält man auch eine Möglichkeit orthogonale Matrizen zu definieren. Für die übliche Definition von Tangentialräumen über Matrizen, lassen sich so auch Normalenräume für Matrizen bestimmen. Abgesehen von der gewohnten Multiplikation von Matrizen, soll hier noch eine andere Multiplikation ◦“ verwendet werden, das so ” genannte Hadamard-Produkt. Für zwei Matrizen gleicher Dimension ist (A ◦ B)i j = ai j · bi j das direkte Produkt zweier Matrizen. Das Kapitel schließt mit zwei wertvollen Theorem ab. Das Perron-Frobenius-Theorem und Cauchys-Zwischenwert-Theorem werden später eine entscheidende Rolle spielen. Definition 2.1.1. (S n ). Es sei Sn (R) die Menge aller symmetrischen Matrizen: S n (R) = {M ∈ Rn×n | M T = M}. Definition 2.1.2. (GL). Es sei GL(n) die Menge aller invertierbaren Matrizen: GL(n) = {M ∈ Rn×n | det(M) , 0}. Satz 2.1.3. (Eigenschaften der Spur). Es seien A und B Matrizen mit A ∈ Rm×n und B ∈ Rn×m , dann folgt: trace(AB) = trace(BA). Beweis. Es gilt: trace(AB) = Pm Pn i=1 j=1 ai j b ji = Pn Pm j=1 i=1 bi j a ji = trace(BA). Definition 2.1.4. (Signatur). Eine Matrix M hat die Signatur sign(M) = (p, q, r), wenn p die Anzahl der positiven Eigenwerte, q die Anzahl der negativen Eigenwerte und r die Anzahl Eigenwerte, die 0 sind, ist. KAPITEL 2. LINEARE ALGEBRA 5 Definition 2.1.5. (diag). Mit diag(a1 , a2 , . . . , an ) wird eine Diagonalmatrix mit den Einträgen a1 , a2 , . . . , an bezeichnet. Satz 2.1.6. (Sylvesters Trägheitssatz). Es sei M eine symmetrische Matrix M ∈ S n (R) mit sign(M) = (p, q, r) sowie E = diag(1, . . . , 1, −1, . . . , −1, 0, . . . , 0) | {z } | {z } | {z } q p r eine Matrix. Dann existiert eine Matrix Q ∈ GL(n), so dass M = QEQT gilt. Beweis. Zunächst existiert eine orthogonale Matrix P, so dass M = PDPT gilt, wobei D = diag(λ1 , . . . , λn ) eine Diagonalmatrix ist mit den Eigenwerten aus M. Die Eigenwerte lassen sich nun so ordnen, dass in D zunächst die positiven, dann die negativen und schließlich der Eigenwert 0 gelistet werden. Dann definiere λi ≕ α2i λ j+p ≕ −β2j λk = 0 mit αi , β j > 0 und i = 1, 2, . . . , p; j = 1, 2, . . . , q; k = p + q + 1, . . . , n. Weiter sei D′ ≔ diag(α1 , . . . , α p , β1 , . . . , βq , 1, . . . , 1). Dann gilt D′ = (D′ )T und E = (D′ )−1 D(D′−1 )T . Daraus folgt schließlich M = PDPT = PD′ E(D′ )T PT = |{z} PD′ E(PD′ )T = QEQT . ≕Q Definition 2.1.7. (S M ). Für eine gegebene Matrix M ∈ Rn×n ist S M die Menge aller Matrizen mit der selben Signatur: S M = {N ∈ Rn×n | sign(N) = sign(M)}. Satz 2.1.8. (Der Tangentialraum von S M ). Der Tangentialraum T M S M von S M an einer symmetrischen Matrix M ∈ Rn×n besteht aus allen Matrizen der Form W M + MW T also: T M S M = {W M + MW T |W ∈ Rn×n }. Beweis. Nach Sylvesters Trägheitssatz 2.1.6 existiert zu jeder symmetrischen Matrix M ∈ Rn×n eine Matrix S ∈ GL(n) mit M = S T ΛS , wobei Λ = diag(1, . . . , 1, −1, . . . , −1, 0, . . . , 0) und sign(M) = (p, q, r). Betrachte nun eine beliebige differenzierbare Abbildung M : R −→ Rn×n , t 7−→ S(t)T ΛS(t) mit der Eigenschaft: M(0) = S(0)T ΛS(0) = S T ΛS = M und S(t) ∈ GL(n) für alle t ∈ R. Dann ist M eine beliebige differenzierbare Kurve im Raum S M , die durch M geht. Und für die Einheiten T ∈ T M S M des Tangentialraums von S M an M gilt: d T = M(t) t=0 dt d = S(t)T ΛS(t) t=0 dt ′ T = S (t) ΛS(t) + S(t)T ΛS′ (t) t=0 = S′ (0)T ΛS(0) + S(0)T ΛS′ (0) KAPITEL 2. LINEARE ALGEBRA 6 Also M′ (0) = S′ (0)T ΛS(0) + S(0)T ΛS′ (0) und daraus folgt: M′ (0) = S′ (0)T ΛS(0) + S(0)T ΛS′ (0) = S′ (0)T (S(0)T )−1 S(0)T ΛS(0) + S(0)T ΛS(0)(S(0))−1 S′ (0) | {z } | {z } | {z } M =:W M = W M + MW T Somit gilt: T M S M = {W M + MW T }. Es bleibt zu zeigen, dass W nun eine beliebige Matrix sein kann. Nach Festlegung ist W T = S(0)−1 S′ (0), woraus S(0)W T = S′ (0) folgt. Dies lässt sich in eine gewöhnliche Matrixdifferentialgleichung S(t)W T = S′ (t) mit S(0) = S umwandeln, die sich für alle W ∈ Rn×n , t ∈ R mit der Lösung: S(t) = exp(Wt)S lösen lässt. Satz 2.1.9. (Der Normalenraum von S M ). Der Normalenraum N M S M von S M an einer symmetrischen Matrix M ∈ Rn×n besteht aus: N M S M = {X ∈ S n (R)|MX = 0}. Beweis. Es sei W M+MW T ∈ T M S M , dann muss für Y ∈ N M S M gelten: hW M+MW T , Yi = 0. Es folgt: hW M + MW T , Yi = hW M, Yi + hMW T , Yi = trace (W M)T Y + trace (MW T )T Y = trace M T W T Y + trace W M T Y = trace Y MW T + trace W M T Y = trace W MY T + trace W M T Y = trace W MY T + W MY = trace W M(Y T + Y) . Die Gleichheit trace M T W T Y = trace Y MW T folgt aus Lemma 2.1.3. Und trace Y MW T = T T T trace W MY gilt wegen der Eigenschaft: trace A = trace A . Nun wähle für W ≔ (M(Y + Y))T und dann folgt: trace (M(Y T + Y))T M(Y T + Y) ≥ 0. Und es gilt: trace (M(Y T + Y))T M(Y T + Y) = 0 ⇐⇒ M(Y T + Y) = 0. Dann sei X ≔ Y T + Y und der Normalenraum besteht aus allen X mit MX = 0 und X ∈ S n (R). Definition 2.1.10. (V M ). Für eine gegebene Matrix M ∈ Rn×n ist V M die Menge aller Matrizen mit den selben Vorzeichen in jedem Eintrag, die von der Diagonalen verschieden sind: V M = {N ∈ Rn×n | sgn(Ni j ) = sgn(Mi j ), i, j ∈ {1, 2, . . . , n}, i , j}. Satz 2.1.11. (Der Tangentialraum von V M ). Der Tangentialraum T M V M von V M an einer symmetrischen Matrix M ∈ Rn×n besteht aus: T M V M = {sgn (Mi j ) ◦ Ai j |A ∈ S n (R), i , j}. Der Tangentialraum besteht aus allen Matrizen, die das selbe Muster aus Nullen, wie M, außerhalb der Diagonalen bilden. KAPITEL 2. LINEARE ALGEBRA 7 Beweis. Betrachte nun eine beliebige differenzierbare Abbildung M : R −→ S n (R), t 7−→ sgn Mi j ◦ A(t)i j mit i , j, wobei A(t)i j > 0 und M(0) = M. Dann ist M eine beliebige differenzierbare Kurve im Raum V M , die durch M geht. Und für die Einheiten T ∈ T M V M des Tangentialraums von V M an M gilt: d M(t) t=0 dt d = sgn(Mi j ) ◦ A(t)i j t=0 dt = sgn(Mi j ) ◦ A′ (0)i j T= Dieser Ausdruck gilt für alle i , j und dies ist gerade die Menge aller Matrizen mit den selben Muster aus Nullen, wie M, außerhalb der Diagonale. Satz 2.1.12. (Der Normalenraum von V M ). Der Normalenraum N M V M von V M an einer symmetrischen Matrix M ∈ Rn×n besteht aus: N M V M = {X ∈ S n (R)|Xi j = 0, falls i = j oder Mi j , 0}. Beweis. Es sei sgn(M) ◦ A ∈ T M V M , wobei das Signum die Diagonalen ignorieren soll, dann muss für X ∈ N M V M gelten: hsgn(M) ◦ A, Xi = 0. Daraus folgt dann hsgn(M) ◦ A, Xi = trace (sgn(M) ◦ A)T X = trace (sgn(M) ◦ A)X Da A eine beliebige symmetrische Matrix ist, definiere A ≔ X, dann ist trace (sgn(M) ◦ X)X ≥ 0 und dies wird nur 0, wenn bereits X = 0 ist oder sgn(M) ◦ X = 0 gilt. Und dies trifft zu, wenn Xi j = 0, falls i = j oder Mi j , 0. Definition 2.1.13. (Gewichtete Skalarprodukt). Es seien α, β, ω ∈ Rn drei Vektoren im Rn , dann ist das gewichtete Skalarprodukt h· , ·iω definiert durch: n X hα, βiω = αi βi ωi . i=1 Satz 2.1.14. Es sei D ∈ S n (R) eine positiv definite, symmetrische Matrix. Dann gilt: min{(D)ii } > 0. i Beweis. Da D eine symmetrische Matrix ist, lässt sie sich diagonalisieren. Es gilt: D = QT ΛQ. Wobei Λ eine Diagonalmatrix ist, bestehend aus den Eigenwerten EWD = {λ1 , λ2 , . . . , λn } von D ist. Und Q ist eine Orthogonalmatrix. Für Q = α1 α2 . . . αn mit αi ∈ Rn und i ∈ {1, . . . , n} gilt: λ1 (α1 )1 λ1 (α2 )1 · · · λ1 (αn )1 λ2 (α1 )2 λ2 (α2 )2 · · · λ2 (αn )2 ΛQ = . .. .. . .. . . . .. λn (α1 )n λn (α2 )n · · · λn (αn )n Und damit ist dann (QT ΛQ)i j = hαi , α j i(λ1 ,...,λn ) . KAPITEL 2. LINEARE ALGEBRA 8 Für die Diagonaleinträge folgt dann schließlich: (QT ΛQ)ii = n X (αi )2k λk . k=1 Und damit gilt dann (QT ΛQ)ii > 0, da für mindestens ein j gilt: (αi ) j , 0 andernfalls wäre αi = 0 und die Matrix Q wäre keine Orthogonalmatrix. Und für alle i gilt λi > 0, da D positiv definit ist. Somit ist dann (QT ΛQ)ii > 0. Satz 2.1.15. Es sei D ∈ S n (R) eine positiv definite, symmetrische Matrix für die gilt: (D)i j < 0 für alle i, j mit i , j. Dann folgt (D−1 )i j ≥ 0 für alle i, j. Beweis. Ohne Beschränkung der Allgemeinheit seien die Diagonaleinträge von D höchstens 1 1. Also (D)ii ≤ 1 für alle i. Andernfalls definiere D̃ ≔ maxi {(D D. Weiter gilt für die Diaii )} gonaleinträge, dass sie größer als 0 sind also (D)ii > 0 für alle i, siehe Satz 2.1.14. Dann definiere die Matrix B mit B ≔ I − D. Dann gilt (B)i j ≥ 0 für alle i, j. Aus 0 < (D)ii ≤ 1 folgt −1 < (D)ii − 1 ≤ 0 und daraus wiederum 1 > (B)ii ≥ 0. Und für den größten Eigenwert von B gilt: maxi λi (B) = 1−λ1 (D), wobei λ1 (D) der kleinste Eigenwert von D ist. Denn sei v ∈ Rn ein Eigenvektor zum Eigenwert λ1 (D), dann gilt: Bv = (I − D)v = Iv − Dv = v − λ1 (D)v = (1 − λ1 (D))v. Und sei w ∈ Rn der i-te Eigenvektor zu D, dann gilt: Bw = (1 − λi (D))w und es folgt wegen λ1 (D) ≤ λi (D), dass 1−λ1 (D) ≥ 1−λi (D) gilt. Und somit ist 1−λ1 (D) der größte Eigenwert zu D. Da D positiv definit ist, gilt λ1 (D) > 0 und somit 1 − λ1 (D) < 1. Es muss gezeigt werden, dass die Reihe ∞ X Bi i=0 konvergiert. Denn falls dies der Fall ist, ist die Matrix D invertierbar, nach dem Prinzip der Neumannschen Reihe [30]. Nach dem Quotientenkriterium muss gezeigt werden, dass √ limm→∞ m kBm k < 1 gilt. Für die von dem Skalarprodukt induzierten Metrik gilt: v t n X p p T λi (BT B). kBk = hB, Bi = trace(B B) = i=1 Es sei v ∈ Rn der i-te Eigenvektor zum Eigenwert λi (B). Dann gilt: BT Bv = BT (Bv) = BT λi (B)v. Da B symmetrisch ist, gilt BT = B und insgesamt folgt dann BT Bv = λi (B)2v. Für die induzierte Norm folgt dann schließlich: v t n X kBk = λi (B)2. i=1 KAPITEL 2. LINEARE ALGEBRA 9 Nun betrachte lim m→∞ p m kBm k = lim m→∞ p m trace((Bm )T Bm) p m trace(B2m ) v t n X = lim m λi (B)2m = lim m→∞ m→∞ i=1 m→∞ q m→∞ i n · max λi (B)2m i √ = lim max λi (B)2 m n ≤ lim m = lim max λi (B)2 nexp(log(−m)) m→∞ i = max λi (B)2 lim nexp(log(−m)) m→∞ i | {z } =1 = max λi (B) 2 i < 1. Somit konvergiert P∞ i=0 i B und für die Inverse von D gilt: D−1 = (I − B)−1 = ∞ X Bi = I + B + B2 + B3 + . . . . i=0 Da (B)i j ≥ 0 für alle i, j gilt, folgt daraus, dass (I + B + B2 + . . .)i j ≥ 0 für alle i, j gilt. Und damit auch für (D−1 )i j ≥ 0 für alle i, j. Bemerkung: Falls im folgenden von einer Matrix gesprochen wird, die nur einen negativen Eigenwert der Vielfachheit 1 hat, ist damit die Eigenschaft gemeint, dass die Matrix nur einen negativen Eigenwert besitzt und dieser hat nur die Vielfachheit 1. Da sonst nicht ausgeschlossen ist, dass die Matrix noch andere negative Eigenwerte haben könnte mit einer größeren Vielfachheit als 1. Satz 2.1.16. Es sei M ∈ S n (R) mit der Eigenschaft, dass M nur einen negativen Eigenwert λ1 der Vielfachheit 1 hat. Es sei v1 ∈ Rn ein Eigenvektor zu M mit Eigenwert λ1 und weiter sei y ∈ Rn mit: hy, v1 i=0. Dann folgt: hy, Myi ≥ 0. Beweis. Da die Eigenvektoren vi von M eine Orthogonalbasis bilden mit zugehörigen Eigenwerten λi , lässt sich y als Linearkombination der vi darstellen: n X y= αi vi . i=1 Da nun gilt: hy, v1 i = 0 impliziert dies α1 = 0, da 0 = hy, v1 i = und hv1 , v1 i , 0. Weiter folgt nun: n n X DX E hy, Myi = αi vi , M αi vi i=2 = n DX i=2 = n X i=2 ≥ 0. i=2 αi vi , n X αi λi vi i=2 α2i λi hvi , vi i E Pn i=1 αi hvi , v1 i = α1 hv1 , v1 i KAPITEL 2. LINEARE ALGEBRA 10 Da M nur einen negativen Eigenwert λ1 hat, folgt λi ≥ 0, für alle i , 1 und somit folgt ebenfalls die Behauptung. Definition 2.1.17. (Permutationsmatrix). Es sei P ∈ Rn×n eine Permutationsmatrix, sofern P in jeder Zeile und Spalte genau einen Eintrag 1 hat und sonst nur die 0. Definition 2.1.18. (Reduzibilität). Es sei A eine symmetrische Matrix A ∈ S n (R). A heißt reduzibel, falls es eine Permutations! B C matrix P ∈ Rn×n gibt, so dass PT AP die Form hat, wobei B und D symmetrische 0 D Matrizen sind, sonst heißt A irreduzibel. Theorem 2.1.19. (Perron-Frobenius Theorem). Es sei A eine symmetrische, irreduzible Matrix A ∈ S n (R) mit Einträgen ai j ≥ 0 für alle i, j = 1, 2, . . . , n und sei λ der größte Eigenwert, weiter sei µ ein anderer Eigenwert, dann gilt: (i) λ > 0, (ii) der zu λ zugehörige Eigenvektor x, kann so gewählt werden, dass für alle Einträge xi > 0 gilt, für alle i = 1, 2, . . . , n, (iii) λ hat die Vielfachheit 1, (iv) λ ≥ |µ|. Beweis. Der Beweis erfolgt nach [18]. (i) Da die Summe aus allen Eigenwerten einer Matrix gleich der Spur der Matrix ist, folgt trace(A) ≥ 0, da ai j ≥ 0 für alle i, j = 1, 2, . . . , n gilt. Und somit folgt λ ≥ 0. Es sei u ein zu λ zugehöriger Eigenvektor mit der Länge 1. Dann folgt: λu = Au. Dann definiere einen Vektor x mit (x)i = |(u)i |. Und es folgt: 0 ≤ λ = hu, Aui ≤ hx, Axi ≤ λ. Die letzte Ungleichung folgt aus dem Variationstheorem. Somit ist x ebenfalls ein Eigenvektor zum Eigenwert λ: λx = Ax. Angenommen λ wäre gleich 0, also λ = 0. Dann würde ai j = 0 für alle i, j = 1, 2, . . . , n folgen, solange (x) j , 0 ist. Nach Permutation der Indizes lässt sich > 0, für i = 1, 2, . . . , m xi = 0, für i > m schreiben. Dann würde daraus und aus Ax = 0 folgen, dass ai j = 0, für j ≤ m gilt. Was die Reduzibilität von A zur Folge hätte. Ein Widerspruch somit folgt: λ > 0. (ii) Es sei x wie oben. Falls (x)i = 0 nach Permutation für alle i > m, dann würde aus λx = Ax die Gleichung m X ai j x j = 0 j=1 mit i > m folgen. Und dies hätte ai j = 0 für i > m ≥ j zur Folge, was der Reduzibilität von A entspräche. Somit gilt (x)i > 0 für alle i = 1, 2, . . . , n. (iii) Angenommen λ hätte nicht die Vielfachheit 1. Dann gebe es zwei orthonormale Eigenvektoren u und v zum Eigenwert λ. Nach [25] schreibt man X λ((u)i + |(u)i |) = ai j ((u) j + |(u) j|) j=1 KAPITEL 2. LINEARE ALGEBRA 11 und dies impliziert entweder (u)i +|(u)i | = 0 für alle i = 1, 2, . . . , n oder (u)i +|(u)i | > 0 für alle i = 1, 2, . . . , n. Dies wird analog auf v angewendet und daraus folgt, dass u und v nicht orthogonal sein können. (iv) Es sei w ein zum Eigenwert µ zugehöriger Eigenvektor der Länge 1. Es gilt also µw = Aw. Nach Voraussetzung ist λ > µ. Und nach dem Variationstheorem folgt X X ai j |(w)i ||(w) j | ≥ | ai j (w)i (w) j | = |µ|. λ≥ i, j i, j Theorem 2.1.20. (Cauchys-Zwischenwert Theorem). Es sei A eine symmetrische (hermitesche) Matrix A ∈ S n (R) und sei B ∈ R(n−1)×(n−1) eine Untermatrix von A. Für die Eigenwerte von A gilt λ1 ≥ λ2 ≥ · · · ≥ λn und für die Eigenwerte von B gilt ebenfalls µ2 ≥ µ3 ≥ · · · ≥ µn . Dann folgt: λ1 ≥ µ2 ≥ λ2 ≥ · · · ≥ µn ≥ λn . Beweis. Der Beweis erfolgt nach [14]. Es lässt sich annehmen, dass die Untermatrix B die Reihen und Spalten 2, 3, . . . , n beinhaltet, ansonsten liesse sich durch Permutation der Reihen und Spalten von A dies erreichen. A hat also folgende Gestalt: ! a yT A= . y B Weiter sei D = diag(µ2 , µ3 , . . . , µn ). Da B ebenfalls eine symmetrische Matrix ist, existiert eine orthogonale Matrix U mit U ∈ R(n−1)×(n−1) , so dass U T BU = D gilt. Und sei Uy = z = (z2 , z3 , . . . , zn )T . Zunächst wird das Theorem für den speziellen Fall µ2 > µ3 > · · · > µn und zi , 0 für alle i = 2, 3, . . . , n bewiesen. Sei ! 1 0T V≔ , 0 U wobei 0 den Nullvektor entspricht. Dann ist V ebenfalls eine symmetrische Matrix und ! a zT T V AV = . z D Sei f (x) ≔ det(xI − A) = det(xI − V T AV). Dann entwickle die Determinante entlang der ersten Zeile nach dem Laplaceschen Entwicklungssatz und man erhält f (x) = (x − a)(x − µ2 ) · · · (x − µn ) − n X fi (x), i=2 wobei fi (x) = z2i (x−µ2 ) · · · (x[ − µi ) · · · (x−µn ) für alle i = 2, 3, . . . , n. Weiterhin gilt fi (µ j ) = 0 sofern j , i und > 0, wenn i gerade, fi (µi ) = < 0, wenn i ungerade. Und damit < 0, wenn i gerade, f (µi ) = > 0, wenn i ungerade. Für alle i = 2, 3, . . . , n. Da f (x) ein Polynom vom Grad n ist und einen positiven Leitkoeffizienten hat, folgt nach dem Zwischenwertsatz die Existenz von n Nullstellen λ1 , λ2 , . . . , λn , so dass λ1 > µ2 > λ2 > · · · > µn > λn . KAPITEL 2. LINEARE ALGEBRA 12 Für den allgemeinen Fall, sei ǫ1 , ǫ2 , . . . eine positive Nullfolge, so dass zi + ǫk , 0 für alle i = 2, 3, . . . , n und k = 1, 2, . . . und die Diagonaleinträge von D + ǫk diag(2, 3, . . . , n) sind für jede Konstante k eindeutig. Für k = 1, 2, . . . sei ! a z(ǫk )T Ck ≔ , z(ǫk ) D(ǫ) wobei z(ǫk ) = z + ǫk (1, 1, . . . , 1)T und D(ǫk ) = D + ǫk diag(2, 3, . . . , n). Weiter sei Ak = k→∞ (k) (k) VCk V T , dann ist Ak symmetrisch und Ak −−−−→ A. Seien λ(k) 1 ≥ λ2 ≥ · · · ≥ λn die Eigenwerte von Ak . Dann gilt: (k) (k) λ(k) 1 > µ2 + 2ǫk > λ2 > · · · > µn + nǫk > λn . (n) (k) Da λ(k) 1 , λ2 , . . . , λk die eindeutigen Nullstellen von fk (x) = det(xI − Ak ) für alle k sind und k→∞ (k) (k) fk (x) = det(xI−Ak ) ausreichend dicht an f (x) = det(xI−A) ist, folgt (λ(k) −−−→ 1 , λ2 , . . . , λn ) − (λ1 , λ2 , . . . , λk ) und damit das Theorem. Satz 2.1.21. Es sei A eine Matrix A ∈ Rn×n mit rank(A) = 1. Nach [26] existieren dann zwei Vektoren x, y ∈ Rn , so dass gilt: A = xyT . Beweis. Es sei A = a1 a2 · · · an mit ai ∈ Rn . Falls rank(A) = 1 gilt, folgt a1 = αi ai mit αi ∈ R. Dann wähle x ≔ (1, α2 , α3 , . . . , αn ) und y ≔ a1 . Und dann gilt A = xyT . Satz 2.1.22. Es sei A eine symmetrische Matrix A ∈ S n (R) mit rank(A) = 1, dann existiert ein Vektor y ∈ Rn , so dass gilt: A = sgn(a11 )yyT . Beweis. Es sei A = a1 a2 · · · an mit ai ∈ Rn . Falls rank(A) = 1 gilt, folgt a1 = αi ai mit αi ∈ R, sofern nun A symmetrisch ist, folgt aus a1 j = a j1 und a11 = α j a j1 schließlich αj = Es sei y≔ √ |a11 | a11 . a1 j √a12 |a11 | ··· √a1n |a11 | , wobei a11 , 0, da sonst A = 0 gelten würde. Es bleibt A = sgn(a11 )yyT zu zeigen. Es ist (sgn(a11 )yyT )i j = sgn(a11 ) Weiter ist ai j = a1i a1 j . |a11 | a1 j a1 j a1 j = . αi a11 Somit folgt ai j = (sgn(a11 )(yyT ))i j , was zu zeigen war. Satz 2.1.23. Es sei M ∈ S n (R) mit der Eigenschaft, dass M nur einen negativen Eigenwert λ1 der Vielfachheit 1 hat. Es sei v1 ∈ Rn ein Eigenvektor zu M mit Eigenwert λ1 . Dann sind folgende Aussagen äquivalent: • hx, v1 i = 0 und hx, Mxi = 0 • x ∈ ker(M). KAPITEL 2. LINEARE ALGEBRA 13 Beweis. Es wird zunächst gezeigt, dass aus hx, v1 i = 0 und hx, Mxi = 0, x ∈ ker(M) folgt. Da die Eigenvektoren vi von M eine Orthogonalbasis bilden mit zugehörigen Eigenwerten λi , lässt sich x als Linearkombination darstellen: x= n X αi vi . i=1 P Dies impliziert wie im Beweis von Satz 2.1.16: α1 = 0 und hx, Mxi = ni=2 α2i λi hvi , vi i = 0 nach der Voraussetzung. Da M nur einen negativen Eigenwert λ1 hat, folgt λi ≥ 0, für alle i , 1. Um die Gleichung hx, Mxi = 0 zu erfüllen, muss es eine Teilmenge I von {2, 3, . . . , n} also I ⊂ {2, 3, . . . , n} geben, so dass λI = 0 gilt und damit α{2,3,...,n}\I = 0 folgt. Wobei λI = 0 meint, dass für alle i ∈ I: λi = 0 gilt. Daraus ergibt sich: X x= αi vi . i∈I Und somit ist x eine Linearkombination aus Eigenvektoren mit Eigenwert 0. Und damit folgt x ∈ ker(M). Es wird nun die verbleibende Rückrichtung gezeigt. Sei nun x ∈ ker(M), dann folgt hx, v1 i = 0, da die Eigenvektoren eine Orthogonalbasis bilden. Weiter folgt aus Mx = 0 auch hx, Mxi = 0. Satz 2.1.24. Es sei M eine Matrix M ∈ Rn×n mit den Einträgen Mi j = −1, dann folgt: det(M − λI) = (−1)n (nλn−1 + λn ). Beweis. Für die Matrix M gilt rank(M) = 1, daraus folgt corank(M) = n − 1. Das charakteristische Polynom ist ein normiertes Polynom mit Nullstellen, die den Eigenwerten entsprechen. Ist n ungerade, so ist der Leitkoeffizient −1 andernfalls 1. Sei x ∈ Rn ein Eigenvektor und λ ein von 0 verschiedener Eigenwert von M zu x, dann gilt Mx = λx. Daraus folgen für i = 1, 2, . . . , n die n verschiedenen Gleichungen: λxi = − n X xk . k=1 Durch Addition dieser Gleichungen folgt: λ n X i=1 xi = −n n X xk . k=1 P Da der Eigenwert von 0 verschieden ist folgt nk=1 xk , 0 und daraus folgt wieder: λ = −n. Und somit folgt für das charakteristische Polynom: (−1)n (λ)n−1 (λ + n) = (−1)n(nλn−1 + λn ). Satz 2.1.25. Es sei M eine symmetrische Matrix M ∈ S n (R) mit ! 0 A M= T , A 0 wobei A ∈ R p×q mit den Einträgen ai j = −1 und p + q = n. Dann folgt: det(M − λI) = (−1)n (λn − pq · λn−2 ). Beweis. Für die Matrix M gilt rank(M) = 2, daraus folgt corank(M) = n − 2. Das charakteristische Polynom ist ein normiertes Polynom mit Nullstellen, die den Eigenwerten KAPITEL 2. LINEARE ALGEBRA 14 entsprechen. Ist n ungerade, so ist der Leitkoeffizient −1 andernfalls 1. Sei x ∈ Rn ein Eigenvektor und λ ein von 0 verschiedener Eigenwert von M zu x, dann gilt Mx = λx. Man erhält die n verschiedenen Gleichungen: λxi = − λx j = − n X xk k=p+1 p X xk , k=1 wobei i = 1, 2, . . . , p und j = p + 1, p + 2, . . . , n gilt. Durch Addition dieser Gleichungen über i beziehungsweise j folgt: λ p X xi = −p i=1 λ n X i=p+1 n X xk k=p+1 xi = −q p X xk . k=1 P Pp Da der Eigenwert von 0 verschieden ist folgt nk=p+1 xk , 0 sowie k=1 xk , 0. Nach Multiplikation der beiden Gleichungen und Division der Summen folgt dann: λ2 p X i=1 xi n X i=p+1 xi = p · q n X k=p+1 λ2 = p · q. xk p X xk k=1 √ Und daraus folgt wieder: λ1/2 = ± p · q. Und somit folgt für das charakteristische Polynom: (−1)n (λ)n−2 (λ2 − pq) = (−1)n (λn − pq · λn−2 ). Kapitel 3 Graphentheorie 3.1 Grundlegendes Dieses Kapitel ist eine weitere Brücke zwischen den Grundlagen der Graphentheorie und den Resultaten aus den späteren Kapitel. Hier werden zunächst einfache Definition wie Graphen, vollständige Graphen und vollständig bipartite Graphen geklärt. Abgesehen von diesen grundlegenden Definitionen werden andere Begrifflichkeiten, wie zum Beispiel der Grad eines Knoten u, die Anzahl der zu u adjazenten Knoten, nicht weiter ausgeführt. Definition 3.1.1. (Graph). Ein Graph G ist ein Paar (V, E) aus einer endlichen Menge V = V(G) und einer Teilmenge E = E(G) ⊆ V2 = {{u, v}| u, v ∈ V, u , v}. Dabei bezeichnet V die Knoten- und E die Kantenmenge. Definition 3.1.2. (vollständige Graphen). Es sei G ein Graph. G ist ein vollständiger Graph, falls E(G) = V2 gilt. Vollständige Graphen mit n Knoten werden mit Kn bezeichnet. Siehe hierzu Abbildung 3.1. Definition 3.1.3. (Komplementärgraphen). Es sei G ein Graph. Der Komplementärgraph G ist dabei definiert als ! ! V(G) G = V(G), \ E(G) . 2 Der Komplementärgraph G besteht aus allen Knoten von G und allen Kanten, die nicht in G liegen, siehe dazu Abbildung 3.2. Definition 3.1.4. (bipartite Graphen). Es sei G ein Graph. G ist ein bipartiter Graph, falls sich die Knotenmenge in zwei disjunkte Mengen aufteilen lässt, so dass innerhalb dieser Menge zwei Knoten nicht adjazent sind. Definition 3.1.5. (vollständig bipartite Graphen). Es sei G ein bipartiter Graph. G ist ein vollständig bipartiter Graph, falls jeweils zwei Knoten aus zwei disjunkten Knotenmengen adjazent sind. Vollständige bipartite Graphen werden mit Kn,m bezeichnet, dabei bedeutet m die Mächtigkeit der einen Knotenmenge und n die Mächtigkeit der anderen Knotenmenge, siehe hierzu Abbildung 3.3. Definition 3.1.6. (Pfad). Es sei G ein Graph. G ist ein Pfad, falls die Knotenmenge aus einer endlichen Folge von Kanten {vi , vi+1 } besteht, so dass vi , v j mit i , j und das der Knoten vi nur mit dem Knoten vi−1 und vi+1 adjazent ist. Der erste Knoten v1 der Folge ist dabei nur mit v2 adjazent und der letzte Knoten vn der Folge ist dabei nur mit dem Knoten vn−1 adjazent. Siehe dazu Abbildung 3.4. KAPITEL 3. GRAPHENTHEORIE 16 Abbildung 3.1: Der vollständige Graph K30 . (a) G (b) G Abbildung 3.2: Der Graph G ist in Abbildung (a) dargestellt. Die grauen Kanten repräsentieren dabei die fehlenden Kanten um einen K6 zu erhalten. Diese bilden dann wie in Abbildung (b) gezeigt, denn Komplementärgraphen G. Abbildung 3.3: Der vollständig bipartite Graph K17,9 . KAPITEL 3. GRAPHENTHEORIE 17 2 1 3 n Abbildung 3.4: Ein Pfad mit n Knoten Definition 3.1.7. (induzierte Untergraph). Ein Graph H = (W, F) heißt Untergraph von G = (V, E), wenn W ⊆ V und F ⊆ E ∩ W2 gilt. Für W ⊆ V heißt ! W H = W, E ∩ 2 der von W induzierte Untergraph. Definition 3.1.8. (Nachbar N). Es sei G = (V, E) ein Graph. Weiter sei S ⊂ V eine Teilmenge der Knoten von G, dann bezeichnet N(S ) ≔ {v | {v, w} ∈ E, v < S , w ∈ S } die Nachbarn der Teilmenge S . Definition 3.1.9. (Minor). Ein Graph H heißt Minor von G, falls • H aus G nach dem Entfernen eines isolierten Knotens oder • H aus G nach dem Kontrahieren einer Kante oder • H aus G nach dem Entfernen einer Kante hervorgegangen ist. Allerdings werden beim Kontrahieren Mehrfachkanten durch eine Kante ersetzt. Definition 3.1.10. (zusammenhängend). Es sei G ein Graph. G ist ein zusammenhängender Graph, falls es für je zwei seiner Knoten einen Weg gibt, der beide Knoten verbindet. Definition 3.1.11. (k-zusammenhängend). Es sei G ein zusammenhängender Graph. G ist k-zusammenhängend, falls |V(G)| > k gilt und durch Entfernen von weniger als k Knoten, der Graph zusammenhängend bleibt. Bemerkung: Dies bedeutet auch, dass es zwischen zwei verschiedenen Knoten mindestens k Knoten-disjunkte Pfade geben muss, die beide Knoten verbinden. Definition 3.1.12. (Brücke). Es sei G ein zusammenhängender Graph. Zwei adjazente Knoten in G bilden eine Brücke, falls durch Entfernen der verbindenden Kante der Graph in zwei Zusammenhangskomponenten zerfällt. Definition 3.1.13. (Block). Es sei G ein Graph. Ein Block ist ein maximal 2-zusammenhängender Untergraph von G oder eine Brücke. Definition 3.1.14. (Baum). Es sei G ein Graph. G ist ein Baum, falls er zusammenhängend ist und keinen Kreis enthält. KAPITEL 3. GRAPHENTHEORIE 18 (a) n = 2 (b) n = 3 (c) n=4 Abbildung 3.5: Die möglichen Kombinationen von aufspannenden Bäumen für n = 2, 3, 4. Satz 3.1.15. (Cayley-Formel). Die Anzahl aufspannender Bäume auf n ≥ 2 Ecken beträgt: nn−2 . Siehe dazu Abbildung 3.1.15. Beweis. Der Beweis erfolgt mit dem Prüfer-Code. Dabei wird eine Bijektion von einer Zahlenmenge mit nn−2 Elementen zu der Menge der aufspannenden Bäume konstruiert. Sei ein Baum G mit durchnummerierten Knoten gegeben. Im ersten Schritt wird ein Blatt v, ein Knoten mit Grad 1, mit minimaler Nummer gesucht. Die Nummer des Nachbar ist a1 und somit auch die erste Zahl in der Zahlenfolge. Im zweiten Schritt wird das Blatt v und die inzidente Kante entfernt. Man erhält einen Baum auf n − 1 Knoten. Nun wiederholt man dieses Vorgehen (n − 2)-mal. Man erhält eine Zahlenfolge (a1 , a2 , . . . , an−2 ). Siehe dazu Abbildung 3.6. KAPITEL 3. GRAPHENTHEORIE 19 1 5 2 3 7 3 4 5 2 4 6 6 (a) 5 2 7 (b) 7 5 4 7 4 6 (c) 6 (d) Abbildung 3.6: In Abbildung (a) ist 1 das kleinste nummerierte Blatt und 2 ist der Nachbar von 1. Deswegen lautet in diesem Schritt die Zahlenfolge (2). Im zweiten Schritt wurde der Knoten 1 entfernt sowie die inzidente Kante. Das kleinste Blatt ist nun 3 und dieses Blatt ist mit Knoten 2 adjazent. Die aktuelle Zahlenfolge lautet nun: (2, 2). In Abbildungen (c) und (d) sind die kleinsten Blätter rot dargestellt. Die Zahlenfolge lautet erst (2, 2, 5) für Abbildung (c) und (2, 2, 5, 6) für Abbildung (d). Durch weitere Durchführung der Vorschrift lautet die Zahlenfolge am Ende: (2, 2, 5, 6, 5). Im Folgenden soll nun aus einer gegebenen Zahlenfolge der ursprüngliche Baum rekonstruiert werden. Sei nun eine Zahlenfolge (a1 , a2 , . . . , an−2 ) gegeben. Damit erhält meine eine inverse Zuordnung von der Zahlenfolge zu dem Baum. Im ersten Schritt sucht man das minimale b1 , welches nicht in der Zahlenfolge (a2 , . . . , an−2 ) enthalten ist. Somit bekommt man eine Kante {b1 , a1 }. Im zweiten Schritt sucht man das minimale b2 , b1 , welches nicht in der Zahlenfolge vorkommt. Und so erhält man schließlich die Kante {b2 , a2 }. Diese Schritte werden nun wiederholt. Siehe dazu Abbildung 3.7. Für Details siehe [1, Kapitel 7]. Definition 3.1.16. (Kantenfärbung). Sei G = (V, E) ein Graph und c eine Abbildung c : E → {1, 2, . . . , n} mit n ∈ N, so nennt man c eine Kantenfärbung von G mit n Farben, falls für zwei benachbarte Kanten e1 und e2 gilt c(e1 ) , c(e2 ) und c−1 {k} , ∅ für alle k ∈ {1, 2, . . . , n}. Definition 3.1.17. (chromatische Zahl χ′ ). Sei G = (V, E) ein Graph. Das kleinste k ∈ N, für das eine Kantenfärbung c : E → {1, 2, . . . , k} existiert, nennt man die chromatische Zahl. Das k wird mit χ′ (G) bezeichnet. Definition 3.1.18. (∆, δ). Sei G = (V, E) ein Graph. Dann ist: • δ(G) ≔ minv∈V | N(v)|, • ∆(G) ≔ maxv∈V | N(v)|. Definition 3.1.19. (Regulär). Ein Graph G = (V, E) heißt k-regulär, falls k = | N(v)| für alle v ∈ V gilt. KAPITEL 3. GRAPHENTHEORIE 20 1 1 2 2 3 (a) (b) 1 1 2 5 5 2 3 3 7 4 6 (c) (d) Abbildung 3.7: Sei nun umgekehrt die Zahlenfolge (2, 2, 5, 6, 5) gegeben. Die kleinste Zahl die nicht in der Zahlenfolge vorkommt ist die 1. Somit Ist die erste Kante mit {1, 2} gegeben, siehe dazu Abbildung (a). Die Zahlenfolge lautet nun (2, 5, 6, 5). Die kleinste die nicht in der Zahlenfolge vorkommt und nicht 1 ist, lautet 3. Somit wird nun in Abbildung (b) die Kante {2, 3} hinzugefügt. Die aktuelle Zahlenfolge ist (5, 6, 5). Die Zahl 2 taucht nicht in der Zahlenfolge auf und ist auch keine der bereits benutzten Zahlen 1 und 3. Somit wird nun die Kante {2, 5} hinzugefügt, siehe Abbildung (c). Die Abbildung (d) zeigt, dass nach Ausführung der Bildungsvorschrift wieder der ursprüngliche Graph zu sehen ist. (a) (b) (c) Abbildung 3.8: In der Abbildung (a) ist ein Graph mit einer Kantenfärbung auf 4 Farben gegeben. In der Abbildung (b) und (c) ist ein bunter Weg der Länge 3 und 5 zu sehen. KAPITEL 3. GRAPHENTHEORIE 21 Definition 3.1.20. (Weg). Sei G = (V, E) ein Graph. Ein Weg in G ist eine Folge (vi , vi+1 ) von Ecken aus V, so dass vi und vi+1 adjazent sind. Sei ein Weg W mit der adjazenten Eckenfolge v1 , v2 , . . . , vn geben, dann hat W die Länge n. Definition 3.1.21. (bunter Weg). Sei G = (V, E) ein Graph mit einer Kantenfärbung c auf k Farben. Weiter sei ein Weg W der Länge n mit einer Folge (vi , vi+1 ) von adjazenten Ecken sowie deren Kanten e1 = {v1 , v2 }, e2 = {v2 , v3 }, . . . , en−1 = {vn−1 , vn } gegeben. Der zugehörige Farbraum der Kanten aus W seien durch CW ≔ {c(ei ) | 1 ≤ i ≤ k} definiert. Der Weg W heißt bunt, falls |CW | = n − 1 gilt. Siehe dafür Abbildung 3.8. Bemerkung: Man beachte, dass die Definition des bunten Weges nicht die Möglichkeit ausschließt, dass auch Kreise enthalten sein können. Theorem 3.1.22. (Vizings Theorem). Für jeden Graphen G gilt: ∆(G) ≤ χ′ (G) ≤ ∆(G) + 1. Beweis. Der Beweis erfolgt in [7, Kapitel 4] mittels Induktion nach der Anzahl der Kanten. Theorem 3.1.23. Sei G = (V, E) ein zusammenhängender n-regulärer Graph mit einer Kantenfärbung c auf n + 1 Farben. Dann gibt es einen bunten Weg W der Länge n + 2. Beweis. Im Folgenden wird gezeigt, dass sich aufgrund der Voraussetzung ein bunter Weg W ′ der Länge n+1 finden lässt. Sei e1 = {v1 , v2 } ∈ E eine Kante der Farbe c1 ≔ c(e1 ). Dann füge die Kante e1 zum Weg W ′ hinzu. Der zugehörige Farbraum ist dann CW ′ = {c1 }. Da G ein n-regulärer Graph ist, hat die Ecke v2 genau n Nachbarn. Wähle eine Ecke v3 , v1 , dann hat die Kante e2 = {v2 , v3 } die Farbe c2 ≔ c(e2 ) mit c2 , c1 . Die Kante e2 wird dann zu W ′ erneut hinzugefügt. Der Farbraum wird durch die Farbe c2 erweitert und lautet CW ′ = {c1 , c2 }. Durch erneutes Anwenden hat die Ecke v3 ebenfalls n Nachbarn und somit n − 2 inzidente Kanten mit einer Farbe, die noch nicht im Farbraum liegen. Die Kante wird erneut zu W ′ hinzugefügt. Im i-ten Schritt hat W ′ genau i − 1 Kanten. Die letzte Kante die hinzugefügt wurde lautet ei−1 = {vi−1 , vi }. Der Farbraum aus W ′ besteht aus i − 1 Farben. Die Ecke vi hat wiederum n Nachbarn. Dann wähle die Kante mit einer Farbe aus, die noch nicht im Farbraum liegt. Sofern i < n gilt, kann man immer eine Farbe in den Farbraum hinzufügen, da es immer mehr Nachbarn als bereits verwendete Farben gibt. Im (n − 1)ten Schritt wurde als letztes die Kante en−1 = {vn−1 , vn } hinzugefügt und somit besteht der Farbraum aus n − 1 Farben. Die Ecke vn hat wiederum n Nachbarn also gibt es eine Kante en = {vn , vn+1 }, die zu vn inzident ist, mit einer Farbe, die noch nicht in CW ′ liegt. Es wurde gezeigt, dass es mindestens einen bunten Weg W ′ der Länge n + 1 gibt. Es wird nun angenommen, das der Graph G keinen bunten Weg W der Länge n + 2 enthält. Sei wieder ein bunter Weg W ′ der Länge n + 1 gegeben. Weiter gibt es eine Kante e, die zu W ′ inzident ist aber nicht in W ′ liegt. Dann soll im Folgenden eine Vorschrift vorgestellt werden, wie man einen neuen bunten Weg W ′′ der Länge n + 1 erhält, der die Kante e enthält. Sei ein bunter Weg W mit deren zugehörigen Kanten e1 = {v1 , v2 }, e2 = {v2 , v3 }, . . . , en = {vn , vn+1 } gegeben. Der Farbraum ist durch CW ′ = {c1 , c2 , . . . , cn } gegeben. Die Kante e sei zu vi inzident. Zunächst wird allerdings gezeigt, dass c(e) , cn+1 sein muss. Lemma 3.1.24. Sei ein bunter Weg W ′ der Länge n + 1 gegeben, dann kann nach Voraussetzung keine Kante e existieren, die zu W ′ inzident ist und eine Farbe enthält, die nicht im Farbraum von W ′ liegt. KAPITEL 3. GRAPHENTHEORIE c1 22 c2 c3 cn+1 cn ci (a) W ′ c3 cn+1 c1 cn ci c2 (b) W ′ cn+1 ci cn c1 c2 c3 ci−1 (c) W ′ Abbildung 3.9: In Abbildung (a) ist ein Weg W ′ zu sehen. Es wurde angenommen, dass W ′ zu einer Kante inzident ist, die die Farbe cn+1 trägt. Es werden die ersten Kanten entfernt und Kanten der gleichen Farben ans Ende hinzugefügt, siehe Abbildung (b). Dies wird so lange fortgesetzt, bis man schließlich an den Knoten angelangt ist, der zu der Kante mit der Farbe cn+1 inzident ist. Man erhält einen bunten Weg der Länge n + 2. Beweis. Angenommen die Farbe der Kante e sei cn+1 . Da angenommen wurde, dass der Graph G keinen bunten Weg W der Länge n + 2 enthält, müssen die inzidenten Kanten, der Ecke vn+1 , Farben aus CW ′ enthalten, denn falls eine Kante en+1 mit der Farbe cn+1 dabei wäre, könnte man den Weg W ′ um diese Kante erweitern und man erhält einen bunten Weg der Länge n + 2. Dies ergibt einen Widerspruch nach Voraussetzung. Folglich müssen die inzidenten Kanten, der Ecke vn+1 , Farben aus CW ′ enthalten. Der Weg W ′ erhält nun die neue Kante en+1 , die die Farbe c1 besitzt und schließlich wird die Kante e1 mit der Farbe c1 aus W ′ entfernt. Diese Verfahren wird nun so lange angewendet, bis vi die erste Ecke des Weges W ′ ist. An vi ist schließlich die Kante e inzident. Hätte nun e die Farbe cn+1 zugeordnet bekommen, könnte man W ′ mit e erweitern und somit würde man einen bunten Weg der Länge n + 2 erhalten. Dies ergibt erneut einen Widerspruch zur Voraussetzung. Siehe dazu die Abbildung 3.9. Es wird nun die Vorschrift vorgestellt, wie man einen neuen bunten Weg W ′′ der Länge n+1 aus W erhält, der die inzidente Kante e enthält sowie den gleichen Farbraum CW = CW ′ besitzt. Zur Erinnerung, der Weg W ′ sei durch die Kanten e1 = {v1 , v2 }, e2 = {v2 , v3 }, . . . , en = {vn , vn+1 } sowie durch den zugehörigen Farbraum CW ′ = {c1 , c2 , . . . , cn } gegeben mit ci ≔ c(ei ). Die Kante e ist zu der Ecke vi inzident und besitzt die Farbe c j ∈ CW ′ . Ohne Beschränkung der Allgemeinheit sei c j ∈ {c1 , c2 , . . . , ci−1 } ansonsten kehre die Nummerierung KAPITEL 3. GRAPHENTHEORIE 23 der Farben um. Nach dem Beweis des Lemmas 3.1.24, lässt sich W ′ so abändern, dass an die letzte Ecke vn+1 eine Kante hinzugefügt wird, die die Farbe c1 trägt. Dann wird die Kante en+1 hinzugefügt und die Kante e1 entfernt. Dieses Verfahren wird sukzessiv durchgeführt, bis die erste Kante e j in W ′ die Farbe c j trägt. Die Kante e ist nach Voraussetzung zu den Ecken vi und v < V(W ′ ) inzident. Der Weg W ′′ soll nun durch Kanten an der Ecke v erweitert werden. Der Graph G ist n-regulär folglich hat die Ecke v genau n Nachbarn. Abzüglich der Kante e lässt sich W ′′ durch eine von n −1 möglichen Kanten an v erweitern. Der Weg W ′′ besteht im aktuellen Schritt des Verfahrens aus den Kanten e = {v, vi }, ei = {vi , vi+1 }, . . . , en = {vn , vn+1 }, en+1 = {vn+1 , vn+2 }, . . . , en+ j−1 = {vn+ j−1 , vn+ j }. Der Farbraum von W ′′ besteht somit aus 1 + (n − i + 1) + j − 1 = n − i + j + 1 Farben. Schlussfolgernd fehlen noch i − j − 1 Farben um einen bunten Weg der Länge n + 1 zu erhalten. Nach Voraussetzung ist c j ∈ {c1 , c2 , . . . , ci−1 } und somit i − j − 1 ≥ 0. An der Ecke v gibt es n mögliche Farben, der Farbraum besteht aus n −i+ j+1 Farben des weiteren soll nicht die Farbe cn+1 hinzugefügt werden. Somit verbleiben n − (n − i + j + 1) − 1 = i − j Farben zur Auswahl. Es gilt i − j > 0, wähle eine Kante e′ = {v, v′ } mit einer verbleibende Farbe hinzu. An der Ecke v′ gibt es nun n − (n − i + j + 1 + 1) − 1 = i − j − 1 verbleibende Farben zur Auswahl. Es werden immer Kanten einer neuen noch nicht vergebenen Farbe hinzugefügt bis man keine neue Kante anhängen kann. Dann kann man wiederum die Kante mit der letzten verbleibende Farbe an der Ecke vn+ j anhängen. Schließlich erhält man einen Weg W ′′ der die Kante e enthält und den gleichen Farbraum, wie W ′ besitzt. Siehe hierfür Abbildung 3.10. Es sei nun wiederum ein bunter Weg W ′ der Länge n + 1 gegeben. Da die Kanten des Graphen G mit n + 1 Farben gefärbt wurden, gibt es mindestens eine Kante e = {vi , v j } mit einer Farbe cn+1 < CW ′ . Da der Graph zusammenhängend ist, gibt es mindestens einen Weg W von einer Ecke in W ′ zu der Ecke vi . Der Weg W ′ wird dann durch das beschriebene Verfahren durch eine Kante e′ , die inzident zu W ′ ist und auf W liegt, erweitert. Dies geschieht solange, bis die Kante e zu W ′ inzident ist. Schließlich lässt sich dann der Weg W ′ zu einen bunten Weg W der Länge n + 2 erweitern. Theorem 3.1.25. Es sei G ein zusammenhängender Graph. G ist genau dann ein Pfad, wenn G weder einen K1,3 noch einen K3 als Minor enthält. Beweis. Sei G ein Pfad. Es wird gezeigt, dass G weder einen K1,3 noch einen K3 als Minor enthält. Angenommen der Graph G enthält einen K1,3 oder einen K3 also Minor. Würde der Graph G einen K1,3 enthalten gebe es einen Knoten vom Grad 3 allerdings ist der Grad bei einem Pfad höchstens 2. Würde der Graph G den K3 als Minor enthalten, gebe es keinen Knoten vom Grad 1 allerdings gibt es bei einem Pfad genau zwei Knoten mit dem Grad 1. Somit enthält ein Pfad keinen K1,3 oder K3 als Minor. Angenommen G wäre kein Pfad und enthielte weder einen K1,3 noch einen K3 als Minor. Dann dürfte G keinen Knoten enthalten der mindestens einen Grad von 3 besitzt, andernfalls hätte dieser dann bereits einen K1,3 als Minor. Des weiteren muss G mindestens einen Knoten vom Grad 1 haben, andernfalls wären alle Knoten vom Grad 2 und dann wäre der K3 ein Minor von G, da sich bis auf drei Kanten, alle anderen Kanten kontrahieren lassen. Da es keinen Graph mit nur einem Knoten vom Grad 1 geben kann, muss es zwei geben und die restlichen Knoten haben einen Grad 2, somit wäre dieser Graph ein Pfad und dies ergibt einen Widerspruch zur Annahme. KAPITEL 3. GRAPHENTHEORIE c1 24 v5 c2 c4 c3 c5 c2 c7 c6 v (a) W ′ c2 c4 c3 c5 c2 c6 c7 c1 c1 c3 v (b) c2 c4 c5 c6 c7 v (c) W ′′ Abbildung 3.10: In Abbildung (a) ist ein bunter Weg W ′ der Länge 8 zu sehen. Der Weg W ′ soll nun so erweitert werden, dass er die Kante e = {v5 , v} enthält. Es werden die ersten Kanten entfernt und Kanten der gleichen Farben ans Ende hinzugefügt, siehe Abbildung (b). Dies wird so lange fortgesetzt, bis die erste Kante in W ′ die gleiche Farbe wie e trägt. In diesem Beispiel c2 . Der neue Weg W ′′ ist rot markiert. Der Knoten v hat 8 Nachbarn. Der Weg W ′′ besteht bereits aus 5 Farben. Also muss an den Knoten v eine Kante hinzugefügt werden, die weder c2 , c5 , c6 , c7 , c1 noch c8 enthält. Es werden also 6 Farben ausgeschlossen. Somit gibt es an v noch zwei Kanten mit einer Farbe, die noch nicht im Farbraum CW ′′ enthalten ist. Füge die Kante mit der Farbe c4 hinzu. Weiter wird an der letzten Ecke die Kante der Farbe c3 hinzugefügt. Man erhält einen bunten Weg W ′′ der Länge 8, siehe hierzu Abbildung (c). v1 v2 v1 u u v3 v2 (a) (b) Abbildung 3.11: Die zwei Fälle bilden jeweils einen Minor vom K4 oder K1,3 . KAPITEL 3. GRAPHENTHEORIE 25 Definition 3.1.26. (planarer Graph). Es sei G ein Graph. G ist ein planarer Graph, falls es eine Einbettung des Graphen in die Ebene gibt, so dass die Kanten sich sich außerhalb der Knoten nicht schneiden. Theorem 3.1.27. Es sei G ein Graph. G ist genau dann ein planarer Graph, wenn G weder einen K3,3 noch einen K5 als Minor enthält. Beweis. Für den Beweis wird auf die Arbeit von Kuratowski [16] gewiesen. Definition 3.1.28. (außerplanarer Graph). Es sei G ein Graph. G ist ein außerplanarer Graph, falls es eine Einbettung des Graphen in die Ebene gibt, so dass alle Knoten auf einem Kreis liegen und die Kanten sich innerhalb des Kreises befinden und sich nicht schneiden. Theorem 3.1.29. Es sei G ein zusammenhängender Graph. G ist genau dann ein außerplanarer Graph, wenn G weder einen K2,3 noch einen K4 als Minor enthält. Beweis. Der Beweis erfolgt nach [6]. Zunächst kann ein Graph der einen K4 oder einen K2,3 als Minor enthält kein außerplanarer Graph sein. Angenommen G ist kein außerplanarer Graph, der weder einen K2,3 noch einen K4 als Minor enthält. Falls G kein planarer Graph ist, enthält G nach Kuratowskis Theorem 3.1.27 einen K5 oder einen K3,3 als Minor und somit würde er auch einen K4 oder einen K3,3 als Minor enthalten. Folglich ist G ein planarer Graph. Da G kein außerplanarer Graph ist, muss es einen Block B mit mehr als zwei Knoten geben, der nicht außerplanar ist. Dann bette B in die Ebene so ein, dass die maximale Anzahl von Knoten auf einem Kreis Z liegen. Da B nicht außerplanar ist, muss es mindestens einen Knoten geben, der innerhalb des Kreises liegt, so dass die Kanten sich nicht schneiden. Sei v1 ein Knoten auf dem Kreis, der zu einem Knoten u innerhalb des Kreises adjazent ist. Da B ein Block ist, ist der Grad von u größer gleich 2. Somit gibt es einen Pfad P von u zu einem anderen Knoten v2 , der auf dem Kreis liegt. Dann gibt es zwei Fälle zu betrachten: 1. Fall: Die Knoten v1 und v2 sind adjazent. Dann muss es einen Knoten w auf dem Pfad P mit w , v2 geben, der einen Grad von mindestens 3 hat. Andernfalls ließe sich der Pfad auch auf dem Kreis einbetten. Weiterhin gibt es einen Pfad von w zu einem weitere Knoten v3 auf dem Kreis. Und die Knoten v1 , v2 , v3 , w würden dann einen Minor vom K4 bilden, siehe Abbildung 3.11a. 2. Fall: Die Knoten v1 und v2 sind nicht adjazent. Dann bilden die Knoten v1 , v2 , u einen Minor vom K2,3 , siehe dazu Abbildung 3.11b. Definition 3.1.30. (Cliquensumme). Es sei G ein Graph. G ist eine Cliquensumme aus den Graphen G1 = (V1 , E1 ) und G2 = (V2 , E2 ), falls V = V1 ∪ V2 und E = E1 ∪ E2 gilt und V1 ∩ V2 ist ein vollständiger Graph sowohl in G1 als auch in G2 , siehe dazu Abbildung 3.12 Definition 3.1.31. (△Y- und Y△-Transformation). Es sei G ein Graph und v ein Knoten vom Grad 3 mit zugehörigen Nachbarn v1 , v2 , v3 . Die Y△-Transformation auf v entfernt diesen Knoten v mit inzidenten Kanten und macht v1 , v2 , v3 paarweise adjazent. Die △Y-Transformation ist die Umkehrung dieser der Y△-Transformation. Von einem Dreieck mit den Knoten v1 , v2 , v3 entfernt man die inzidenten Kanten und fügt einen Knoten v hinzu der zu v1 , v2 , v3 benachbart ist. Siehe dazu Abbildung 3.13 Definition 3.1.32. (Zyklus). Ein Zyklus in einem Graphen G ist eine kantendisjunkte Vereinigung von Kreisen. KAPITEL 3. GRAPHENTHEORIE 26 (a) G 1 (b) G 2 (c) G Abbildung 3.12: Die beiden Graphen G1 und G2 aus Abbildung (a) und (b) haben beide den K3 als Untergraphen, in der Abbildung rot dargestellt. Der Graph G aus Abbildung (c) ist dann eine Cliquensumme aus G1 und G2 . v3 v3 v v1 v2 (a) v1 v2 (b) Abbildung 3.13: Von Abbildung (a) zu (b) wurde eine Y△-Transformation bezüglich des Knotens v angewendet. Andersherum von Abbildung (b) zu (a) wurde eine △YTransformation bezüglich der Knoten v1 , v2 , v3 angewendet. KAPITEL 3. GRAPHENTHEORIE 27 Definition 3.1.33. (Hamiltonweg, Hamiltonkreis). Es sei G ein Graph. Ein Hamiltonweg in einem Graphen G ist ein Pfad der alle Knoten aus V(G) enthält. Ein Hamiltonkreis in einem Graphen G ist ein Pfad der alle Knoten aus V(G) enthält und dessen Anfangs- und Endknoten aufeinander fallen. Kapitel 4 Die Colin-de-Verdière-Zahl 4.1 Grundlegendes Dieses Kapitel behandelt die Ergebnisse, die Y. Colin de Verdière entdeckte, siehe [32] und [31] sowie andere Erkenntnisse die von H. v. d. Holst, L. Lovász, A. Schrijver [13] und [22] entwickelt wurden. Hier werden diese Resultate herausgearbeitet und bewiesen. Dabei werden einige Sätze und Definitionen aus den vorherigen Kapitel benötigt. Definition 4.1.1. (µ(G)). Es sei G = (V, E) ein ungerichteter Graph und V = {1, 2, . . . , n} die zugehörige Eckenmenge. Dann ist µ(G) der größte corank(M) einer Matrix M ∈ S n (R) mit folgenden Eigenschaften: R− \ {0}, sofern i, j adjazent sind und i , j M1: Mi, j ∈ {0}, sofern i und j nicht adjazent sind R, sofern i = j M2: M hat genau einen negativen Eigenwert mit der Vielfachheit 1. M3: Es gibt keine Matrix X ∈ S n (R) mit X , 0 und Xi, j = 0, sofern i = j oder Mi, j , 0, so dass gilt: MX = 0. Bemerkungen: Für jeden Graphen G lässt sich eine Matrix finden, die alle oben genannten Punkte M1-M3 erfüllt. Der erste Punkt ist für jeden Graphen erfüllbar. Der zweite Punkt ist nach dem Perron-Frobenius-Theorem 2.1.19 ebenfalls erfüllt, denn sofern für die Matrixeinträge ai, j der Bedingung ai, j ≤ 0 genügt, hat die Matrix einen negativen kleinsten Eigenwert mit der Vielfachheit 1. Solch eine Matrix lässt sich einfach konstruieren. Denn sei A die Adjazenzmatrix zu dem zusammenhängenden Graphen G mit den beiden größten Eigenwerten γ1 > γ2 und sei λ so gewählt, dass gilt: γ1 > λ > γ2 , dann erfüllt M ≔ λI − A die Bedingungen M2 und sogar M3. Falls M eine reguläre Matrix ist, ist der Punkt M3 sowieso erfüllt. Für den Fall, dass M den corank 1 hat, ist die Bedingung ebenfalls erfüllt. Da X einen rank von 1 haben müsste wäre X darstellbar als X = uuT mit u ∈ Rn , siehe dafür Satz 2.1.22. Für die 0-Einträge in der Diagonalen folgt dann u = 0, 0, . . . , 0 und somit wäre X = 0. Wäre der rank von X größer als 1, würde nicht MX = 0 gelten, da X dann nicht nur einen Spaltenvektor hat der in ker(M) ist und somit MX , 0. Falls G nicht zusammenhängend ist, lässt sich λ für jede Komponente einzeln bestimmen und so eine Matrix M konstruieren, so dass M2 und M3 erfüllt sind. Nach M1 sind keinerlei Bedingungen an die Diagonaleinträge geknüpft. Falls nun λ, der zweitkleinste Eigenwert zu M ist, lässt sich die Matrix M durch M − λI ersetzen und erfüllt immer noch M1 und damit kann µ(G) als die maximale Vielfachheit des zweiten Eigenwerts definiert werden. KAPITEL 4. DIE COLIN-DE-VERDIÈRE-ZAHL 29 Die dritte Eigenschaft M3 nennt man auch Strong Arnold Hypothesis. Sie basiert auf einer Transversalitätseigenschaft von V. Arnold [3]. Es gibt einige äquivalente Formulierung dazu. Zum einen erfüllt eine Matrix M für einen Graphen G die Bedingung M3, sofern es für jede symmetrische Matrix B eine Matrix A gibt mit ai j = 0, falls (i, j) ∈ E(G), so dass xT (A − B)x = 0 für alle x ∈ ker(M) gilt, siehe dazu [31] und [21]. Eine weitere äquivalente Bedingung ist, dass sich die Matrizenräume V M und S M aus der Definition 2.1.7 und 2.1.10 in der Matrix M transversal schneiden. Die Äquivalenz dieser Bedingung wird im späteren Satz 4.2.4 bewiesen und findet sich in [13] wieder. Die Bedingung M3 ist trivialerweise erfüllt, wenn die Matrix M regulär ist. Beispiele: Für den vollständigen Graphen K4 −1 −1 −1 −1 M = −1 −1 −1 −1 gilt µ(K4 ) = 3. Denn es sei −1 −1 −1 −1 . −1 −1 −1 −1 Dann erfüllt die Matrix M den Punkt M1, da alle Knoten miteinander adjazent sind und somit die Nichtdiagonaleinträge alle negativ sein müssen. Das charakteristische Polynom der Matrix M lautet: det(M − λI) = 4λ3 + λ4 . Und daraus folgt dann für die Eigenwerte: EW = {0, 0, 0, −4} und damit ist auch M2 erfüllt. Der Punkt M3 ist dann ebenfalls gegeben, da aus der Bedingung für die Matrix X bereits X = 0 folgt. Alle Matrixelemente von M sind ungleich 0, woraus sich die Einträge für X zu 0 ergänzen müssen. Somit ist µ(K4 ) = 3. Satz 4.1.2. (Der vollständige Graph Kn ). Für den vollständigen Graphen Kn gilt µ(Kn ) = n − 1. Beweis. Es sei Mi, j = −1 für alle i, j ∈ {1, 2, . . . , n}. Dann ist die Eigenschaft M1 erfüllt. Für das charakteristische Polynom gilt: det(M − λI) = (−1)n · (n · λn−1 + λn ), siehe Satz 2.1.24. Somit folgt für die Eigenwerte: EW = (0, 0, . . . , 0, −n) | {z } n−1 und folglich ist auch M2 erfüllt. Die Eigenschaft M3 ist ebenfalls erfüllt, da aus M3 bereits X = 0 folgt, siehe dazu das Beispiel für den K4 . Da die Matrix M genau n Eigenwerte besitzt, ist der maximale corank gleich n − 1, da ein Eigenwert aufgrund der Eigenschaft M2 negativ sein muss. Somit folgt schließlich µ(Kn ) = n − 1. Satz 4.1.3. (Der Komplementärgraph von Kn ). Für den Komplementärgraph Kn von Kn gilt: µ(Kn ) = 1, für n ≥ 2. Beweis. Sei M eine zu Kn zugehörige Matrix. Die hat dann die Matrix M die Gestalt 0 0 ··· 0 a11 0 0 a22 0 0 ··· 0 0 0 a33 0 · · · 0 M = 0 0 0 a44 · · · 0 . . .. .. .. .. .. .. . . . . . 0 0 0 0 · · · ann 30 KAPITEL 4. DIE COLIN-DE-VERDIÈRE-ZAHL Die Matrix M hat dann die zugehörigen Eigenwerte: EW = {a11 , a22 , . . . , ann }. Es müssen nun Bedingungen an die Diagonalelemente gestellt werden, so dass Definition 4.1.1 erfüllt wird. M1 ist erfüllt, da es keine Kanten in dem Graphen Kn gibt und somit die Matrix nur aus Diagonalelementen bestehen muss. Für den Fall M2 muss für einen und nur für einen Eintrag aii < 0 gelten, da es dann nur einen negativen Eigenwert mit der Vielfachheit 1 gibt. Um nun einen möglichst großen corank zu erhalten, müssten die restlichen Diagonaleinträge 0 sein. Allerdings ist dann der Punkt M3 nicht mehr erfüllt. Man kann höchsten eine 0 in ein Diagonalelement einsetzen. Angenommen die Matrix M hat zwei 0 Einträge auf der Diagonalen also o.B.d.A a11 = a22 = 0. Dann definiere eine Matrix X ∈ Rn×n mit: 1, sofern {i, j} = {1, 2} Xi j ≔ 0, sonst. Und daraus folgt: MX = 0. Somit kann M nur eine 0 als Eintrag auf der Diagonalen haben. Sei a j j = 0, dann folgt aus der Bedingung MX = 0 die Gleichungen: a11 · xm1 = a22 · xm2 = · · · = a j j · xm j = · · · = ann · xmn = 0, für alle m ∈ {1, 2, . . . , n}. Daraus folgt dann xmk = 0 für alle m ∈ {1, 2, . . . , n} und k ∈ {1, 2, . . . , ĵ, . . . , n}. Schließlich kann xm j , 0 sein allerdings muss dann ebenfalls x jm , 0 wegen der Symmetrie gelten. Dies ergibt allerdings einen Widerspruch, da xmk = 0 für alle m ∈ {1, 2, . . . , n}, k ∈ {1, 2, . . . , ĵ, . . . , n} gelten muss. Somit ist x jk = 0 für alle k ∈ {1, 2, . . . , ĵ, . . . , n} und laut Voraussetzung muss x j j = 0 gelten und somit ist M3 erfüllt. Daraus folgend müssen die Diagonaleinträge von M einen negativen Eintrag haben sowie einen Eintrag 0 haben und die restlichen Diagonaleinträge müssen größer als 0 sein. Damit sind alle Punkte von Definition 4.1.1 erfüllt und es gilt µ(Kn ) = 1 für n ≥ 2. Satz 4.1.4. Der vollständige Graph G ist der einzige Graph mit n ≥ 3 Knoten für den µ(G) = n − 1 gilt. Bemerkung: µ(K2 ) = 1. Der Graph K2 und sein Komplement K2 erfüllt die Eigenschaft µ(K2 ) = Beweis. Für den Graphen Kn gilt bereits µ(Kn ) = n − 1, siehe Satz 4.1.2. Es verbleibt also noch die Rückrichtung zu zeigen. Es sei M eine zu G zugehörige Matrix, die Definition 4.1.1 und corank(M) = n − 1 erfüllt. Daraus folgt, dass rank(M) = 1 und aufgrund der Symmetrie folgt, dass sich M darstellen lässt, als M = −uuT für einen Vektor u ∈ Rn , siehe Satz 2.1.22. Sofern nun für alle Einträge aus u gilt: ui , 0 besitzt die Matrix M ebenfalls keine 0-Einträge und somit ist der zugehörige Graph vollständig. Angenommen der Graph G ist nicht vollständig, dann muss wegen M1 mindestens ein Eintrag von u Null sein, da sonst alle Knoten benachbart wären. Also sei ui = 0. Dann ist T M = −uu = 0 · · · i’te Spalte 0 .. . 0 0 0 0 .. . 0 0 ··· 0 . 31 KAPITEL 4. DIE COLIN-DE-VERDIÈRE-ZAHL Da n ≥ 3 ist, hat die Matrix M einen corank von mindestens 2, das bedeutet, dass die Dimension des Kerns von M ebenfalls mindestens 2 ist. Aus mindestens 2 linear unabhängigen Vektoren x1 , x2 ∈ ker(M) lässt sich durch Linearkombination αx1 + βx2 = x mit α, β ∈ R ein α und β finden, so dass α(x1 )i + β(x2 )i = 0 gilt und zwar mit β = −(x2 )i und α = (x1 )i . Dann betrachte die Matrix X: 0 . .. 0 T T X = xei + ei x = x1 0 .. . 0 ··· .. . ··· ··· ··· .. . ··· 0 .. . i’te Spalte x1 .. . 0 .. . 0 xi−1 0 .. . xi−1 0 xi+1 .. . 0 xi+1 0 .. . 0 xn 0 ··· .. . ··· ··· ··· .. . ··· 0 xn 0 .. . 0 0 .. . Und dann gilt: MX = 0 dies ist ein Widerspruch zu M3. Also ist der vollständige Graph G mit n Knoten der einzige Graph mit µ(G) = n − 1. Satz 4.1.5. (Pfad mit n Knoten). Für einen Pfad Pn mit n ≥ 2 Knoten gilt: µ(Pn ) = 1. Beweis. Sei M eine zu Pn zugehörige Matrix. Dann hat aufgrund von M1 in der Definition 4.1.1 die Matrix die folgende Tridiagonalgestalt: 0 ··· 0 a11 a12 0 a21 a22 a23 0 ··· 0 a34 ··· 0 0 a32 a33 .. . .. .. M = . . 0 a43 . 0 . .. .. .. .. . . . a a (n−1)(n−1) (n−1)n 0 ··· 0 an(n−2) an(n−1) ann Es sei M̃ die Matrix die aus M entsteht, wenn man die erste Spalte und die letzte Zeile entfernt: 0 ··· 0 a12 0 a 0 ··· 0 22 a23 .. a34 ··· . . M̃ = a32 a33 . .. . . . .. .. .. .. . 0 · · · a(n−1)(n−2) a(n−1)(n−1) a(n−1)n Für x ∈ Rn−1 , folgt aus M̃x = 0: x1 = 0 =⇒ x2 = 0 =⇒ · · · =⇒ xn−1 = 0. Somit kann die Matrix M nach Cauchys-Zwischenwert-Theorem 2.1.20 höchstens einen corank von 1 haben. Solch eine Matrix lässt sich einfach erzeugen, indem man M durch M − λI ersetzt, wobei λ der zweitkleinste Eigenwert zum Eigenvektor v1 ∈ Rn ist und somit die neue Matrix einen corank von 1 hat, da (M − λI)v = Mv − λIv = λv − λv = 0 und genau wie die alte Matrix die Punkte von Definition 4.1.1 erfüllt. Der Punkt M1 ist erfüllt, da die neue Matrix nur die Diagonaleinträge ändert. Die Eigenschaft M2 wird ebenfalls erfüllt, da nur der zweitkleinste Eigenwert auf 0 gesetzt wurde aber der kleinste nach KAPITEL 4. DIE COLIN-DE-VERDIÈRE-ZAHL 32 wie vor negativ ist und der Punkt M3 ist nach der Bemerkung auf Seite 28 auch erfüllt. Somit ist µ(Pn )=1. 4.2 Haupteigenschaften Definition 4.2.1. (Transversales Schneiden). Es seien M1 , M2 , . . . , Mk differenzierbare, offene Mannigfaltigkeiten die im Rd eingebettet sind. Weiterhin sei x ein gemeinsamer Punkt von M1 , M2 , . . . , Mk . Dann schneiden sich M1 , M2 , . . . , Mk transversal an x, sofern die Normalenräume N1 , N2 , . . . , Nk an x linear unabhängig sind. Abbildung 4.1: Die drei Ebenen schneiden sich transversal im gemeinsamen Schnittpunkt, da die Normalen linear unabhängig sind. Bemerkung: Im R2 schneiden sich zwei nicht parallele Geraden transversal. Wären sie identisch, hätten sie die gleichen Normalen. Im R3 können sich drei Ebenen transversal schneiden, siehe dazu Abbildung 4.1. Bemerkung: In der Originalarbeit [13] benutzen die Autoren H. v. d. Holst, L. Lovász und A. Schrijver das folgende Lemma 4.2.2 und Korollar 4.2.3 ohne Beweis. Dies soll im Folgenden auch so gehandhabt werden. Lemma 4.2.2. Es seien M1 (t), M2 (t), . . . , Mk (t) differenzierbare Mannigfaltigkeiten im Rd und man nehme an, dass sich M1 (0), M2 (0), . . . , Mk (0) transversal in x schneiden, dann gibt es eine Nachbarschaft W ⊂ Rk um den Ursprung, so dass für alle ǫ ∈ W die Mannigfaltigkeiten M1 (ǫ1 ), M2 (ǫ2 ), . . . , Mk (ǫk ) sich transversal am Punkt x(ǫ) schneiden, wobei x(t) eine stetige Funktion sei mit x(0) = x. Korollar 4.2.3. Angenommen M1 , M2 , . . . , Mk seien differenzierbare Mannigfaltigkeiten im Rd , die sich transversal an x schneiden. Weiter sei v eine gemeinsame Tangente von M1 , M2 , . . . , Mk mit kvk = 1. Dann existiert für jedes ǫ > 0 ein Punkt x′ , x, so dass M1 , M2 , . . . , Mk sich transversal an x′ schneiden und es gilt: x − x′ − v < ǫ. kx − x′k Satz 4.2.4. (Äquivalenz zu M3). Eine Matrix M ∈ S n (R) erfüllt die Eigenschaft M3 aus Definition 4.1.1 genau dann, wenn sich V M und S M , aus Definition 2.1.10 und 2.1.7, transversal schneiden. KAPITEL 4. DIE COLIN-DE-VERDIÈRE-ZAHL 33 Beweis. Angenommen die Matrix M ∈ S n (R) erfüllt die Eigenschaft M3 aus Definition 4.1.1, dann gibt es keine Matrix X ∈ S n (R) mit X , 0 und Xi, j = 0, sofern i = j oder Mi, j , 0, so dass gilt: MX = 0. Diese Eigenschaft ist äquivalent zum transversalen Schneiden der beiden Räume V M und S M , denn der Normalenraum zu V M , also N M S M = {X ∈ S n (R)|MX = 0}, siehe hierzu Satz 2.1.9, und der Normalenraum zu S M , also N M V M = {X ∈ S n (R)|Xi j = 0, falls i = j oder Mi j , 0}, siehe hierzu Satz 2.1.12, sind linear unabhängig an M. Weiterhin gibt es keine Matrix X, außer die 0-Matrix, die in N M V M und N M S M liegt. Und falls es keine Matrix X , 0 gibt die in N M V M und N M S M liegt, also beide linear unabhängig sind, ist die Eigenschaft M3 erfüllt. Theorem 4.2.5. (Minormonotonie [31]). Falls der Graph H ein Minor vom Graph G ist, folgt µ(H) ≤ µ(G). Beweis. Zunächst sei M eine Matrix, die die Definition 4.1.1 für den Graphen H erfüllt. Aus M konstruiere man nun eine Matrix M ′ , die Definition 4.1.1 für den Graphen G sowie corank(M) ≤ corank(M ′ ) erfüllt. Dabei teilt sich der Beweis in drei Fälle: 1. eine Kante wurde entfernt, 2. ein isolierter Knoten wurde entfernt und 3. zwei Knoten wurden kontrahiert. • Kante wurde entfernt: H wurde durch die Entfernung der Kante e = vu gewonnen. Da M Definition 4.1.1 erfüllt, ist nach Satz 4.2.4 M3 äquivalent zum transversalen Schneiden der beiden Räume V M und S M . Weiter sei V(t) die Mannigfaltigkeit, die man erhält, wenn man zu allen Matrizen aus V M die Nullen in der Position (u, v) und (v, u) durch −t ersetzt. Weiter sei S (t) = S M . Dann gibt es nach Lemma 4.2.2 ein ǫ, so dass S (ǫ) und V(ǫ) sich transversal an einer Matrix M ′ schneiden. Die Matrix M ′ erfüllt dann die Eigenschaft M1 der Definition 4.1.1, da M ′ ∈ V(ǫ) nach Lemma 4.2.2. Ebenfalls erfüllt sie die Eigenschaft M2, da M, M ′ ∈ S M sind und somit die gleiche Signatur haben und deswegen gilt auch corank(M ′ ) ≥ corank(M). M3 ist ebenfalls erfüllt, da sich S M und V(ǫ) transversal schneiden und somit nach Satz 4.2.4 M3 erfüllt ist. • Isolierten Knoten wurde entfernt: H wurde durch das Entfernen eines isolierten Knotens gewonnen. Es sei ohne Beschränkung der Allgemeinheit der Knoten 1, der entfernt worden ist, dann gilt für die neue Eckenmenge von H gerade V(H) = {2, 3, . . . , n}. Weiterhin hat die Matrix M ′ die Form: 1 0 · · · 0 0 M ′ = . . .. M 0 Die Matrix M ′ erfüllt dann die Definition 4.1.1. Die Eigenschaft M1 ist erfüllt, da M bereits M1 erfüllt und nur eine Ecke mit dem Eintrag auf der Diagonalen hinzukommt. M2 ist ebenfalls erfüllt, denn angenommen es gäbe zwei negative Eigenwerte mit zugehörigen Eigenvektoren v, w ∈ Rn , dann wäre v1 v2 . M ′ v = M .. vn 34 KAPITEL 4. DIE COLIN-DE-VERDIÈRE-ZAHL und w 1 w2 . M ′ w = M .. wn und M hätte ebenfalls zwei negative Eigenwerte, was im Widerspruch zu der Voraussetzung steht, dass M die Eigenschaft M2 erfüllt. M ′ erfüllt M3, denn gäbe es eine Matrix X ′ , die die Eigenschaften M3 erfüllt und für die gilt: M ′ X ′ = 0, dann wäre sie von der Form: 0 X ′ = v vT X für ein v ∈ Rn . Dann würde aber gelten: M ′ X ′ = 0 0 0 .. . 0 . ··· MX 0 Und dann müsste MX = 0 sein, was im Widerspruch zu der Voraussetzung, dass M erfüllt den Punkt M3 steht. • Knoten wurde kontrahiert: Es sei H der Graph der durch das Kontrahieren zweier Knoten u und v aus G entstanden ist. Dann ist die Knotenmenge von H gegeben durch V(H) = {2, 3, . . . , n}, wobei 2 der neue Knoten ist. Sei P die Matrix, die man aus M erhält, wenn man noch eine Zeile und eine Spalte hinzufügt mit den Einträgen 0 außer an Position P1,1 = 1. Also: P = 1 0 0 .. . 0 ··· M 0 . Weiter nehme an, dass u in G adjazent zu den Knoten 3, . . . , r ist. Nun betrachte die folgenden Matrixmengen: ( für i, j > 1 erfüllt A die Eigenschaft M1 ) ij • Ma = A ∈ S n (R) . bezüglich H und A1 j = 0, falls j = 2, j > r • Mb = S P = {A ∈ S n (R)| sign(A) = sign(P)}, ) ( rank(Ã) = 1, Ã Untermatrix der . • Mc = A ∈ S n (R) Spalten 1,2 und der Zeilen 3, . . . , r Im Folgenden soll P ∈ Ma , Mb , Mc gezeigt werden. • P ∈ Ma , da M genau wie Ma 0-Einträge hat, sofern i und j nicht adjazent sind. Und P1 j = 0 ist, falls j ≥ 2. • P ∈ Mb , da natürlich P die Signatur von P hat. • P ∈ Mc , da die erste Spalte mit den Zeilen 3, . . . , r nur aus Nullen besteht und die zweite Spalte von P mit den Zeilen 3, . . . , r nicht aus Nullen besteht, da der Knoten 2 mit 3, . . . , r adjazent sein soll und somit nach Definition 4.1.1 M1 nicht leer sein darf. 35 KAPITEL 4. DIE COLIN-DE-VERDIÈRE-ZAHL Diese drei Mannigfaltigkeiten aus S n (R) enthalten also P. Es gilt nun zu zeigen, dass sich diese drei Mengen auch transversal in P schneiden. Deswegen werden nun die Normalenräume an P bestimmt. • (Der Normalenraum von Ma ). Lemma 4.2.6. (Der Tangentialraum von Ma an P). Der Tangentialraum TP Ma besteht aus: TP Ma = {sgn(Pi j ) ◦ Ai j |A ∈ S n (R), i, j > 1, i , j und A1 j = 0, falls j = 2, j > r}. Der Tangentialraum besteht aus allen Matrizen, die das selbe Muster aus Nullen bilden, wie P und an den Stellen A1 j für j = 2 und j > r gleich 0 sind. Beweis. Betrachte eine beliebige differenzierbare Abbildung M : R −→ S n (R), t 7−→ sgn(P̄) ◦ A(t), wobei A : R −→ S n (R) so gewählt ist, dass M(0) = P gilt und P̄ die Form: T 0 1 0 −1 0 P̄ = sgn P −1 0 hat und 1 = (1, 1, . . . , 1) ∈ Rr . Dann ist M eine beliebige differenzierbare Kurve im Raum Ma , die durch P geht. Und für die Einheiten T ∈ TP Ma des Tangentialraums von Ma an P gilt: d M(t) t=0 dt d = sgn(P̄) ◦ A(t) t=0 dt = sgn(P̄) ◦ A′ (0) T= Dies ist gerade die Menge aller Matrizen mit den selben Muster aus Nullen, wie P und an den Stellen A1 j für j = 2 und j > r gleich 0 sind. Lemma 4.2.7. (Der Normalenraum von Ma an P). Der Normalenraum NP Ma ist definiert durch: NP Ma = {X ∈ S n (R)|Xi j = 0, falls i j ∈ E(H), i = j oder i = 1 und j < {2, r+1, r+2, . . . , n}}. Beweis. Es sei sgn(P̄) ◦ A ∈ TP Ma , dann muss für X ∈ NP Ma gelten: hsgn(P̄) ◦ A, Xi = 0. Daraus folgt dann hsgn(P̄) ◦ A, Xi = trace (sgn(P̄) ◦ A)T X = trace (sgn(P̄) ◦ A)X Da A eine beliebige symmetrische Matrix ist, definiere A ≔ X. Dann ist trace (sgn(P̄)◦ X)X ≥ 0 und dies wird nur 0, wenn bereits X = 0 ist oder sgn(P̄) ◦ X = 0 gilt. Und dies trifft zu, wenn Xi j = 0, falls i j ∈ E(H) oder i = 1 und j < {2, r + 1, r + 2, . . . , n}}. 36 KAPITEL 4. DIE COLIN-DE-VERDIÈRE-ZAHL Somit hat NP Ma an der Stelle P die Form: NMa (P) 0 x 2 0 .. . = 0 x r+1 .. . xn x2 ··· 0 0 xr+1 ··· X′ • (Der Normalenraum von Mb an P). xn . Lemma 4.2.8. (Der Normalenraum von Mb an P). Der Normalenraum NP Mb von Mb an P besteht aus: NP Mb = {X ∈ S n (R)|PX = 0}. Beweis. Der Beweis wurde bereits im Satz 2.1.9 erbracht. Mit PX = 0 folgt, dass die erste Zeile von X 0-Einträge haben muss und somit wegen der Symmetrie auch die erste Spalte. Würde dies nicht gelten und ein Eintrag in der erste Zeile würde keine 0 enthalten also x1, j , 0, dann wäre PX , 0, da (PX)1, j = x1, j , 0. Somit hat NMb an P die Form: NMb (P) mit MY ′ = 0. = 0 0 .. . 0 ··· 0 Y′ 0 , • (Der Normalenraum von Mc an P). Lemma 4.2.9. (Der Tangentialraum von Mc an P). Der Tangentialraum TP Mc von Mc an P besteht aus: TP Mc = {A ∈ S n (R)|A1 j = λP1 j , λ ∈ R, j = 3, . . . , r} Beweis. Betrachte eine beliebige differenzierbare Abbildung M : R −→ S n (R), t 7−→ A(t), wobei A(0) = P und A(t) = a11 (t) a21 (t) γ(t)α(t) ar+1,1 (t) .. . a12 (t) a22 (t) α(t) a1,n (t) .. . an,1 (t) an,2 (t) γ(t)α(t)T α(t)T a1,r+1 (t) · · · a2,r+1 (t) · · · B(t) a1,n (t) a2,n (t) mit α : R −→ Rr−2 und γ : R −→ R mit γ(0) = 0 gilt. Dann ist M eine beliebige Kurve im Raum Mc , die durch P geht. Und für die Einheiten T ∈ T p Mc des 37 KAPITEL 4. DIE COLIN-DE-VERDIÈRE-ZAHL Tangentialraums von Mc an P gilt: d M(t) t=0 dt = A′ (0) a′11 (0) a′12 (0) γ′ (0)α(0)T + γ(0)α′ (0)T ′ α′ (0)T a21 (0) a′22 (0) γ′ (0)α(0) + γ(0)α′ (0) α′ (0) = a′r+1,1 (0) a′1,n (0) .. .. . . a′n,1 (0) a′n,2 (0) a′12 (0) γ′ (0)α(0)T + a′1,r+1 (0) · · · a′1,n (0) a′11 (0) a′ (0) a′22 (0) α′ (0)T a′2,r+1 (0) · · · a′2,n (0) 21 γ′ (0)α(0) α′ (0) = a′ (0) a′ (0) 1,n r+1,1 .. .. B′ (0) . . ′ ′ an,1 (0) an,2 (0) T= a′1,r+1 (0) · · · a′2,r+1 (0) · · · a′1,n (0) a′2,n (0) B′ (0) , da γ(0) = 0. Dies ist gerade die Menge aller Matrizen mit A1 j = λP1 j , λ ∈ R, j = 3, . . . , r. Lemma 4.2.10. (Der Normalenraum von Mc an P). Der Normalenraum NP Mc von Mc an P besteht aus: NP Mc (P) = {X ∈ S n (R)|Xi j = 0, falls i , 1 und j < {3, . . . , r}, wobei r X X1 j P2 j = 0}. j=3 Beweis. Es sei T ∈ TP Mc , dann muss für X ∈ NP Mc gelten: hT, Xi = 0. Daraus folgt dann hT, Xi = trace a11 a21 λP3,2 .. . λPr,2 ar+1,2 .. . a2,n a12 λP2,3 ··· λP2,r A a1,r+1 ··· a1,n · X Da A eine beliebige Matrix ist, definiere Ai j ≔ Xi j für i, j ∈ {1, 2, . . . , n} außer für i = 1 und j ∈ {3, . . . , r} beziehungsweise außer für j = 1 und i ∈ {3, . . . , r}. Dann muss Ai j = 0 sein für i, j ∈ {1, 2, . . . , n} außer für i = 1 und j ∈ {3, . . . , r} beziehungsweise P außer für j = 1 und i ∈ {3, . . . , r} und es muss gelten: λ rj=3 P2 j X1 j = 0. Und dies ist gerade die Behauptung. 38 KAPITEL 4. DIE COLIN-DE-VERDIÈRE-ZAHL Somit hat N ∈ NP Mc an P die Form: 0 0 z3 0 z3 . . . N = z r 0 .. . 0 Pr mit j=3 P2 j z j = 0. ··· zr 0 , 0 ··· 0 Bemerkung: Der Normalenraum NA Mc an einer beliebigen symmetrischen Matrix A mit der Eigenschaft, dass (A13 , . . . A1r ) , 0 gilt, hat die Gestalt: NA Mc = 0 0 z3 .. . 0 0 −λz3 .. . zr 0 .. . −λzr 0 .. . 0 0 z3 −λz3 ··· ··· zr −λzr 0 0 ··· ··· 0 0 0 , P mit rj=3 a2 j z j = 0. Dies sieht man, wenn man die Bedingung von NA Mc folgendermaßen darstellt: λ(A13 , . . . A1r ) = (A23 , . . . A2r ). Weiter definiert man α(t) ≔ (A13 (t), . . . A1r (t)) mit α(0) = (A13 , . . . A1r ) und f (t) ≔ λα(t) , dann sind die Elemente α(t) λα′ (0) d des Tangentialraums folgendermaßen gegeben: dt f (t)t=0 = α′ (0) . Und somit gilt ′ (0) (z ,...,z ) 3 r für die Elemente des Normalenraums: h λα α′ (0) , −λ(z3 ,....zr ) i = 0. Die Normalenräume von Ma , Mb und Mc wurden nun erarbeitet. Es bleibt zu zeigen, dass sie sich transversal an P schneiden. Lemma 4.2.11. NP Ma , NP Mb und NP Mc sind linear unabhängig. Beweis. Im Folgenden meint eine Gleichung mit dem Normalenraum, dass dieser Ausdruck für beliebige Elemente des Raums gelten sollen. Angenommen NP Ma , NP Mb und NP Mc wären linear abhängig, dann existieren α, β, γ ∈ R, so dass gilt: αNP Ma + βNP Mb + γNP Mc = 0 und es gilt nicht α = β = γ = 0. Dann folgt γ = 0, da NP Ma und NP Mb 0’ en haben, wo NP Mc keine Nullen hat, bzw. steht NP Mc orthogonal auf NP Ma und NP Mb , da gilt: hNP Mc , NP Ma i = hNP Mc , NP Mb i = 0. Dann müssten wiederum NP Ma und NP Mb linear abhängig sein. Die Matrix X ′ in NP Ma hat dieselben Eigenschaften wie in Definition 4.1.1 M3. Nun gilt aber für NP Mb , dass für die Matrix Y ′ gilt: MY ′ = 0, sind nun aber NP Ma und NP Mb linear abhängig würde das Definition 4.1.1 M3 für die Matrix M widersprechen und es müsste X ′ = 0 gelten und somit sind NP Ma , NP Mb und NP Mc linear unabhängig. 39 KAPITEL 4. DIE COLIN-DE-VERDIÈRE-ZAHL Daraus folgt, dass Ma , Mb und Mc sich transversal an P schneiden. Nun betrachte die Matrix T mit: 0 P2,3 · · · P2,r 0 · · · 0 0 0 P2,3 . .. . T = − 0 P2,r 0 . .. 0 Lemma 4.2.12. Die Matrix T ist eine gemeinsame Tangente von Ma , Mb und Mc an der Stelle P. Beweis. Betrachte hNP Ma , T i. Da die Matrix NP Ma genau dort Nullen hat, wo T keine hat, gilt: hNP Ma , T i = 0. Betrachte hNP Mb , T i. Da die Matrix NP Mb genau dort Nullen hat, wo T keine hat, gilt ebenfalls: hNP Mb , T i = 0. Nach dem Beweis vom Lemma 4.2.10 gilt ebenfalls hNP Mc , T i = 0. Nach Korollar 4.2.3 gibt es eine Matrix P′ an der sich NP Ma , NP Mb und NP Mc transversal schneiden. Es wird nun gezeigt, dass P − P′ und T fast parallel“ sind. Dies ” bedeutet, dass die Matrix P′ genau dort keine Nulleinträge hat, an denen P oder T keine Nulleinträge, bis auf die Diagonaleinträge, haben. Das P′ das gleiche Muster wie P hat, folgt daraus, dass P′ Element der Matrixmenge Ma ist. Die Matrix P′ hat darüber hinaus keine Nulleinträge, an denen T keine Nulleinträge hat. Dies sieht man, wenn man annimmt das P′1,3 = 0 aber T 1,3 , 0 gilt. Schließlich folgt aus ′ P − P − T = T 2 + . . . ≥ T 2 1,3 1,3 kP − P′ k 2 Und für ǫ < T 1,3 ist das Korollar 4.2.3 nicht mehr erfüllt. P′ ist also von der Form: ′ P1,1 0 P′ 1,3 .. . P′ = ′ P1,r 0 . .. 0 0 P′1,3 ··· P′1,r Q 0 ··· 0 . Da P′ ∈ Ma bedeutet dies, dass Q für den Graphen H die Definition 4.1.1 M1 erfüllt und zusätzlich gilt, da (P1,3 , · · · , P1,r ) , 0, dass der Knoten 1 zu 3, . . . , r adjazent ist. Weiterhin ist P′ ∈ Mb , was bedeutet, dass corank(P) = corank(P′ ) ist und der Punkt M2 von der Definition 4.1.1 erfüllt ist, da P und P′ die gleiche Signatur haben. Aus P′ muss nun eine Matrix konstruiert werden, die mindestens den selben corank wie P hat und die die Definition 4.1.1 für G erfüllt. 1 0 0 · · · 0 0 0 0 · · · 0 − 1 1 0 · · · 0 λ 1 , wobei E21 = 0 Es sei S = I − λ1 E21 = 0 0 1 . .. .. .. .. . . 0 . . 0 0 0 1 Dann definiere A ≔ S P′ S T . Und somit besitzt A nach dem Sylvesterschen Trägheitssatz 40 KAPITEL 4. DIE COLIN-DE-VERDIÈRE-ZAHL 2.1.6 die gleiche Signatur wie P′ , da S ∈ GL (R). Somit hat A genau wie P′ genau einen negativen Eigenwert mit der Vielfachheit 1. Somit ist der Punkt M2 von Definition 4.1.1 erfüllt. Da P′ ∈ Mc ist die erste Zeile mit den Spalteneinträgen P′1,3 , . . . , P′1,r ein Vielfaches der zweiten Zeile mit den gleichen Spalteneinträgen und zugehörigen Faktor λ. Schließlich folgt: A = S P′ S T ′ P1,1 0 λP′ 1,3 .. . = S λP′1,r 0 . .. 0 P′ 1,1 0 ′ λP1,3 . . = S . ′ λP 1,r 0 . . . 0 Daraus ergibt sich: P′ ′ P1,1 − 1,1 λ λP′1,3 .. A = . λP′ 1,r 0 .. . 0 0 Q11 P′1,3 .. . P′1,r Q1,r+1 .. . λP′1,3 P′1,3 λP′1,r P′1,r ··· ··· ··· ··· 0 Q1,r+1 0 Q1,n−1 Q(n−2)×(n−2) Q1,n−1 P′ − λ1,1 Q11 0 .. . 0 Q1,r+1 .. . λP′1,3 P′1,3 λP′1,r P1,r ··· ··· ··· ··· 0 Q1,r+1 0 Q1,n−1 Q(n−2)×(n−2) Q1,n−1 − P′1,1 λ 1 ′ P λ2 1,1 + Q1,1 0 .. . 0 Q1,r+1 .. . Q1,n−1 λP′1,3 0 ··· ··· λP′1,r 0 0 Q1,r+1 Q(n−2)×(n−2) ··· ··· T S . 0 Q1,n−1 . Die Matrix A erfüllt nun für den Graphen G die Eigenschaft M1 der Definition 4.1.1, da der Knoten 1 zu den Knoten 2, 3, . . . , r adjazent ist und der Knoten 2 nicht zu den Knoten 3, . . . , r adjazent ist. Die Teilmatrix Q(n−2)×(n−2) erfüllt die Eigenschaft M1 schon laut Voraussetzung somit erfüllt auch A den Punkt M1. Es bleibt zu zeigen, dass A auch die Eigenschaft M3 erfüllt. Angenommen es existiert eine Matrix X, die die Eigenschaften M3 erfüllt und für die gilt: AX = 0. Dann hat X die Gestalt: 0 0 ··· 0 X1,r+1 · · · X1,n 0 0 X2,3 · · · X2,r X2,r+1 · · · X2,n 0 0 X2,3 .. .. . . . X = X2,r X(n−2)×(n−2) 0 X1,r+1 X2,r+1 . . .. .. X1,n X2,n 41 KAPITEL 4. DIE COLIN-DE-VERDIÈRE-ZAHL Aus AX = 0 folgt wiederum S P′ S T X = 0, da A = S P′ S T . S ist invertierbar, also vereinfacht sich die Gleichung zu P′ S T XS = 0. Weiter sei Y ≔ S T XS : Y = S T XS 0 0 ··· 0 X1,r+1 · · · X1,n 0 0 0 X2,3 · · · X2,r X2,r+1 · · · X2,n 0 X2,3 .. .. . . S T = S X2,r X(n−2)×(n−2) 0 X 1,r+1 X2,r+1 .. .. . . X1,n X2,n 0 0 − λ1 X2,r X1,r+1 − λ1 X2,r+1 − λ1 X2,3 · · · 0 0 X2,3 ··· X2,r X2,r+1 X2,3 − λ1 X2,3 .. .. . . = X2,r − λ1 X2,r X(n−2)×(n−2) X1,r+1 − 1 X2,r+1 X2,r+1 λ .. .. . . X2,n X1,n − λ1 X2,n ··· ··· X1,n − λ1 X2,n X2,n Falls nun (X2,3 , · · · , X2,r ) , 0 definiere: 0 0 − 1 X2,3 λ .. . Z ≔ 1 − λ X2,r 0 .. . 0 0 0 X2,3 .. . − λ1 X2,3 X2,3 ··· ··· − λ1 X2,r X2,r 0 ··· 0 ··· 0 0 0 X2,r 0 .. . 0 Dann gilt: 0 0 0 .. . X̃ = 0 X 1 1,r+1 − λ X2,r+1 .. . X1,n − λ1 X2,n 0 0 0 .. . 0 X2,r+1 .. . X2,n 0 0 ··· ··· 0 0 X1,r+1 − λ1 X2,r+1 X2,r+1 X(n−2)×(n−2) und X̃ ≔ Y − Z. ··· ··· X1,n − λ1 X2,n X2,n . Dann ist Y eine Normale zu P′ an Mb , Z ist eine Normale zu P′ an Mc (P′ ) und X̃ ist eine Normale zu P′ an Ma (P′ ). Allerdings wäre X̃ eine Linearkombination aus Y und Z, ein Widerspruch zu der Voraussetzung, das sich Ma , Mb und Mc transversal an P′ schneiden. Wäre nun allerdings (X2,3 , · · · , X2,r ) = 0, dann ist Y bereits eine Normale zu Mb und Ma , dies ist wieder ein Widerspruch. Somit erfüllt A den Punkt M3. . KAPITEL 4. DIE COLIN-DE-VERDIÈRE-ZAHL 42 Abbildung 4.2: Der Graph G besteht aus drei Komponenten: K2 , K3 und K4 . Und es gilt: µ(G) = µ(K4 ). Theorem 4.2.13. (Komponenten). Es sei G ein Graph mit mindestens einer Kante, dann gilt: µ(G) = max µ(K), K wobei K über die Komponenten von G geht. Bemerkung: Besteht der Graph G aus drei Komponenten der vollständigen Graphen K2 , K3 und K4 , dann gilt µ(G) = µ(K4 ) = 3, siehe Abbildung 4.2. Falls G keine Kante hat, ist die Aussage falsch. Denn sei G = Kn , dann ist µ(K n ) = 1 nach Satz 4.1.3 aber für jede Komponente K1 von G gilt: µ(K1 ) = 0 nach Satz 4.1.2 somit ist µ(Kn ) = 1 , 0 = maxK µ(K) = µ(K1 ). Beweis. Nach dem Theorem 4.2.5 gilt: µ(G) ≥ maxK µ(K), da eine Komponente ein Minor vom Graphen G ist. Sei nun M eine Matrix die Definition 4.1.1 für den Graphen G erfüllt und für die außerdem corank M = µ(G) gilt. Dann hat M die Gestalt: M1 M2 . M = .. . Mn Sofern G mindestens eine Kante enthält gilt µ(G) > 0, da bereits nach Satz 4.1.2 µ(K2 ) = 1 gilt und somit K2 ein Minor vom Graphen G wäre und nach Theorem 4.2.5 somit µ(G) ≥ µ(K2 ) > 0 gilt und somit folgt daraus ebenfalls corank(M) > 0. Und dann gilt: Lemma 4.2.14. Es existiert genau eine Komponente K für die corank(MK ) > 0 gilt. Beweis. Angenommen es gäbe zwei Komponenten K und L mit corank(MK ) > 0 und corank(ML ) > 0 und sei |V(K)| = i und |V(L)| = j. Dann wähle zwei Vektoren aus den Kernen der beiden Matrizen: x ∈ ker(MK ) und y ∈ ker(ML ) mit x , 0, y , 0. Dann nummeriere die Knoten von G so um, dass gilt: MK ML M = . .. . Mn 43 KAPITEL 4. DIE COLIN-DE-VERDIÈRE-ZAHL Dann definiere neue Vektoren x̃ = (x1 , . . . .xi , 0, . . . .0)T und ỹ = (0, . . . , 0, y1 , . . . , y j , 0 . . . , 0)T | {z } i und weiter X ≔ x̃ỹT + ỹ x̃T . Dann hat X die Gestalt: 0 yxT X = Und dann folgt: MX = xyT 0 .. 0 MK ML .. . Mn 0 (ML y)xT = (MK x)y . T · 0 .. . 0 = 0. . 0 xyT yxT 0 .. . 0 Die Matrix erfüllt die Eigenschaften für X aus der Definition 4.1.1 M3 und es gilt MX = 0. Ein Widerspruch, da es keine solche Matrix X, nach Voraussetzung geben darf. Somit ist die Annahme falsch und das Lemma bewiesen. Also existiert genau eine Komponente K für die corank(MK ) > 0 gilt. Und somit muss auch gelten: corank(M) = corank(MK ). Man betrachte nun den 1. Fall: MK hat keinen negativen Eigenwert. Dann muss aufgrund von corank(MK ) > 0 Null der kleinste Eigenwert sein. Nun muss die Vielfachheit 1 sein, denn sei nun angenommen der Eigenwert hätte mindestens die Vielfachheit 2 mit den beiden Eigenvektoren α, β ∈ Ri . Und es sei a ≔ | max(MK )ii |. i Dann sei M̃K ≔ MK − aI und daraus resultiert: M̃K α = MK α − aIα = −aα und M̃K β = MK β − aIβ = −aβ. Und dann hätte M̃K einen kleinsten Eigenwert von −a mit der Vielfachheit 2, was im Widerspruch zu Perron-Frobenius Theorem 2.1.19 steht. Somit ist corank(MK ) = corank(M) = µ(G) = 1. Nun sei L eine Komponente von G mit mindestens einer Kante, dann gilt: µ(L) ≥ 1 und daraus wiederum µ(L) ≥ µ(G). Es wurde am Anfang bereits gezeigt, dass µ(G) ≥ maxK µ(K) gilt. Somit gilt die Gleichheit für den Fall, dass MK keinen negativen Eigenwert besitzt. Man betrachte nun den 2. Fall: MK besitzt einen negativen Eigenwert der Vielfachheit 1. Dann erfüllt die Matrix MK von der Definition 4.1.1 den Punkt M1, da MK eine Untermatrix von M ist. Weiterhin erfüllt die Matrix auch den Punkt M2, da angenommen wurde, 44 KAPITEL 4. DIE COLIN-DE-VERDIÈRE-ZAHL dass MK einen negativen Eigenwert besitzt. Es bleibt zu zeigen, dass MK die Eigenschaft M3 erfüllt. Sei X eine Matrix, die die Punkte aus M3 erfüllt und für die gilt: MK X = 0. Dann definiere eine neue Matrix X̃ ∈ S n (R) mit: X 0 . X̃ = .. . 0 Dann gilt: M X̃ = = MK ML .. . Mn MK X 0 .. . 0 = 0. · X 0 .. . 0 Die ergibt einen Widerspruch zur Annahme, dass M die Eigenschaft M3 erfüllt. Somit erfüllt MK die Definition 4.1.1 und es gilt µ(G) = corank(MK ). Satz 4.2.15. (Alternative Bedingung für M2). Es sei G ein Graph mit mindestens zwei Knoten, dann kann man aus der Definition 4.1.1 den Punkt M2 durch die Bedingung M2’: Die Matrix M höchstens einen negativen Eigenwert ersetzen. Beweis. Es sei M eine zu den Graphen G zugehörige Matrix mit maximalem corank unter den Bedingungen M1, M3 der Definition 4.1.1 sowie der Bedingung M2’. Angenommen die Matrix M hat keinen negativen Eigenwert, dann wäre M positiv semidefinit. Und nach dem Perron-Frobenius-Theorem 2.1.19 hat MK die zugehörige Untermatrix von der Komponente K dann als kleinsten Eigenwert 0 mit der Vielfachheit 1. Siehe dazu den Beweis von Theorem 4.2.13 mit der Matrix MK . Und weiter ist höchstens eine Untermatrix singulär. Also gilt corank(M) = 1 für M. Und nach den Bemerkungen auf Seite 28 lässt sich dann M durch eine Matrix ersetzen, die dann M2 der Definition 4.1.1 erfüllt. Theorem 4.2.16. (Knoten entfernen). i. Es sei G = (V, E) ein Graph und sei v ∈ V, dann gilt: µ(G) ≤ µ(G − v) + 1. ii. Falls v adjazent zu allen anderen Knoten ist und G mindestens eine Kante hat, gilt Gleichheit. KAPITEL 4. DIE COLIN-DE-VERDIÈRE-ZAHL 45 Beweis. (Von i.) Nach Theorem 4.2.13 lässt sich annehmen, dass G zusammenhängend ist, falls G nicht zusammenhängend ist, nehme man die Komponente K für die gilt: µ(G) = µ(K). Weiter sei M eine zu G zugehörige Matrix, die Definition 4.1.1 erfüllt und für die gilt: µ(G) = corank(M). Weiter sei v = n. Dann definiere die Matrix M ′ als die Matrix, die man erhält, wenn man von M die letzte Zeile und Spalte entfernt. Dann gilt: corank(M ′ ) ≥ corank(M) − 1. Denn seien EW M = {−a1 , 0, 0, . . . , 0, a2 , a3 , . . . , am } mit corank(M) = k die Eigenwerte von M. Nach Cauchys-Zwischenwert-Theorem 2.1.20 gilt demnach für die Eigenwerte EW M′ = {b1 , b2 , . . . , bm+k−1 }: −a1 ≤ b1 ≤ 0 ≤ b2 ≤ 0 ≤ · · · ≤ 0 ≤ bk+1 ≤ a2 ≤ · · · ≤ bk+m−1 ≤ am . Es gibt also mindestens k − 1 Eigenwerte von M ′ die 0 sind, nämlich b2 , b3 , . . . , bk . Es muss also gezeigt werden, dass M ′ die Definition 4.1.1 erfüllt, da M ′ schon eine Matrix für den Graphen G − v ist. Des Weiteren gilt das Theorem für den Fall µ(G) ≤ 2. Falls µ(G) = 1 gilt offensichtlich: µ(G) = 1 ≤ µ(G − v) + 1. Falls µ(G) = 2 ist, gilt das Theorem nur dann nicht, wenn µ(G − v) = 0 ist und dies ist der Fall, wenn G − v = K1 ist, siehe dazu Satz 4.1.2. Allerdings wäre dann entweder G = K2 oder G = K2 \ e und daraus schlussfolgernd wäre aber µ(G) = 1. Siehe für den Fall G = K2 Satz 4.1.2 und für den Fall G = K2 \ e Satz 4.1.3. Somit betrachte nur den Fall µ(G) ≥ 3. M1: Da die Matrix M den Punkt M1 erfüllt und M ′ eine symmetrische Untermatrix von M ist, erfüllt M ′ die Eigenschaft M1. M2: Nach Cauchys-Zwischenwert-Theorem 2.1.20 hat M ′ höchstens einen negativen Eigenwert b1 und Satz 4.2.15 impliziert die Eigenschaft M2. M3: Folgt nach zwei Lemmata. Es gilt: corank(M ′ ) ≤ corank(M). Angenommen M ′ hat einen negativen Eigenwert, dann können nur noch b2 , b3 , . . . , bk+1 0 sein, also k-Werte genau wie M. Angenommen M ′ ist positiv-semidefinit und hat keinen negativen Eigenwert. Und weiterhin hat jede Untermatrix von M ′ , die zu eine Komponente von G −v gehört, einen corank von höchstens 1. Siehe dazu den Beweis von Theorem 4.2.13. Dann ist der corank von M ′ die Anzahl der Untermatrizen zu den Komponenten, die singulär sind. Es wird zunächst das folgenden Lemma gezeigt. Lemma 4.2.17. Und es gibt höchstens drei solcher Untermatrizen. Beweis. Angenommen es gäbe vier Komponenten K1 , K2 , K3 und K4 . Sei xi ∈ ker(MKi ) mit i = 1, 2, 3, 4. Nach dem Perron-Frobenius-Theorem 2.1.19 ist xi > 0, d.h. alle Einträge sind positiv für alle i. Dann erweitere xi zu einen Vektor in Rn in dem man Nullen hinzunimmt und zwar an Stellen an denen die anderen Komponenten vorhanden sind. Weiter sei z der Eigenvektor von M der zum kleinsten Eigenwert gehört. Nach dem Perron-FrobeniusTheorem 2.1.19 gilt auch hier: z > 0 für alle Einträge. Somit ist hz, xi i , 0. Skaliere dann xi so, dass hz, xi i = 1 gilt. Dann definiere X ≔ (x1 − x2 )(x3 − x4 )T + (x3 − x4 )(x1 − x2 )T . Daraus folgt allerdings MX = 0. Nach Satz 2.1.23 folgt aus: h x̃, zi = 0 und h x̃, M x̃i = 0, dass x̃ ∈ ker(M) gilt. Dies benutzt man um (x1 − x2 ), (x3 − x4 ) ∈ ker(M) zu zeigen. Es sei x̃ ≔ (x1 − x2 ), dann gilt: h x̃, zi = hx1 − x2 , zi = hx1 , zi − hx2 , zi =1−1 = 0. 46 KAPITEL 4. DIE COLIN-DE-VERDIÈRE-ZAHL Und weiter: h x̃, M x̃i = x̃T M K1 M K2 M K3 M K4 .. . aT MK1 x1 M x K2 2 0 = x̃T . .. 0 T ha , x̃i = (x1 )1 (x1 )1 . .. (x1 )m (x ) 2 1 . a .. (x2 )l 0 .. . 0 ··· (x1 )m (x2 )1 ··· (x2 )l 0 ··· = 0. 0 0 0 0 . .. 0 T ha , x̃i Somit ist M(x1 − x2 ) = 0 und analog M(x3 − x4 ) = 0. Die Matrix X erfüllt die Eigenschaften M3 der Definition 4.1.1. Es gilt: MX = 0. Dies ergibt einen Widerspruch, da M die Eigenschaft M3 erfüllt. Und somit kann es höchstens drei Komponenten geben. Der Beweis von Teil i. wird nun fortgeführt. Da der corank von M ′ die Anzahl singulärer Komponenten angibt, gilt: corank(M ′ ) ≤ 3 ≤ corank(M). Nach Annahme gilt 3 ≤ corank(M) bereits. Zusätzlich gilt: rank(M ′ ) + corank(M ′ ) = n − 1 und damit n − 1 − rank(M ′ ) = corank(M ′ ) und analog für M: n − rank(M) = corank(M). Aus corank(M ′ ) ≤ corank(M) folgt dann: rank(M) − 1 ≤ rank(M ′ ). Und dies impliziert dann das folgende Lemma, das nun gezeigt wird. Lemma 4.2.18. Die letzte Spalte von M ist eine Linearkombination aus den übrigen Spalten und dem kanonischen Basisvektor en . 47 KAPITEL 4. DIE COLIN-DE-VERDIÈRE-ZAHL Beweis. Da der corank von M mindestens 3 ist, gibt es mindestens drei linear unabhängige Vektoren: x1 , x2 , x3 ∈ ker(M). Dann gilt: Mx j = M K1 a1 M K2 a2 M K3 a3 a4 .. . M K4 .. aT1 aT2 aT3 aT4 . aTn ··· Daraus folgt schließlich: MK1 (x j )1 MK2 (x j )2 MK3 (x j )3 MK4 (x j )4 .. . Pn−1 i=0 ai · (x j )i = − a1 · (x j )n a2 · (x j )n a3 · (x j )n a4 · (x j )n .. . an · (x j )n (x j )1 (x j )2 (x j )3 (x j )4 .. . (x j )n = 0. . Falls nun ein j existiert, so dass (x j )n , 0 gilt, definiere x̃ ≔ − (x1j )n · x j und für den n-ten Eintrag: x̃n ≔ an und dann gilt: M K1 M K2 0 M K3 M K4 .. . 0 1 · x̃ = a. Falls nun kein j existiert, so dass (x j )n , 0 gilt, folgt daraus, dass es wegen corank(M ′ ) ≤ 3 ≤ corank(M) drei voneinander verschiedene Zahlen r, s, t geben muss, so dass (x j )r , (x j ) s , (x j )t , 0 und MKr (x j )r = MKs (x j ) s = MKt (x j )t = 0 für j = 1, 2, 3 gelten muss. Die anderen Fälle, dass zum Beispiel für ein j auch (x j )r = 0 gelten kann werden dabei analog behandelt. Hierbei meint (x j )r nicht den r-ten Eintrag des 48 KAPITEL 4. DIE COLIN-DE-VERDIÈRE-ZAHL Vektors x j , sondern die Einträge für die zugehörige Komponente MKr . Da die x j linear unabhängig sind und die Untermatrizen MKr , MKs , MKt einen corank von eins haben, lässt sich durch Linearkombination der x j drei Vektoren x̃1 , x̃2 und x̃3 bilden, so dass ( x̃1 )r , ( x̃2 ) s , ( x̃3 )t , , 0 und ( x̃1 )i = 0, für i , r ( x̃2 )i = 0, für i , s ( x̃3 )i = 0, für i , t, gilt. Dann gilt M x̃1 = M x̃2 = M x̃3 = 0 und daraus folgt wieder MKr ( x̃1 )r = MKs ( x̃2 ) s = MKt ( x̃3 )t = 0 und har , ( x̃1 )r i = ha s , ( x̃2 ) s i = hat , ( x̃3 )t i = 0 somit sind die Zeilen von MKr und die Zeile ar linear abhängig und daraus folgt aufgrund der Symmetrie von M, dass a eine Linearkombination der Spalten von M ist. Der Beweis von Teil i. wird nun zu Ende geführt. Es bleibt zu zeigen, dass M ′ die Eigenschaft M3 der Definition 4.1.1 erfüllt. Angenommen es gibt eine Matrix X ′ ∈ S n−1 (R) die M3 erfüllt und das gilt: M ′ X ′ = 0. Dann definiere X ≔ = (X1 , . . . , Xn−1 , 0). 0 0 0 .. . X′ 0 ··· 0 Dann folgt aus MX: MX = = = M′ a aT · X′ 0 ··· M′ X ′ ha, X1 i ··· ha, Xn−1 i 0 0 .. . ha, X1′ i · · · 0 ′ ha, Xn−1 i 0 0 0 0 .. . 0 0 .. . 0 0 . Wobei Xi die i-te Spalte der Matrix X ′ ist. Dann betrachte: ha, X j i. Nach Lemma 4.2.18 ist a eine Linearkombination aus den Spalten von M beziehungsweise aus den Zeilen wegen der Symmetrie der Matrix M. Somit ist in diesem Fall der Vektor a eine Linearkombination 49 KAPITEL 4. DIE COLIN-DE-VERDIÈRE-ZAHL aus den Spalten von M ′ . Daraus folgt: a = ha, X j i = = Pn−1 i=1 n−1 DX λi Mi′ für gewisse λi . Das impliziert dann: λi Mi′ , X j i=1 n−1 X i=1 E λi Mi′ T · X j = 0. Da bereits M ′ X ′ = 0 gilt, folgt daraus, dass Mi′ T X ′j = 0 gilt und somit auch ha, X ′j i = 0. Somit ist MX = 0 ein Widerspruch, da M die Eigenschaft M3 der Definition 4.1.1 erfüllen soll. Somit erfüllt auch M ′ die Definition 4.1.1 und die Behauptung i. von Theorem 4.2.16 ist bewiesen. Beweis. (ii. von Theorem 4.2.16) Es sei v adjazent zu allen anderen Ecken. Dann bleibt zu zeigen, dass µ(G) ≥ µ(G − v) + 1 ist. Nach dem Theorem 4.2.13 lässt sich annehmen, dass G − v zusammenhängend ist. Falls nicht, betrachte einfach die Komponente K für die gilt: µ(G) = µ(K). Es sei M ′ eine zu G−v zugehörige Matrix, die die Definition 4.1.1 erfüllt und für die gilt: corank(M ′ ) = µ(G − v). Des Weiteren sei z der Eigenvektor von M ′ , der zum kleinsten Eigenwert λ1 gehört. Nach dem Perron-Frobenius-Theorem 2.1.19 gilt: z < 0 und z lässt sich so skalieren, dass kzk = 1 gilt. Dann definiere die Matrix M so: ! λ−1 zT M≔ 1 . z M′ Sofern nun x ∈ ker(M ′ ) folgt: (0, x)T ∈ ker(M), denn hz, xi M · (0, x) = M′ x T ! ! hz, xi = . 0 Aus hM ′ x, zi = 0 folgt hx, zi, da hM ′ x, zi = hx, M ′ zi = hx, λ1 zi = λ1 hx, zi = 0. Somit ist hx, zi = 0. Weiter ist (−λ1 , z)T ∈ ker(M), denn ! −λ−1 λ1 + hz, zi 1 M · (−λ1 , z) = −λz + M ′ z ! −1 + 1 = −λz + λz T = 0. Daraus folgt: corank(M) ≥ corank(M ′ ) + 1. Folglich hat nach Cauchys-ZwischenwertTheorem 2.1.20 die Matrix M genau einen negativen Eigenwert. Es sind die Eigenwerte von M ′ : EW M′ = {λ1 , 0, 0, . . . , 0, λk+2 , . . . , λk+l } | {z } k 50 KAPITEL 4. DIE COLIN-DE-VERDIÈRE-ZAHL und die Eigenwerte von M: EW M = {γ1 , γ2 , . . . , γk+l+1 }. Weiter gilt: γi ≤ λi ≤ γi+1 . Dann folgt aus: corank(M) ≥ corank(M ′ ) + 1, dass γ j = 0 für j ∈ {2, . . . , k+2}. Und γ1 ≤ λ1 und somit ist für M der Punkt M2 der Definition 4.1.1 erfüllt. Der Punkt M1 ist ebenfalls erfüllt, da M ′ eine Untermatrix ist und der Knoten, der entfernt wurde, der erste Knoten ist. Da die erste Zeile beziehungsweise die erste Spalte der Matrix M nach Voraussetzung keinen 0-Eintrag enthält, ist auch der Knoten mit allen anderen Knoten adjazent. Es bleibt zu zeigen, dass M auch den Punkt M3 erfüllt. Angenommen es gibt eine Matrix X, die die Eigenschaften aus M3 erfüllt. Dann hätte X die Gestalt: X ≔ 0 0 .. . ··· 0 X′ 0 Angenommen MX = 0 würde gelten, dann folgt: MX = λ−1 1 z = 0 0 .. . 0 ! T z ′ · M hz, X1′ i 0 0 0 .. . 0 ··· M′ X ′ 0 . ··· X′ 0 ′ hz, Xn−1 i . Und dann müsste auch M ′ X ′ = 0 folgen. Ein Widerspruch, da M ′ die Eigenschaft M3 der Definition 4.1.1 erfüllen soll. Somit erfüllt M die Definition 4.1.1 und es gilt: corank(M) ≥ corank(M ′ ) + 1. Somit ist die Aussage bewiesen. Bemerkung: Im folgenden seien λ1 , . . . , λn die nach der Größe geordneten Eigenwerte einer Matrix M. Ist also von λ1 (M) beziehungsweise λ1 (MC ) die Rede, meint dies den kleinsten Eigenwert der Matrix M beziehungsweise den kleinsten Eigenwert der Untermatrix MC von M. Lemma 4.2.19. Es sei G = (V, E) ein zusammenhängender Graph und M eine zu G zugehörige Matrix, die die Definition 4.1.1 erfüllt. Weiter sei S ⊆ V und C1 , C2 , . . . , Cm Komponenten vom Graphen G − S . Dann gibt es drei Möglichkeiten: (i) Es existiert ein i mit λ1 (MCi ) < 0 und λ1 (MC j ) > 0 für alle j , i. (ii) Es gilt für alle i: λ1 (MCi ) ≥ 0, corank(M) ≤ |S |+1 und es gibt mindestens corank(M)− |S | + 2 und höchstens drei Komponenten Ci , so dass gilt: λ1 (MCi ) = 0. (iii) Für alle i gilt: λ1 (MCi ) > 0. Beweis. Es sei z der Eigenvektor, der zum kleinsten Eigenwert λ1 (M) der Matrix M gehört. Und für i = 1, . . . , m sei xi der Eigenvektor, der zum kleinsten Eigenwert λ(MCi ) der Matrix MCi gehört. Dann erweitere die Eigenvektoren xi , wie im Beweis vom Theorem 4.2.16, durch Hinzunahme von Nullen zu einem Vektor im R|V| . Nach dem Perron-FrobeniusTheorem 2.1.19 gilt: z > 0 und xi ≥ 0. Bei xi gilt größer gleich 0, da er noch Nullen 51 KAPITEL 4. DIE COLIN-DE-VERDIÈRE-ZAHL wegen der Erweiterung enthält. Weiterhin lassen sich die xi so skalieren, dass hz, xi i = 1 für alle i = 1. . . . , m gilt. Es sei λ1 (MC1 ) < 0. Dann folgt daraus (i): Angenommen es würde nicht gelten, dann wäre λ1 MC2 ≤ 0. Dann definiere y ≔ x1 − x2 . Daraus würde dann hz, yi = hz, x1 i − hz, x2 i = 0 und hy, Myi = hx1 , Mx1 i − hx1 , Mx2 i − hx2 , Mx1 i +hx2 , Mx2 i < 0 | {z } | {z } 0 0 folgen, da T hx2 , Mx1 i = x2 = MC1 MC2 S MC3 MC4 .. . S 0 xT2 0 ... 0 0 =0 MC1 x1 0 0 .. . 0 S x1 x1 0 .. . 0 Und für den Fall hx1 , Mx2 i gilt dies analog. Und es gilt weiter: hx1 , Mx1 i = hx1 , MC1 x1 i = hx1 , λ1 (MC1 )x1 i = λ1 (MC1 )kx1 k2 < 0. Denn laut der Voraussetzung gilt λ1 (MC1 ) < 0. Dies hat zur Folge, dass λ2 (M) < 0 gilt und dies wäre ein Widerspruch zu M erfüllt die Definition 4.1.1 und hat nur einen negativen Eigenwert. Das λ2 (M) < 0 gilt, sieht man so: es seien EV M = {v1 , v2 , . . . , vn } die Eigenvektoren von M nach der Reihenfolge der Eigenwerte EW M = {λ1 , λ2 , . . . λn } geordnet, dann P gilt: y = ni=1 αi vi für gewisse αi ∈ R. Da y und z = v1 linear unabhängig sind, gilt α1 = 0. 52 KAPITEL 4. DIE COLIN-DE-VERDIÈRE-ZAHL Und daraus folgt: hy, Myi = = n DX αi vi , M i=2 n DX = i=2 αi vi i=2 αi vi , i=2 n X n X n X αi λi vi i=2 E E λi α2i kvi k2 ≥ 0. Denn λi ≥ 0 für i = 2, . . . , n. Es sei λ1 (MCi ) ≥ 0 für alle i = 1, . . . , n. Dies bedeutet, dass MCi positiv definit ist. Angenommen (iii) gilt nicht, dann sei λ1 (MC1 ) = 0. Und es sei D der Vektorraum aller Vektoren y für die gelten: y ∈ ker(M) mit y s = 0 für alle s ∈ S . Dann gilt: Lemma 4.2.20. Für alle Vektoren y ∈ D und jede Komponente Ci von G − S gilt: yCi = 0, yCi > 0 oder yCi < 0. Falls weiterhin λ1 (MCi ) > 0 gilt, folgt daraus yCi = 0. Beweis. Falls y ∈ D folgt daraus MCi yCi = 0, denn: My = = = 0. MC1 MC2 S MC3 MC4 .. S MC1 yC1 MC2 yC2 MC3 yC3 MC4 yC4 .. . 0 . yC1 yC2 yC3 yC4 .. . 0 Somit ist dann MCi yCi = 0. Sofern yCi , 0 folgt λ1 (MCi ) = 0. Da die Matrix MCi positiv semidefinit ist, ist der kleinste Eigenwert größer gleich 0. Und damit ist dann auch yCi Eigenvektor zum Eigenwert λ1 (MCi ) = 0. Und nach dem Perron-Frobenius-Theorem 2.1.19 gilt dann yCi > 0 oder yCi < 0. Und falls λ1 (MCi ) > 0 muss yCi = 0 sein. Andernfalls würde My = 0 nicht folgen. Denn MCi yCi = 0, wenn yCi = 0 oder MCi singulär ist und somit den kleinsten Eigenwert 0 hat. Somit muss yCi = 0 sein. 53 KAPITEL 4. DIE COLIN-DE-VERDIÈRE-ZAHL Sei m′ die Anzahl der Komponenten Ci mit λ1 (MCi ) = 0. Dann gilt: dim(D) ≤ m′ − 1. Denn sofern y ∈ D folgt daraus, dass y eine Linearkombination aus xi ist, mit MCi xi = 0 wobei dann xi durch Hinzunahme von Nullen zu einen Vektor in R|V| erweitert wurde, siehe oben. Weiterhin gilt hz, yi = 0, da y ∈ ker(M) und z ebenfalls ein Eigenvektor ist und nach Satz 2.1.23 folgt dann hz, yi = 0. Dann betrachte man den Vektorraum D′ mit X m′ n o D′ = y ∈ R|V| | y = αi xi , αi ∈ R, hz, yi = 0 . i=1 Es gilt dann D ⊆ D′ , denn für jeden Vektor y in D folgt MCi yCi = 0, siehe den Beweis von P Lemma 4.2.20. Sei nun y ∈ D′ , dann gilt y = αi xi und hz, yi = 0, daraus folgt dann: Xm′ hz, yi = hz, αi xi i i=1 Xm′ = αi hz, xi i i=1 |{z} 1 = Xm′ i=1 αi = 0. Der Vektor xi wurde anfangs so skaliert, dass hz, xi i = 1 gilt. Es folgt somit, dass die P ′ Bedingung: y = m i=1 αi xi und hz, yi = 0 linear unabhängig sind und daraus folgt dann: dim(D′ ) = m′ − 1. Und aus D ⊆ D′ folgt wiederum dim(D) ≤ m′ − 1. Sofern nun λ1 (MC1 ) = 0 gilt, existiert ein Vektor w > 0 mit MC1 w = 0 nach dem PerronFrobenius-Theorem 2.1.19. Es sei F eine Menge mit: F = {x s | x ∈ ker(M)}. Angenommen es gilt dim(F) = |S |. Und sei j ein Knoten in S der adjazent zu der Komponente C1 ist. Dann gibt es einen Vektor y im Kern von M also y ∈ ker(M) mit: y j = −1 und yi = 0 für i ∈ S \{ j}. So ein Vektor existiert, da dim(F) = |S | angenommen wurde und somit die Menge F, | S | linear unabhängige Vektoren beinhaltet. Daraus lässt sich durch Linearkombination ein Vektor ermitteln für den die genannten Eigenschaften zutreffen. Weiter sei u die j-te Spalte der Matrix M. Dann folgt uC1 = MC1 yC1 . Da aber nach der Definition 4.1.1 M1 die Matrix M nur negative Einträge besitzt außer vielleicht auf der Diagonalen gilt: uCi ≤ 0. Da der Knoten j in S aber adjazent zu der Komponente C1 ist, folgt daraus uCi , 0. Allerdings folgt aus uC1 ≤ 0 und w > 0: 0 > huC1 , wi = hMC1 yC1 , wi = hyC1 , MC1 wi = hyC1 , 0i = 0. Ein Widerspruch, somit kann dim(F) = |S | nicht gelten. Also muss dim(F) ≤ |S | − 1 gelten. Und daraus folgt dann: m′ − 1 ≥ dim(D) = corank(M) − dim(F) ≥ corank(M) − |S | + 1. Also m′ ≥ corank(M) − |S | + 2. Das dim(D) = corank(M) − dim(F) gilt, folgt daraus, dass D gerade die Menge aus allen y ∈ ker(M) ist mit y s = 0 für alle s ∈ S . Um zu sehen, dass es höchstens drei solcher Komponenten gibt mit λ1 (MCi ) = 0, nehme man an es gibt vier solcher Komponenten. Und definiere X ≔ (x1 − x2 )(x3 − x4 )T + (x3 − x4 )(x1 − x2 )T . 54 KAPITEL 4. DIE COLIN-DE-VERDIÈRE-ZAHL Dann würde MX = 0 folgen. Ein Widerspruch zur Eigenschaft M3 der Definition 4.1.1. Siehe dafür den Beweis vom Lemma 4.2.17. Somit gibt es höchstens drei Komponenten mit λ1 (MC1 ) = 0 und mindestens corank(M) − |S | + 2. Und insgesamt folgt aus: corank(M) − |S | + 2 ≤ m′ ≤ 3, dass corank(M) ≤ |S | + 1 gilt. 4.3 Cliquensummen Theorem 4.3.1. ([22]) Es sei G = (V, E) eine Cliquensumme (siehe Definition 3.1.30) von G1 = (V1 , E1 ) und G2 = (V2 , E2 ). Sei S ≔ V1 ∩ V2 eine Clique und t ≔ max{µ(G1 ), µ(G2 )}. Sofern µ(G) > t ist, folgt: µ(G) = t + 1 und man kann zwei oder drei Komponenten von G − S kontrahieren, so dass die kontrahierten Knoten mit S einen Kt+3 \ △ formen. Beweis. Nach dem Theorem über die Komponenten 4.2.13 nehme an, dass G1 und G2 zusammenhängend seien. Es sei M eine zu G zugehörige Matrix mit µ(G) = corank(M) und die die Definition 4.1.1 erfüllt. Zunächst wird gezeigt, dass für den kleinsten Eigenwert λ1 (MC ) von der Untermatrix MC gilt: λ1 (MC ) ≥ 0 für alle Komponenten C von G − S , dies entspricht den Punkt (ii) des Lemmas 4.2.19. Angenommen dies gilt nicht, also entweder (i) λ1 (MC ) < 0 oder (iii) für alle Komponenten C gilt: λ1 (MC ) > 0. Nach Lemma 4.2.19 i. folgt dann für alle Komponenten C ′ von G − S mit C , C ′ : λ1 (MC′ ) > 0. Sei G′ ein Untergraph von G, der von C ∪ S induziert wird. Somit ist G′ ein Untergraph von G1 oder G2 , da G − S mindestens zwei Komponenten wegen (i) enthält und C ⊂ G1 oder C ⊂ G2 gilt. Weiter sei L die Vereinigung der anderen Komponenten: [ L≔ C′ . C′ ,C Dann folgt: λ1 (ML ) > 0. Bemerkung: für den Beweis kann auch λ1 (MC ) > 0 gelten, was den Punkt (iii) des Lemmas 4.2.19 entspricht. Dann hat die Matrix M die Gestalt: MC UC 0 M = UCT MS U L . T 0 U L ML Weiter sei die Matrix A gleicher Dimension definiert als: I 0 0 A ≔ 0 I −U L ML−1 . 0 0 I Nach Sylvesters Trägheitssatz 2.1.6 hat die Matrix MC UC T AMA = UCT MS − U L ML−1 U LT 0 0 0 0 ML die selbe Signatur wie die Matrix M. Daraus folgt schließlich, dass die Matrix AMAT genau einen negativen Eigenwert wie die Matrix M hat und beide somit den gleichen corank besitzen. Da ML die Vereinigung von Komponenten C ′ ist, mit der Eigenschaft das für den kleinste Eigenwert λ1 (MC′ ) > 0 gilt, folgt daraus, dass ML positiv definit ist und nur positive Eigenwerte besitzt. Daraus folgt dann wiederum, dass die Untermatrix ! MC UC ′ M ≔ UCT MS − U L ML−1 U LT 55 KAPITEL 4. DIE COLIN-DE-VERDIÈRE-ZAHL genau einen negativen Eigenwert hat wie die Matrix M und den gleichen corank wie M. Es bleibt zu zeigen, dass M ′ die Definition 4.1.1 für den Graphen G′ erfüllt. Die Matrix M ′ erfüllt von der Definition 4.1.1 den Punkt M2, wie eben gezeigt wurde. Der Graph G′ besteht aus der Komponente C und der Clique S . Für die Komponente C und die Adjazenz zu der Clique S erfüllt die Matrix M ′ den Punkt M1, da M bereits den Punkt M1 erfüllt. Es muss für die Vollständigkeit noch gezeigt werden, dass (MS − U ML−1 U LT )i j < 0 für alle i j ∈ E(S ) gilt. Zunächst ist (MS )i j < 0 für alle i, j mit i , j, da S eine Clique ist und somit jeder Knoten in S mit jedem anderen adjazent ist. Da ML positiv definit ist und (ML )i j < 0 für alle i, j mit i , j folgt daraus, dass (ML−1 )i j ≥ 0 für alle i, j gilt, nach Satz 2.1.15. Somit ist (MS − U ML−1 U LT )i j < 0 für alle i j ∈ E(S ) und M ′ erfüllt den Punkt M1. Bleibt noch M3 zu zeigen. Sei X ′ eine Matrix die die Eigenschaften vom Punkt M3 erfüllt und für die gilt: M ′ X ′ = 0. Da der Graph G1 aus einer Clique besteht und somit die Matrix M ′ auch, lässt sich für X ′ schreiben: ! X′ Y X ′ = CT . Y 0 Man definiere eine Matrix Z mit Z ≔ −YU L ML−1 , die Inverse von ML existiert, da sie keinen Eigenwert 0 hat und somit den vollen Rank. Weiter definiere die Matrix X mit: ′ XC Y Z T 0 0 . X ≔ Y T Z 0 0 Und dann folgt aus M3 für die Matrix M: MC UC 0 XC′ Y Z T T 0 0 MX = UC MS U L Y T T 0 U L ML Z 0 0 MC Y MC XC′ + UC Y T U T X ′ + M T T T Y + U Z U = C C S L CY U LT Y T + ML Z T 0 MC XC′ + UC Y T T ′ U X + = C C MS Y T + U L ML−1 U LT Y T U LT Y T + ML Z T MC Z UCT Z 0 MC Y UCT Y 0 MC Z UCT Z 0 . Im letzten Schritt wurde Z ≔ −YU L ML−1 eingesetzt und ausgenutzt, dass MLT = ML gilt. Sofern nun MX = 0 ist, folgt daraus, dass bereits nach der Eigenschaft M3 die Matrix X = 0 ist. Und daraus folgt dann für M ′ X ′ : ! ′ ! MC UC XC Y M′ X ′ = UCT MS − U L ML−1 U LT Y T 0 ! MC XC′ + UC Y T MC Y = T ′ . UC XC + MS Y T − U L ML−1 U LT Y T UCT Y Man erhält eine Matrix, die bereits bei MX eine Untermatrix war, also: MC Z M′ X ′ UCT Z . MX = U LT Y T + ML Z T 0 0 Und daraus folgt, dass X ′ = 0 gilt und somit ist M3 auch für die Matrix M ′ erfüllt. Insgesamt folgt dann: µ(G′ ) ≥ corank(M ′ ) = corank(M) = µ(G) > t. 56 KAPITEL 4. DIE COLIN-DE-VERDIÈRE-ZAHL S S (a) S (b) Abbildung 4.3: Die Cliquensumme aus Abbildung (b) besteht aus den beiden oberen Graphen mit der gemeinsamen Clique, in Abbildung (a) rot dargestellt. Dies ergibt einen Widerspruch, da t ≔ max{µ(G1 ), µ(G2 )} und G′ einen Untergraphen von G1 oder G2 bildet. Weiterhin folgt nach dem Theorem über die Minormonotonie 4.2.5, dass t ≥ µ(G′ ) gilt. Somit erfüllt der Graph vom Lemma 4.2.19 nicht (i) und (iii) sondern es gilt: λ1 (MC ) ≥ 0 für alle Komponenten C von G − S . Der Beweis teilt sich nun in zwei Teile. Im ersten Teil wird angenommen, dass die Nachbarn von mindestens einer Komponente C aus G − S nicht die Clique bilden, also N(C) , S für mindestens ein C. Und im zweiten Teil wird angenommen, dass für alle Komponenten C aus G − S gilt, das die Nachbarn S bilden, also N(C) = S für alle C. 1. Fall N(C) , S : Es gilt N(C) , S für mindestens eine Komponente aus G − S . Dann nehme man ohne Beschränkung der Allgemeinheit an, dass C ein Untergraph von G1 sei. Dann sei H1 der zu C ∪ N(C) induzierte Graph und sei H2 der zu den restlichen Komponenten und S induzierte Graph. Dann ist der Graph G ebenfalls eine Cliquensumme aus den Graphen H1 und H2 mit der Clique S ′ ≔ N(C). Da die Komponente C aus G − S gewonnen wurde und C ein Untergraph von G1 ist, ist C auch in G1 − S enthalten. Daraus folgt, dass der induzierte Graph aus N(C) ein Untergraph von S ist und somit ebenfalls eine Clique darstellt, die auch in H2 enthalten ist, da S in H2 enthalten ist. Weiterhin ist H2 eine Cliquensumme aus G1 − C und G2 mit der gemeinsamen Clique S , da S in G2 enthalten ist und somit in G1 − C. Der Beweis erfolgt mittels Induktion nach |V| + |S |. Der Induktionsanfang startet bei 5, da der Graph für kleinere Werte ein Pfad ist und der corank = 1 ist. Die Bedingung µ(G) > max{µ(G1 ), µ(G2 )} wäre dann nicht erfüllt. Induktionsanfang: Es sei |V| + |S | = 5. Als Induktionsanfang sei das Beispiel aus Abbildung 4.3 gewählt. Dies ist auch das einzige Beispiel für |V| + |S | = 5, denn wäre |S | = 2 dürfte der Graph G nur noch aus einen weitere Knoten v < S bestehen. Dann ist v ∈ V und S ⊂ V und |V| + |S | = 5. In diesem Fall ist der Graph wieder ein Pfad und die Bedingung µ(G) > max{µ(G1 ), µ(G2 )} wäre nicht erfüllt. Bleibt also nur noch der Fall |S | = 1. Für diesen Fall bietet nur das Beispiel aus Abbildung 4.3 einen Induktionsanfang. Dann gilt für den Graphen G1 und G2 : µ(G1 ) = µ(G2 ) = 1, da G1 und G2 aus Pfaden bestehen und für Pfade gilt, dass der corank gleich 1 ist. Siehe Satz 4.1.5. Es bleibt zu zeigen, dass für G gilt: µ(G) = 2. Es sei M definiert durch: 0 −1 0 0 0 0 −1 0 . M ≔ −1 −1 2 −1 0 0 −1 0 Dann erfüllt die Matrix M den Punkt M1 der Definition 4.1.1. Das charakteristische Polynom lautet dann: det(M − λI) = λ4 − 2λ3 − 3λ2 . 57 KAPITEL 4. DIE COLIN-DE-VERDIÈRE-ZAHL Mit der entsprechenden Nullstellenmenge: EW M = {−1, 0, 0, 3}. Somit erfüllt die Matrix M auch den Punkt M2, es gibt genau einen negativen Eigenwert der Vielfachheit eins. Weiterhin ist der corank(M) = 2. Es bleibt zu zeigen, dass M den Punkt M3 erfüllt. Es sei X eine Matrix, die die Eigenschaften aus M3 erfüllt. Dann hat X die Gestalt: 0 a 0 b a 0 0 c . X = 0 0 0 0 b c 0 0 Und dann folgt aus MX: 0 0 0 0 MX = −a − b −a − c 0 0 0 0 0 0 0 0 . −b − c 0 Aus −a − b = 0 und −a − c = 0 folgt: b = c. Und aus −b − c = 0 und b = c folgt b = c = 0 und damit auch a = 0. Somit muss die Matrix X gleich der Nullmatrix sein und der Punkt M3 ist erfüllt und der Graph bildet einen K4 \ △ somit ist der Induktionsanfang wahr. Induktionsvoraussetzung: Die Aussage sei für |V| + |S | = k mit k ≥ 5 wahr. Induktionsschritt: Es bleibt zu zeigen, dass unter der Induktionsvoraussetzung, die Aussage auch für |V| +|S | = k +1 wahr ist. Man betrachte den ersten Unterfall, es gilt: µ(G) = µ(H2 ). 1.1. Fall µ(G) = µ(H2 ): Es gilt bereits µ(G) > t ≔ max{µ(G1 ), µ(G2 )}, da G1 − S ein Untergraph von G1 ist und nach dem Theorem über die Minormonotonie 4.2.5 folgt schließlich t ≔ max{µ(G1 ), µ(G2 )} ≥ t′ ≔ max{µ(G1 − C), µ(G2 )}. Somit gilt dann µ(H2 ) = µ(G) > max{µ(G1 − C), µ(G2 )}. Dann folgt daraus: µ(H2 ) > t′ ≔ max{µ(G1 − C), µ(G2 )}. Weiter ist |V(H2 )| + |S | < |V(G)| + |S | = k + 1. Nach Induktionsvoraussetzung gilt damit: µ(H2 ) = t′ + 1 und daraus folgt dann: t < µ(G) = µ(H2 ) = t′ + 1 ≤ t + 1 und dies impliziert t′ = t also µ(G) = t + 1. Weiterhin gibt es für die Clique S , wie im folgenden gezeigt wird, nur zwei Möglichkeiten entweder es gilt: |S | = t + 1 oder |S | = t. Denn nach Lemma 4.2.19 ii. gibt es mindestens corank(M) − |S | + 2 und höchstens 3 Komponenten Ci für die gelten: λ1 (Ci ) = 0. Da es mindestens eine Komponente geben muss, da sonst iii. gilt, folgt: 1 ≤ corank(M) − |S | + 2 = t + 1 − |S | + 2. Und daraus |S | ≤ t +2. Da die Clique S in G1 und G2 enthalten ist, folgt nach dem Theorem über die Minormonotonie 4.2.5 µ(G1 ) ≥ µ(S ) = t + 1, sofern |S | = t + 2 ergibt dies einen Widerspruch, da bereits t = max{µ(G1 ), µ(G2 )} gilt. Somit kann nur |S | ≤ t + 1 gelten. Weiterhin muss aus Lemma 4.2.19 ii. folgen, dass gilt: corank(M) − |S | + 2 = t + 1 − |S | + 2 ≤ 3. Und man erhält t ≤ |S |. Somit gibt es für die Clique S nur zwei Möglichkeiten entweder es gilt: |S | = t + 1 oder |S | = t. 1.1.a. Fall |S | = t + 1: 58 KAPITEL 4. DIE COLIN-DE-VERDIÈRE-ZAHL Also betrachte man |S | = t+1. Da der Graph H2 bereits die Induktionsvoraussetzung erfüllt, da V(G) + |S | > V(H2 ) + |S |, und S als Clique hat, lassen sich auch zwei Komponenten C ′ und C ′′ von H2 − S finden, so dass einerseits N(C ′ ) = N(C ′′ ) und | N(C ′ )| = t gilt und andererseits sich durch Kontraktion der beiden Komponenten ein Kt+3 \ △ bildet. Denn die Clique S besteht aus t + 1 Knoten und bildet mit den kontrahierten Komponenten C ′ und C ′′ einen Graphen mit t + 3 Knoten. Da die Nachbarn von den Komponenten C ′ und C ′′ gleich sein müssen um die Induktionsvoraussetzung zu erfüllen und die Mächtigkeit dieser t beträgt, gibt es einen Knoten v in S der nicht zu C ′ und C ′′ adjazent ist und somit mit S̃ ≔ S −v und den Komponenten C ′ , C ′′ einen Kt+3 \△, siehe Abbildung 4.4. Nun betrachte man den Fall |S | = t. 1.1.b. Fall |S | = t: Da der Graph H2 die Induktionsvoraussetzung bereits erfüllt, gibt es in H2 − S bereits drei Komponenten C ′ , C ′′ und C ′′′ mit N(C ′ ) = N(C ′′ ) = N(C ′′′ ). Die kontrahierten Komponenten ergeben mit der Clique S einen Graphen mit t + 3 Knoten, diese sind mit S adjazent aber nicht untereinander und ergeben somit einen Kt+3 \ △ formen, siehe hierzu Abbildung 4.5. Man betrachte nun den zweiten Fall: µ(G) > µ(H2 ). C′ C′ C ′′ S S̃ C ′′ v Abbildung 4.4: Die Clique S besteht aus t + 1 Knoten. Die Clique S̃ besteht aus t Knoten und bildet mit dem Knoten v wieder die Clique S . C′ S C ′′ C ′′′ Abbildung 4.5: Die Clique S besteht aus t Knoten und bildet mit den kontrahierten Komponenten C, C ′′ und C ′′′ einen Kt+3 \ △. 1.2. Fall µ(G) > µ(H2 ): Es gelte µ(G) > t ≔ max{µ(G1 ), µ(G2 )}, dann folgt µ(G) > t′ ≔ max{µ(H1 ), µ(H2 )}, denn µ(G1 ) ≥ µ(H1 ) wegen des Theorems über die Minormonotonie 4.2.5 und µ(G) ≥ µ(H2 ). Somit folgt aufgrund der Induktionsvoraussetzung: µ(G) = t′ +1, da |V(G)|+|S ′| < |V(G)|+|S | und N(C) , S ist. Daraus folgt wiederum t < t′ + 1 also t ≤ t′ . Es gibt wieder die beiden KAPITEL 4. DIE COLIN-DE-VERDIÈRE-ZAHL 59 Fälle |S ′ | = t′ oder |S ′ | = t′ +1. Daraus folgt nun |S ′ | < |S | ≤ t +1 ≤ t′ +1. Die Ungleichung |S | ≤ t + 1 folgt, da µ(G) > t vorausgesetzt wurde. Insgesamt impliziert dies dann |S ′ | = t′ und somit auch t = t′ . Es gilt: µ(G) = t + 1. Weiterhin hat G − S ′ hat 3 Komponenten C ′ , C ′′ und C ′′′ mit N(C ′ ) = N(C ′′ ) = N(C ′′′ ) = S ′ . Daraus folgt: Es gibt zwei Komponenten C ′ und C ′′ in G − S mit N(C ′ ) = N(C ′′ ) = S ′ und man kann diese kontrahieren, so dass ein Kt+3 \ △ entsteht. Es gilt |S ′ | + 1 = |S |, da |S ′ | = t′ und |S | ≤ t′ + 1 aber |S ′ | < |S | damit gibt es einen Knoten v in S der mit C ′ und C ′′ kontrahiert einen Kt+3 \ △ bildet, siehe dazu wieder Abbildung 4.4. 2. Fall N(C) = S : Für alle Komponenten aus C aus G − S gilt N(C) = S . Des Weiteren sei µ(G) > t ≔ max{µ(G1 ), µ(G2 )} oder auch µ(G) − 1 ≥ t. Falls |S | > t ist, würde der Graph G1 mindestens einen Kt+1 enthalten. Weiterhin ist die Komponente C in G1 enthalten. Diese Komponente hat den Nachbarn S , da N(C) = S angenommen wurde. Würde man C zu einem Knoten extrahieren, gäbe es in G1 einen Kt+2 . Und aus dem Theorem über die Minormonotonie 4.2.5 folgt dann: µ(G1 ) ≥ µ(Kt+2 ) = t + 1, was der Bedingung t = max{µ(G1 ), µ(G2 )} widerspricht. Folglich gilt |S | ≤ t. Da µ(G) > µ(G1 ) gilt, folgt daraus auch: µ(G) > |S |, da es sonst, wie oben, zu einem Widerspruch kommen würde. Und die Bedingung µ(G) > |S | zieht µ(G) − |S | + 2 ≥ 3 nach sich. Und nach dem Lemma 4.2.19 ii. folgt allerdings: corank(M) − |S | + 2 = µ(G) − |S | + 2 ≤ 3, also µ(G) − 1 ≤ |S |. Dies ergibt dann: t ≥ |S | ≥ µ(G) − 1 ≥ t. Damit folgt µ(G) = t + 1. Nach dem Lemma 4.2.19 ii. gibt es drei Komponenten C ′ , C ′′ und C ′′′ für die N(C ′ ) = N(C ′′ ) = N(C ′′′ ) = S gilt. Es gibt mindestens corank(M) − |S | + 2 und höchstens 3 Komponenten mit der Eigenschaft λ1 (C) = 0. Es galt bereits corank(M) − |S | + 2 ≥ 3 und somit gibt es genau drei solcher Komponenten. Und weiterhin bildet S und die kontrahierten Komponenten C ′ , C ′′ und C ′′′ einen Kt+2 \ △, siehe Abbildung 4.5. Korollar 4.3.2. Es sei G = (V, E) eine Cliquensumme von den beiden Graphen G1 = (V1 , E1 ) und G2 = (V2 , E2 ) mit der gemeinsamen Clique S = V1 ∩ V2 . Falls nun gilt: µ(G1 ) , µ(G2 ) und |S | < µ(G1 ) und G − S hat höchstens eine Komponente C mit N(C) = S , folgt daraus: µ(G) = max{µ(G1 ), µ(G2 )}. Beweis. Angenommen es würde dann µ(G) > t ≔ max{µ(G1 ), µ(G2 } folgen, dann würde daraus wiederum nach Theorem 4.3.1 folgen, dass man zwei oder drei Komponenten von G−S kontrahieren könnte, so dass die kontrahierten Knoten mit S einen Kt+3 \△ bilden. Ohne Beschränkung der Allgemeinheit sei µ(G1 ) > µ(G2 ), also folgt dann t = µ(G1 ). Und aus µ(G1 ) > |S | folgt dann t − 1 ≥ |S |. Gebe es nun eine Komponente C mit N(C) = S , würde die kontrahierte Komponente mit der Clique S höchstens einen Kt formen. Würde die Aussage aus Theorem 4.3.1 gelten, könnte man mit zwei weiteren kontrahierten Komponenten und der Clique S und der kontrahierten Komponente einen Kt+3 \ △ formen. Allerdings hätte die Clique S mit den kontrahierten Komponenten dann höchstens t + 2 Knoten. Ein Widerspruch, somit muss µ(G) = max{µ(G1 ), µ(G2 )} folgen. Satz 4.3.3. Es sei K p,q mit p ≤ q der vollständige bipartite Graph, dann gilt: wenn q ≤ 2, p, µ(K p,q ) = p + 1, wenn q ≥ 3. Beweis. Für den Beweis werden drei Fälle unterschieden. Der erste Fall ist q ≤ 2, der zweite Fall q = 3 und der letzte Fall lautet q > 3 Man betrachte den ersten Fall. 1. Fall q ≤ 2: 60 KAPITEL 4. DIE COLIN-DE-VERDIÈRE-ZAHL (a) K1,1 (b) K1,2 (c) K2,2 Abbildung 4.6: Die möglichen vollständigen bipartiten Graphen für den Fall q ≤ 2: (a), (b) und (c). Für diesen Fall gibt es nur drei mögliche Fälle: K1,1 , K1,2 und K2,2 , siehe dazu Abbildung 4.6. Für den vollständigen bipartiten Graphen K1,1 und K1,2 gilt: µ(K1,1 ) = µ(K1,2 ) = 1, da der K1,1 und der K1,2 Pfade sind, siehe Satz 4.1.5. Für den Fall K2,2 gilt nach Satz 4.1.4 µ(K4 ) = 3 > µ(K2,2 ), da der Kn der einzige Graph mit n ≥ 3 ist für den µ(Kn ) = n − 1 gilt. Für K2,2 betrachte man die Matrix M mit: 0 0 0 0 M ≔ −1 −1 −1 −1 −1 −1 −1 −1 . 0 0 0 0 Die Matrix M erfüllt von der Definition 4.1.1 den Punkt M1. Man betrachte die Eigenwerte von M: det(M − λI) = −λ4 + 4λ2 . Daraus folgt dann: EW M = {−2, 0, 0, 2}. Die Matrix M erfüllt damit auch den Punkt M2, es gibt nur einen negativen Eigenwert der Vielfachheit 1. Des weiteren gilt: corank(M) = 2. Es bleibt der Punkt M3 zu zeigen. Es sei X eine Matrix, die die Eigenschaften aus M3 erfüllt, dann hat X die Gestalt: Und aus M · X = 0 folgt: 0 a X = 0 0 0 0 M · X = −a −a a 0 0 0 0 0 0 b 0 0 . b 0 0 −b −b 0 −b −b . −a 0 0 −a 0 0 Somit muss a = b = 0 sein und die Matrix erfüllt die Definition 4.1.1 und hat einen corank von 2. Somit ist µ(K2,2 ) = 2. Und die Aussage ist für den ersten Fall: q ≤ 2 bewiesen. Man betrachte den zweiten Fall. 2. Fall q = 3: Für den Fall q = 3 gibt es drei Fälle: K1,3 , K2,3 und K3,3 , siehe dazu Abbildung 4.7. 2.a. Fall G = K1,3 : 61 KAPITEL 4. DIE COLIN-DE-VERDIÈRE-ZAHL (a) K1,3 (b) K2,3 (c) K3,3 Abbildung 4.7: Die möglichen vollständigen bipartiten Graphen für den Fall q = 3: (a), (b) und (c). Man betrachte den vollständigen bipartiten Graphen K1,3 , dann gilt: µ(K4 ) > µ(K1,3 ), also 2 ≥ µ(K1,3 ), siehe oben und Satz 4.1.4. Man betrachte die Matrix M mit: 0 0 −1 0 0 0 0 −1 . M ≔ 0 0 −1 0 −1 −1 −1 0 Die Matrix M erfüllt den Punkt M1 der Definition 4.1.1. Für die Eigenwerte gilt nach Satz 2.1.25: det(M − λI) = λ4 − 3λ2 . √ √ Daraus folgt: EW M = {− 3, 0, 0, 3}. Die Matrix M erfüllt somit auch den Punkt M2, es gibt nur einen negativen Eigenwert der Vielfachheit 1. Des weiteren gilt: corank(M) = 2. Es bleibt der Punkt M3 zu zeigen. Es sei X eine Matrix, die die Eigenschaften aus M3 erfüllt, dann hat X die Gestalt: 0 a b 0 a 0 c 0 . X = b c 0 0 0 0 0 0 Und aus M · X = 0 folgt: M · X = 0 0 0 0 0 0 −a − b −a − c 0 0 0 −b − c 0 0 . 0 0 Aus −a − b = 0 und −a − c = 0 folgt: b = c. Aus b = c und −b − c = 0 folgt b = c = 0 und damit auch a = 0 und die Matrix erfüllt die Definition 4.1.1 und hat einen corank von 2. Somit ist µ(K1,3 ) = 1 + 1 = 2. 2.b. Fall G = K2,3 : Man betrachte den vollständigen bipartiten Graphen K2,3 , dann gilt: µ(K5 ) > µ(K2,3 ), also 3 ≥ µ(K2,3 ), siehe oben und Satz 4.1.4. Man betrachte die Matrix M mit: 0 0 −1 −1 0 0 0 0 −1 −1 0 0 −1 −1 . M ≔ 0 −1 −1 −1 0 0 −1 −1 −1 0 0 62 KAPITEL 4. DIE COLIN-DE-VERDIÈRE-ZAHL Die Matrix M erfüllt den Punkt M1 der Definition 4.1.1. Für die Eigenwerte gilt nach Satz 2.1.25: det(M − λI) = −λ5 + 6λ3 . √ √ Daraus folgt: EW M = {− 6, 0, 0, 0, 6}. Die Matrix M erfüllt somit auch den Punkt M2, es gibt nur einen negativen Eigenwert der Vielfachheit 1. Des weiteren gilt: corank(M) = 3. Es bleibt der Punkt M3 zu zeigen. Es sei X eine Matrix, die die Eigenschaften aus M3 erfüllt, dann hat X die Gestalt: Und aus M · X = 0 folgt: 0 a X = b 0 0 0 0 M · X = 0 −a − b −a − b a 0 c 0 0 b c 0 0 0 0 0 0 −a − c −a − c 0 0 0 0 d 0 0 0 . d 0 0 0 0 −b − c −b − c −d −d −d 0 0 −d −d −d . 0 0 Somit muss d = 0 sein und aus −a − b = 0 und −a − c = 0 folgt: b = c. Aus b = c und −b − c = 0 folgt b = c = 0 und damit auch a = 0 und die Matrix erfüllt die Definition 4.1.1 und hat einen corank von 3. Somit ist µ(K2,3 ) = 2 + 1 = 3. 2.c. Fall G = K3,3 : Man betrachte nun den vollständigen bipartiten Graphen K3,3 , dann gilt: µ(K6 ) > µ(K3,3 ), also 4 ≥ µ(K2,3 ), siehe oben und Satz 4.1.4. Man betrachte die Matrix M mit: 0 0 0 0 0 0 0 0 0 M ≔ −1 −1 −1 −1 −1 −1 −1 −1 −1 −1 −1 −1 −1 −1 −1 −1 −1 −1 . 0 0 0 0 0 0 0 0 0 Die Matrix M erfüllt den Punkt M1 der Definition 4.1.1. Für die Eigenwerte gilt nach Satz 2.1.25: det(M − λI) = λ6 − 9λ4 . Daraus folgt: EW M = {−3, 0, 0, 0, 0, 3}. Die Matrix M erfüllt somit auch den Punkt M2, es gibt nur einen negativen Eigenwert der Vielfachheit 1. Des weiteren gilt: corank(M) = 4. Es bleibt der Punkt M3 zu zeigen. Es sei X eine Matrix, die die Eigenschaften aus M3 erfüllt, dann hat X die Gestalt: 0 a b 0 0 0 a 0 c 0 0 0 b c 0 0 0 0 X = . 0 0 0 0 d e 0 0 0 d 0 f 0 0 0 e f 0 63 KAPITEL 4. DIE COLIN-DE-VERDIÈRE-ZAHL Und aus M · X = 0 folgt: 0 0 0 M · X = −a − b −a − b −a − b 0 0 0 −a − c −a − c −a − c 0 0 0 −b − c −b − c −b − c −d − e −d − e −d − e 0 0 0 −d − f −d − f −d − f 0 0 0 −e − −e − −e − 0 0 0 f f f . Aus −a − b = 0 und −a − c = 0 folgt: b = c. Aus b = c und −b − c = 0 folgt b = c = 0 und damit auch a = 0 und für d, e und f analog und die Matrix erfüllt die Definition 4.1.1 und hat einen corank von 4. Somit ist µ(K3,3 ) = 3 + 1 = 4. Und die Aussage ist für den zweiten Fall: q = 3 bewiesen. Man betrachte nun den letzten Fall. 3. Fall q > 3: Im ersten Schritt des Beweises wird µ(K p.q ) ≤ p + 1 gezeigt und im zweiten Schritt wird durch Induktion µ(K p.q ) ≥ p +1 bewiesen woraus schließlich die Gleichheit µ(K p.q ) = p +1 folgt. 3.a. Fall q > 3 und µ(K p.q ) ≤ p + 1 : Für p > 2 ist der vollständige bipartite Graph K p,q ein Untergraph aus der Cliquensumme mit den Kopien des vollständigen Graphen K p+1 und der Clique S = K p . Es sei G1 der Graph, der aus der Cliquensumme von den vollständigen Graphen K p+1 und K p+1 sowie der Clique S besteht. Dann gilt: max{µ(K p+1 ), µ(K p+1 )} = p und es folgt: µ(G1 ) ≤ p+1. Für den Graphen G1 gilt aufgrund des Theorems über die Minormonotonie 4.2.5 µ(G1 ) ≥ p und aufgrund des Theorems 4.3.1 µ(G1 ) ≤ p + 1. Also kann nur µ(G1 ) = p oder µ(G1 ) = p + 1 gelten. Nun betrachte man den Graphen G2 , der aus der Cliquensumme von den vollständigen Graphen K p+1 und G1 mit der Clique K p entsteht. Angenommen es gilt µ(G1 ) = p, dann folgt aufgrund der gleichen Argumentation wie oben: µ(G2 ) ≤ p+1. Gelte nun µ(G1 ) = p+1 folgt wegen: µ(G1 ) , µ(K p+1 ) und |S | = |K2 | = p < µ(G1 ) = p + 1 und G2 − S enthält höchstens eine Komponente C mit N(C) = S , denn der Graph G2 besteht aus vollständigen Graphen K p+1 somit gibt es durch entfernen der Clique immer noch mindestens einen Knoten, der mit allen anderen verbunden ist sowie der Clique. Also kann G2 − S höchstens eine Komponente C enthalten mit N(C) = S , somit gilt: µ(G2 ) = max{µ(G1 ), µ(K p+1 )} = p + 1 aufgrund des Korollars 4.3.2. Daraus folgt µ(G2 ) ≤ p + 1. Die Argumentation lässt sich nun q mal wiederholen, so dass für den Graphen Gq : µ(Gq ) ≤ p + 1 gilt. Des Weiteren besteht der Graph Gq aus q + p Knoten. Und nach Konstruktion ist der vollständig bipartite Graph K p,q ein Minorgraph des Graphen Gq für alle q ≥ 3 und p ≥ 1. Das Konstruktionsverfahren wurde in Abbildung 4.8 für den Fall q = 4 und p = 3 dargestellt. Es wurde gezeigt, dass für den vollständigen bipartiten Graphen K p,q für alle q ≥ 3 bereits µ(K p,q ) ≤ p + 1 gilt. Im nächsten Schritt wird gezeigt, dass für alle q ≥ 3 gilt: µ(K p,q ) ≥ p + 1. Dies soll mit vollständiger Induktion nach q gezeigt werden. 3.b. Fall q > 3 und µ(K p.q ) ≥ p + 1 : Induktionsanfang: Es sei q = 3. Der Fall q = 3 wurde bereits oben behandelt und es galt: µ(K p,3 ) = p + 1 ≥ p + 1. Eine wahre Aussage. Induktionsvoraussetzung: Die Aussage sei für q ≥ 3 wahr. Induktionsschritt: Es bleibt zu zeigen, dass unter der Induktionsvoraussetzung, die Aussage auch für q + 1 wahr ist. Aus dem vollständigen Graphen K p,q+1 entsteht durch Kontraktion zweier Knoten aus den disjunkten Eckenmengen ein neuer Graph G̃, siehe dazu Abbildung 4.9. Da der Graph G̃ ein Minorgraph des Graphen K p,q+1 ist, gilt aufgrund des Theorems über die Minormonotonie 4.2.5: µ(K p,q+1 ) ≥ µ(G̃). Der kontrahierte Knoten v ist in G̃ zu allen anderen Knoten adjazent. Wird dieser Knoten entfernt, entsteht der Graph K p−1,q aus G̃ heraus. Und es gilt nach dem Theorem über das Entfernen von Knoten 4.2.16: µ(G̃) = µ(G̃ − v) + 1 = µ(K p−1,q ) + 1. Nach Induktionsvoraussetzung folgt dann: µ(G̃) = (p − 1 + 1) + 1 = p + 1 64 KAPITEL 4. DIE COLIN-DE-VERDIÈRE-ZAHL (a) K3+1 (b) K3+1 (c) G 1 (d) G 1 (e) K3+1 (f) G 2 Abbildung 4.8: Der Graph G1 aus (c) entsteht durch die beiden vollständigen Graphen K4 aus (a) und (b) als Cliquensumme mit der gemeinsamen Clique K3 die hier rot dargestellt ist. Im nächsten Schritt entsteht der Graph G2 aus (f) als Cliquensumme von den Graphen G1 aus (d) und K4 aus (e). und damit folgt dann mit µ(K p,q+1 ) ≥ p + 1. Insgesamt folgt daraus dann: µ(K p,q ) = p + 1 für alle q ≥ 3. 4.4 Unterteilung und △Y-Transformation Theorem 4.4.1. Es sei G ein Graph. Weiter sei G′ ein Graph, der durch Unterteilung einer Kante aus G entstanden ist. Dann gilt: (a) µ(G) ≤ µ(G′ ). (b) Falls µ(G) ≥ 3 gilt, folgt µ(G) = µ(G′ ). Beweis. Teil (a) folgt aus Theorem 4.2.5 über die Minormonotonie, da G ein Minor von G′ ist. Teil (b): Sei G̃ der Graph der aus einer Cliquensumme aus dem ursprünglichen Graphen G und dem vollständigen Graphen K3 mit gemeinsamer Clique S = K2 entstanden ist. Falls µ(G) ≥ 3 gilt, folgt µ(G) ≥ 3 > µ(K3 ) = 2. Weiterhin gilt µ(G) > |S | = 2. Falls nun die zu unterteilende Kante eine Brücke ist, gibt es höchstens eine Komponente C aus G̃ − S , so dass N(C) = S ist, nämlich den Knoten aus den Graphen K3 . Siehe dazu Abbildung 4.10. Dann folgt aus Korollar 4.3.2 µ(G̃) = µ(G) und aus Theorem 4.2.5 über die Minormonotonie µ(G̃) ≥ µ(G′ ) ≥ µ(G). Mit µ(G̃) = µ(G), folgt dann die Behauptung. Falls nun die zu unterteilende Kante keine Brücke ist, gibt es zwei Fälle für den Graphen G̃. Falls G̃ = max{µ(G), µ(K3 )} folgt die Behauptung, wie oben aus Theorem 4.2.5 über die Minormonotonie. Angenommen es gilt µ(G̃) > t ≔ max{µ(G), µ(K3 )}, dann folgt wegen des Theorems 4.3.1 über Cliquensummen, dass µ(G̃) = t + 1 ist und das man zwei oder drei 65 KAPITEL 4. DIE COLIN-DE-VERDIÈRE-ZAHL (a) K p,q+1 (b) G̃ Abbildung 4.9: Im vollständig bipartite Graph K p,q+1 aus (a) werden die beiden roten Knoten kontrahiert und der entstehende Graph ist G̃ aus (b). S S S (a) G (b) K3 (c) G̃ Abbildung 4.10: Der Graph G̃ aus (c) ist eine Cliquensumme aus den ursprünglichen Graphen G aus (c) und dem vollständigen Graphen K3 aus (b) mit der Clique S , die rot dargestellt sind. Komponenten aus G̃ − S kontrahieren kann, so dass mit der Clique S ein Kt+3 \ △ entsteht. Da µ(G) ≥ 3 nach Voraussetzung gilt, folgt t ≥ 3. Für die Clique S gilt nach Annahme |S | = 2 somit bräuchte man mindestens 4 Komponenten um mindestens ein K6 \△ entstehen zu lassen. Ein Widerspruch, da maximal drei Komponenten benötigt werden. Somit muss µ(G̃) = µ(G) und die Behauptung folgt mit Theorem 4.3.1 über die Cliquensummen. Theorem 4.4.2. Es sei G ein Graph und G′ der durch △Y-Transformation entstandene Graph aus G. Dann gilt, [4]: (a) µ(G) ≤ µ(G′ ). (b) Falls µ(G) ≥ 4 gilt, folgt µ(G) = µ(G′ ). Beweis. Teil (a): Es sei M eine Matrix, die die Eigenschaften aus Definition 4.1.1 für den Graphen G erfüllt und für die gilt: corank(M) = µ(G). Weiterhin seien 1, 2 und 3 die Knoten eines Dreiecks, welches die △Y-Transformation erfährt und n sei die Anzahl der Knoten des Graphs G. Dann schreibe die Matrix M als: ! A BT M= , B C wobei A eine 3x3-Matrix ist. Es wird gezeigt, dass ein positiver Vektor b ∈ R3 existiert, so 66 KAPITEL 4. DIE COLIN-DE-VERDIÈRE-ZAHL dass D ≔ A + bbT eine 3x3-Diagonalmatrix ist. Denn sei: D = A + bbT a11 a12 a13 b1 = a12 a22 a23 + b2 b1 b2 b3 b3 a13 a23 a33 2 a11 + b1 a12 + b1 b2 a13 + b1 b3 2 = a12 + b1 b2 a22 + b2 a23 + b2 b3 . 2 a13 + b1 b3 a23 + b2 b3 a33 + b3 Aus den Bedingungen: a12 + b1 b2 = 0, a13 + b1 b3 = 0 und a23 + b2 b3 = 0 folgt dann: b1 = −a12 /b2 und b2 = −a23 /b3 . Und weiter b3 = −a √13 /b1 und mit b1 folgt: b3 = b2 a13 /a12 und mit b2 folgt: b23 = −a13 a23 /a12 und damit b3 = −a13 a23 /a12 . Da 1, 2 und 3 die Knoten sind auf denen die △Y-Transformation angewendet wird, gilt: a12 , a13 , a23 < 0 und somit existiert solch eine Vektor b ∈ R3 . Sei 0 der neue Knoten in G′ es sei L eine (n + 1) × (n + 1)-Matrix definiert durch: 1 0 0 L ≔ −b I 0 . 0 0 I Und dann definiere die (n + 1) × (n + 1)-Matrix M ′ durch: ! 1 −bT 0 1 0 T M′ ≔ L L = −b D BT . 0 M 0 B C Es wird nun gezeigt, dass M ′ eine zu dem Graphen G′ zugehörige Matrix ist. Die Matrix M ′ erfüllt den Punkt M1 der Definition 4.1.1, da die Matrix D eine Diagonalmatrix ist und 0 den neuen Knoten darstellt, der mit den Knoten 1, 2 und 3 adjazent ist, siehe Abbildung 4.11. Aufgrund von Sylvesters Trägheitssatz 2.1.6 folgt: corank(M) = corank(M ′ ) und 3 3 0 1 2 (a) G 1 2 (b) G ′ Abbildung 4.11: Der Graph G′ aus (b) entsteht durch △Y-Transformation der Knoten 1,2 und 3 aus dem Graphen G aus (a). Der neue Knoten 0 ist dann zu den Knoten 1,2 und 3 adjazent und die Knoten 1,2 und 3 sind untereinander nicht mehr adjazent. somit auch µ(G′ ) ≥ µ(G). Wegen des Perron-Frobenius-Theorems 2.1.19 folgt, dass der Punkt M2 ebenfalls erfüllt ist, da alle Matrixeinträge kleiner gleich 0 sind. Es bleibt zu zeigen, dass M ′ auch den Punkt M3 erfüllt. Angenommen es existiert eine Matrix X mit den Eigenschaften aus M3, für die X , 0 und M ′ X = 0 gilt. Dann lässt sich X schreiben als: 0 0 vT T X = 0 Y Z . v Z W 67 KAPITEL 4. DIE COLIN-DE-VERDIÈRE-ZAHL Da die Matrix L invertierbar ist, folgt aus der Gleichung M ′ X = 0, dass ! 0 −bT Y vT − bT Z T 1 0 T T 0= L X = B v AY + BT Z AZ T + BT W . 0 M Cv BY + CZ BZ T + CW Aus −bT Y = 0 folgt: −b Y = − b1 T b2 0 b3 y12 y13 = − b2 y12 + b3 y13 y13 y23 0 y12 0 y23 b1 y12 + b3 y23 b1 y12 + b2 y23 = 0. Aus der zweiten und dritten Spalte folgt für y23 : y23 = − b1 b1 y12 = − y13 . b3 b2 Aus der ersten Spalte folgt für y12 : y12 = − b3 y13 . b2 Daraus folgt dann: b1 b1 y13 = y13 . b2 b2 Insgesamt folgt dann: Y = 0. Daraus folgt dann für die Matrix X: 0 0 vT X = 0 0 Z T v Z W − und 0 M ′ X = BT v Cv 0 BT Z CZ Sei X ′ die Untermatrix von X: ! ZT . W 0 Z X′ ≔ Dann folgt aus MX ′ : A MX = B ′ BT C BT Z = CZ vT − bT Z T AZ T + BT W . T BZ + CW ! 0 Z ZT W ! ! AZ T + BT W . BZ T + CW Da die Matrix M bereits den Punkt M3 für den Graphen G erfüllt, folgt auch X ′ = 0 also Z = W = 0. Daraus folgt dann für M ′ X: 0 0 vT T ′ M X = B v 0 0 . Cv 0 0 Dann folgt vT = 0 und somit ist X = 0 und die Matrix M ′ erfüllt den Punkt M3 für den Graphen G′ . Damit erfüllt die Matrix M ′ die Definition 4.1.1 für den Graphen G′ . Da 68 KAPITEL 4. DIE COLIN-DE-VERDIÈRE-ZAHL corank(M ′ ) = corank(M) gilt, ist der Teil (a) bewiesen. Teil (b): Der Graph G̃ entsteht aus einer Cliquensumme aus dem ursprünglichen Graphen G und dem vollständigen Graphen K4 mit gemeinsamer Clique S = K3 . Falls µ(G) ≥ 4 gilt, resultiert µ(G) ≥ 4 > µ(K4 ) = 3. Weiterhin gilt µ(G) > |S | = 3. Falls nun G̃ − S höchstens eine Komponente C hat, so dass N(C) = S ist, ergibt sich nach Korollar 4.3.2 µ(G̃) = µ(G), siehe dazu Abbildung 4.12. Mit Theorem 4.2.5 über die Minormonotonie folgt µ(G̃) ≥ µ(G′ ) ≥ µ(G). Aus µ(G̃) = µ(G) impliziert dies dann die Behauptung. Falls 3 3 0 1 2 1 (a) G 2 (b) K4 3 0 1 2 (c) G̃ Abbildung 4.12: Der Graph G̃ aus (c) entsteht aus einer Cliquensumme aus dem Graphen G aus (a) und dem vollständigen Graphen K4 aus (b) mit der gemeinsamen Clique S , hier rot dargestellt. nun G̃−S mindestens zwei Komponente C ′ und C ′′ hat, so dass N(C ′ ) = N(C ′′ ) = S ist, gibt es zwei Fälle für den Graphen G̃. Falls G̃ = max{µ(G), µ(K4 )} folgt die Behauptung, wie oben aus Theorem 4.2.5 über die Minormonotonie. Gilt aber µ(G̃) > t ≔ max{µ(G), µ(K4 )}, dann folgt wegen des Theorems 4.3.1 über Cliquensummen, dass µ(G̃) = t + 1 ist und das sich zwei oder drei Komponenten aus G̃ − S kontrahieren lassen, so dass mit der Clique S ein Kt+3 \ △ entsteht. Nach Voraussetzung gilt: µ(G) ≥ 4. Daraus folgt dann: t ≥ 4. Für die Clique S gilt: |S | = 3 und somit bräuchte man mindestens 4 Komponenten damit mindestens ein K7 \ △ entstehen könnte. Ein Widerspruch, da maximal drei Komponenten gebraucht werden. Somit muss µ(G̃) = µ(G) und die Behauptung folgt aufgrund des Theorems 4.3.1 über die Cliquensummen. 4.5 Der Nullraum der Matrix M Definition 4.5.1. (supp, supp+ und supp− ). Es sei x ∈ Rn ein Vektor, dann definiere folgende Variationen des Trägers von x: • supp(x) ≔ {i | xi , 0} (Träger), 69 KAPITEL 4. DIE COLIN-DE-VERDIÈRE-ZAHL • supp+ (x) ≔ {i | xi > 0} (positiver Träger), • supp− (x) ≔ {i | xi < 0} (negativer Träger), • supp0 (x) ≔ {i | xi = 0} (Komplement des Trägers). Lemma 4.5.2. Es sei M eine Matrix, die für einen Graphen G die Definition 4.1.1 erfüllt. Für alle Vektoren x ∈ ker(M) gilt: N(supp+ (x)) \ supp(x) = N(supp− (x)) \ supp(x). Beweis. Es sei x ∈ ker(M). Dann folgt: N(supp+ (x)) = {i | ai j , 0, j ∈ supp+ (x), j , i} und N(supp− (x)) = {i | ai j , 0, j ∈ supp− (x), j , i}. Dies folgt aus der Eigenschaft M1 der Definition 4.1.1, da zwei Knoten i, j zueinander adjazent sind, falls ai j < 0 gilt. Insgesamt folgt dann: N(supp+ (x)) \ supp(x) = {i | ai j , 0, j ∈ supp+ (x), j , i, i < supp(x)} N(supp− (x)) \ supp(x) = {i | ai j , 0, j ∈ supp− (x), j , i, i < supp(x)}. Zunächst wird gezeigt, dass N(supp+ (x)) \ supp(x) ⊆ N(supp− (x)) \ supp(x).gilt Angenommen die Aussage sei falsch, dann gäbe es ein i ∈ N(supp+ (x)) \ supp(x) mit i < N(supp− (x)) \ supp(x). Das hieße, es gäbe ein j ∈ supp+ (x), so dass ai j , 0 gilt und andererseits existiert kein k ∈ supp− (x), so dass aik , 0 gilt. Aus x ∈ ker(M) folgt: 0= n X ail xl l=1 = X ai j x j + X aik xk k∈supp− (x) j∈supp+ (x) = X ai j x j . | {z =0 } j∈supp+ (x) P Die letzte Gleichung k∈supp− ain xn = 0, folgt aus der Tatsache, dass es kein k ∈ supp− (x) mit aik , 0 gilt. Aus x j > 0 für alle j ∈ supp+ (x) und ai j < 0 für alle j ∈ supp+ (x) mit i , j folgt wiederum X ai j x j , 0. j∈supp+ (x) Ein Widerspruch und somit muss auch i ∈ N(supp− (x))\supp(x) sein. Damit ist N(supp+ (x))\ supp(x) ⊆ N(supp− (x)) \ supp(x) gezeigt. Für die umgekehrte Inklusion nehme ein i ∈ N(supp− (x)) \ supp(x) und nehme an, dass i < N(supp+ (x)) \ supp(x) gilt. Dann folgt der Beweis analog wie oben. Lemma 4.5.3. Es sei G ein zusammenhängender Graph und M eine zu G zugehörige Matrix, die die Definition 4.1.1 erfüllt. Weiter seien x ∈ ker(M) und J , K zwei Komponenten von G| supp+ (x). Dann existiert ein y ∈ ker(M) mit folgenden Eigenschaften: • supp+ (y) = J, • supp− (y) = K, • y J ist kollinear zu x J mit einem positiven Skalar und yK ist kollinear zu xK mit einem negativen Skalar. 70 KAPITEL 4. DIE COLIN-DE-VERDIÈRE-ZAHL Beweis. Es sei L ≔ supp− (x). Zunächst ist M j,k = 0 für j ∈ J und k ∈ K, denn andernfalls wären J und K zueinander adjazent. Dann gilt: M J×J x J + M J×K xK + M J×L xL + M J×supp0 (x) xsupp0 (x) = 0 und MK×J x J + MK×K xK + MK×L xL + MK×supp0 (x) xsupp0 (x) = 0. Aus M J×K = 0, M J×supp0 (x) xsupp0 (x) = 0 und MK×supp0 (x) xsupp0 (x) = 0 folgt schließlich M J×J xK + M J×L xL = 0 und MK×K xK + MK×L xL = 0. (4.1) Es sei z ein Eigenvektor zu dem negativen Eigenwert von M. Nach dem Perron-Frobenius Theorem 2.1.19 kann man z > 0 annehmen. Dann definiere λ≔ hz J , x J i , hzK , xK i mit hzK , xK i , 0, da z > 0 und xK > 0, weil K aus G| supp+ (x). Wegen xK , x J , z > 0 folgt ausserdem λ > 0. Nun definiere y ∈ Rn mit: xi , wenn i ∈ J, yi ≔ −λx , wenn i ∈ K, i 0, wenn i < J ∪ K, so gilt: hz, yi = hz J , x J i + hzK , −λxK i = hz J , x J i − λhzK , xK i hz J , x J i = hz J , x J i − hzK , xK i hzK xK i = 0. Weiter erhält man: hy, Myi = hy J , M J×J y J i + hyK , MK×K yK i = hx J , M J×J x J i + h−λxK , −MK×K λxK i = hx J , M J×J x J i + λ2 hxK , MK×K xK i = h−x J , M J×L xL i − λ2 hxK , MK×L xL i ≤ 0, wobei die letzte Gleichung aus der Gleichung 4.1 folgt. Die Ungleichung folgt aus der Tatsache, dass M J×L und MK×L nicht-positive Matrizen sind. Dies folgt daraus, dass sie keine Diagonalelemente von der Matrix M enthalten und es gilt: x J > 0, xK > 0, xL < 0 da J, K Komponenten aus G| supp+ (x) sind und L ≔ supp− (x). Da z ein Eigenvektor zum kleinsten Eigenwert ist und hz, yi = 0 gilt, folgt die lineare Unabhängigkeit von z und y und hy, Myi ≥ 0, siehe Satz 2.1.16. Insgesamt folgt hz, yi = 0 und hy, Myi = 0 und wegen Satz 2.1.23 erhält man y ∈ ker(M). Daraus resultiert J = supp+ (y) und K = supp− (y) und es sind beide skalare Vielfache mit positiven beziehungsweisen negativen Skalar von x J und xK , was zu beweisen war. Definition 4.5.4. (Minimaler Träger). Es sei x ∈ ker(M) mit x , 0. Dann hat x einen minimalen Träger falls für alle y ∈ ker(M) mit y , 0 aus supp(y) ⊆ supp(x) folgt, dass supp(y) = supp(x) gilt. KAPITEL 4. DIE COLIN-DE-VERDIÈRE-ZAHL 71 Theorem 4.5.5. ([11]) Es sei G ein zusammenhängender Graph und die Matrix M eine zu G zugehörige Matrix, die die Definition 4.1.1 für G erfüllt. Weiter hat x ∈ ker(M) einen minimalen Träger. Dann sind G| supp+ (x) und G| supp− (x) jeweils nicht leer und zusammenhängend. Beweis. Angenommen die Aussage würde nicht gelten, dann ist G| supp+ oder G| supp− leer oder nicht zusammenhängend. Es sei ohne Beschränkung der Allgemeinheit zunächst G| supp+ leer. Weiter sei z ein Eigenvektor zum kleinsten Eigenwert, nach dem PerronFrobenius Theorem 2.1.19 lässt sich z < 0 annehmen. Nach Satz 2.1.23 folgt für x ∈ ker(M) sowohl hz, xi = 0 als auch hx, Mxi = 0. Falls supp+ (x) leer ist, ergibt dies einen Widerspruch zu hz, xi = 0, da z < 0 und x ≤ 0, x , 0 gelten. Dass G| supp− nicht leer sein darf, wird analog behandelt. Es sei ohne Beschränkung der Allgemeinheit nun angenommen, dass G| supp+ nicht zusammenhängend ist. Dann würden in G| supp+ mindestens zwei Komponenten J und K existieren. Nach Lemma 4.5.3 gäbe es ein y ∈ ker(M) mit supp+ (y) = J und supp− (y) = K. Da y J und yK skalare Vielfache von x J und xK sind folgt supp(y) ⊆ supp(x). Nach der Definition 4.5.4 des minimalen Trägers folgt daraus supp(y) = supp(x). Dies ergibt einen Widerspruch, da andernfalls supp− (x) leer ist. Das supp− (x) nicht leer sein darf wurde oben bereits behandelt. Theorem 4.5.6. Es sei G ein Graph und die Matrix M eine zu G zugehörige Matrix, die die Definition 4.1.1 für G erfüllt. Es sei x ∈ ker(M), so dass G| supp+ (x) unzusammenhängend ist. Dann gilt: (i) Es gibt keine Kante, die supp+ (x) und supp− (x) verbindet, (ii) G| supp+ (x) hat genau zwei Komponenten, (iii) G| supp− (x) ist zusammenhängend, (iv) | supp(x)| + corank(M) ≤ |V(G)| + 1, (v) N(K) = N(supp(x)) für alle Komponenten aus G| supp(x). Beweis. Der Beweis erfolgt in vier Schritten: (i): Angenommen es gibt eine Kante, die eine Komponente J von der Menge G| supp+ (x) mit G| supp− (x) verbindet. Weiter sei K eine Komponente von G| supp+ (x) mit K , J. Nach Lemma 4.5.3 existiert dann ein y ∈ ker(M), sodass supp+ (y) = K und supp− (y) = J und yK und y J sind skalare Vielfache von xK und x J , also y J = −αx J und yK = βxK mit α, β > 0. Dann definiere z ≔ x + (1/α)y. Dann ist z ∈ ker(M), da x, y ∈ ker(M) sind. Des Weiteren ist z J = x J + (1/α)y J = x J + (1/α)αx J = 2x J > 0, zK = xK + (1/α)yK = xK + (1/α)βxK > 0 sowie zsupp− (x) = xsupp− (x) + (1/α)ysupp− (x) = xsupp− (x) < 0. Somit folgt: supp− (z) = supp− (x) und supp+ (z) = supp+ (x) \ J. Dann ist aber N(supp− (z)) eine Menge, die einen Knoten aus J enthält, da supp− (z) = supp− (x) mit der Komponente J durch eine Kante adjazent ist und N(supp− (z)) \ supp(z) enthält immer noch diesen Knoten, da supp+ (z) = supp+ (x) \ J. Allerdings sind K und J zwei Komponenten und somit nicht adjazent. Daraus folgt, dass supp+ (z) nicht den Knoten aus J enthält und somit auch nicht N(supp+ (z)) \ supp(z). Daraus folgt dann: N(supp− (z)) \ supp(z) , N(supp+ (z)) \ supp(z) ein Widerspruch zum Lemma 4.5.2. KAPITEL 4. DIE COLIN-DE-VERDIÈRE-ZAHL 72 (ii) & (iii): Seien C1 , . . . , Cm Komponenten aus G| supp(x), dann folgt MCi xCi = 0 für alle i = 1, . . . , m. Nach (i) sind die Komponenten entweder in supp+ (x) oder in supp− (x), da supp+ (x) und supp− (x) nicht adjazent sind. Da supp+ (x) nach Voraussetzung mindestens zwei Komponenten Ci und C j enthält und MCi xCi = MC j xCJ = 0 tritt der Fall (ii) des Lemmas 4.2.19 ein mit S = {1, . . . , n} \ supp(x), da der Eigenwert 0 mindestens zweimal auftaucht. Demnach gibt es höchstens drei Komponenten Ci , C j und Ck , so dass λ1 (Ci, j,k ) = 0 ist. Allerdings hat supp+ (x) bereits zwei Komponenten Ci und C j mit der Eigenschaft λ1 (Ci, j ) = 0 und supp− (x) ist nicht leer somit hat supp+ (x) genau zwei Komponenten und supp− (x) muss zusammenhängend sein. (iv) Es sei S = {1, . . . , n} \ supp(x), dann gilt nach Lemma 4.2.19 (ii): corank(M) − |S | + 2 ≤ 3 corank(M) ≤ |{1, . . . , n} \ supp(x)| + 1 | supp(x)| + corank(M) ≤ |{1, . . . , n} \ supp(x)| + 1 + | supp(x)| | supp(x)| + corank(M) ≤ |V(G)| + 1. (v) Es seien J und K zwei Komponenten aus G| supp+ (x). Dann gibt es nach Lemma 4.5.2 ein y ∈ ker(M), sodass supp+ (y) = K und supp− (y) = J. Nach Lemma 4.5.2 folgt dann: N(supp+ (y)) \ supp(y) = N(supp− (y)) \ supp(y). Da J und K nicht adjazent sind, folgt: N(supp+ (y)) = N(supp− (y)), also N(K) = N(J). Im Teil (i) wurde gezeigt, wie man einen Vektor z konstruiert, so dass supp− (z) = supp− (x) und supp+ (z) = supp+ (x) \ J = K. Nach Lemma 4.5.2 folgt dann wiederum: N(supp+ (z)) \ supp(z) = N(supp− (z)) \ supp(z). Nach (i) sind supp+ (x) und supp− (x) nicht adjazent, also folgt: N(supp+ (z)) = N(supp− (z)), also N(K) = N(supp− (x)). Und insgesamt: N(K) = N(J) = N(supp− (x)) = N(J) ∪ N(supp(x)) = N(supp(x)). 4.6 Kleine Werte für µ 4.6.1 Pfade und außerplanare Graphen Theorem 4.6.1. Genau dann, wenn G eine Knoten-disjunkte Vereinigung von Pfaden ist, gilt: µ(G) ≤ 1. Beweis. Es sei µ(G) ≤ 1. Angenommen der Graph G wäre keine Knoten-disjunkte Vereinigung von Pfaden, dann müsste er den vollständigen Graphen K3 oder den vollständigen bipartiten Graphen K1,3 enthalten, siehe Theorem 3.1.25. Allerdings gilt µ(K3 ) = µ(1, 3) = 2 und dies ergibt einen Widerspruch zu dem Theorem über die Minormonotonie 4.2.5. Es sei G eine Knoten-disjunkte Vereinigung von Pfaden, dann gilt nach Satz 4.1.5 bereits µ(Pn ) = 1 und falls G mehrere Komponenten hat, gilt nach Theorem 4.2 µ(G) = max µ(C) = 1. Theorem 4.6.2. Genau dann, wenn G ein außerplanarer Graph ist, gilt: µ(G) ≤ 2. 73 KAPITEL 4. DIE COLIN-DE-VERDIÈRE-ZAHL Beweis. Es sei µ(G) ≤ 2. Angenommen der Graph G wäre nicht außerplanar, dann müsste er den vollständigen Graphen K4 oder den vollständigen bipartiten Graphen K2,3 enthalten, siehe Theorem 3.1.29. Allerdings gilt µ(K4 ) = µ(2, 3) = 3 und dies ergibt einen Widerspruch zu dem Theorem über die Minormonotonie 4.2.5. Es sei G ein außerplanarer Graph und nach Theorem 4.2 sei G zusammenhängend. Der Beweis erfolgt mittels vollständiger Induktion nach |V|: Induktionsanfang: (a) Ein Knoten (b) Ein Pfad P2 (c) Der vollständige Graph K3 (d) Ein Pfad P3 Abbildung 4.13: Für |V| = 1 besteht der Graph G aus einem Knoten, siehe Abbildung (a) und es gilt µ(G) = 0. Für |V| = 2 besteht der Graph G aus einem Pfad, siehe Abbildung (b) und es gilt µ(G) = 1. Für |V| = 3 besteht der Graph G aus einem vollständigen Graphen K3 , siehe Abbildung (c) und es gilt µ(G) = 2 oder er besteht aus einem Pfad, siehe Abbildung (d) und es gilt µ(G) = 1 Für die ersten vier Fälle von |V| siehe Abbildung 4.13. Induktionsvoraussetzung: Die Aussage sei für |V| = k mit k ≥ 3 wahr. Induktionsschritt: Es bleibt zu zeigen, dass unter der Induktionsvoraussetzung die Aussage auch für |V| = k + 1 wahr ist. Der Graph G mit |V(G)| = k + 1 sei dann eine Cliquensumme aus einen Graphen G′ mit |V(G′ )| = k und dem vollständigen Graphen K3 mit der gemeinsamen Clique K2 . Der Graph G′ entsteht aus G durch Entfernen eines Knoten mit deg(v) ≤ 2, denn angenommen es gibt keinen Knoten mit deg(v) ≤ 2, dann haben alle Knoten mindestens einen Grad von 3 und dann wäre der Graph G mit vier Knoten nicht mehr außerplanar, da sonst G = K4 wäre. Im Folgenden werden zwei Fälle unterschieden. Der erste Fall besagt, dass es einen Knoten v vom Grad 2 gibt und der zweite Fall lautet, dass es einen Knoten v vom Grad 1 gibt. Man betrachte den ersten Fall, es gibt einen Knoten v vom Grad 2, der zu den Knoten u und w adjazent ist. Dieser Knoten v wird zu u oder w kontrahiert, so dass u und w zu Nachbarn werden. Der neue Graph wird mit G′ bezeichnet. Anschließend wird ein Graph G̃ aus einer Cliquensumme aus dem Graphen G′ und dem vollständigen Graphen K3 mit der gemeinsamen Clique S = (u, w) gebildet, siehe 74 KAPITEL 4. DIE COLIN-DE-VERDIÈRE-ZAHL u v w (a) G u S w (b) G ′ u v S w (c) K3 (d) G̃ Abbildung 4.14: Man betrachte den Graphen G aus Abbildung (a), sofern es einen Knoten gibt, der den Grad 2 hat, hier der Knoten v, wird dieser entfernt und die adjazenten Knoten u und w werden miteinander verbunden, sofern sie nicht schon verbunden sind. Der neue Graph wird mit G′ bezeichnet, siehe Abbildung (b). Mit dem Graphen G′ und dem vollständigen Graphen K3 aus Abbildung (c) wird mit der Clique S ein neuer Graph G̃ aus Abbildung (d) gebildet. Dieser ist dann eine Cliquensumme aus G′ und K3 mit der Clique S. dazu Abbildung 4.14. Der Graph G̃ ist dann ebenfalls außerplanar, denn wäre er es nicht, hätte der Graph einen K4 oder einen K2,3 als Minor. Da zu dem außerplanaren Graphen G nur eine Kante hinzugefügt wurde um G̃ zu erhalten, kann dieser keinen K4 oder K2,3 als Minor enthalten, da G dann schon wegen des Pfades von v zu w über u ein Minor von K4 oder K2,3 sein müsste. Nach dem Theorem über die Minormonotonie 4.2.5 folgt dann: µ(G′ ) ≤ µ(G) ≤ µ(G̃). Nach dem Theorem über Cliquensummen 4.3.1 und dem Korollar 4.3.2 folgt für µ(G̃) entweder µ(G̃) = t ≔ max{µ(G′ ), µ(K3 )} oder µ(G̃) = t+1. Nach Induktionsvoraussetzung folgt für G′ : µ(G′ ) ≤ 2, da G′ einen Knoten weniger als G̃ hat. Falls nun µ(G̃) = t folgt nach dem Theorem 4.2.5 über die Minormonotonie: µ(G′ ) ≤ µ(G) ≤ µ(G̃) und damit µ(G) ≤ 2. Was zu beweisen war. Angenommen es gilt: µ(G̃) = t + 1 = 3, dann 75 KAPITEL 4. DIE COLIN-DE-VERDIÈRE-ZAHL lassen sich zwei oder drei Komponenten aus G̃−S finden, so dass diese kontrahierten Komponenten mit S einen K5 \ △ enthalten. Allerdings ist ein K5 \ △ das gleiche wie ein K2,3 , ein Graph mit fünf Knoten und sieben Kanten. Und dies würde bedeuten, dass G̃ einen K2,3 als Minor hätte, was im Widerspruch zu Außerplanarität von G̃ steht. u v w (a) G u S w (b) G ′ u u S v w (c) K3 v w (d) G̃ Abbildung 4.15: Man betrachte den Graphen G aus Abbildung (a), sofern es einen Knoten gibt, der den Grad 1 hat, hier der Knoten v, wird dieser entfernt, der neue Graph wird mit G′ bezeichnet, siehe Abbildung (b). Mit dem Graphen G′ und dem vollständigen Graphen K3 aus Abbildung (c) wird mit der Clique S ein neuer Graph G̃ aus Abbildung (d) gebildet. Dieser ist dann eine Cliquensumme aus G′ und K3 mit der Clique S . Man betrachte den zweiten Fall, es gibt einen Knoten v vom Grad 1, der zu den Knoten u adjazent ist, der wiederum zu Knoten w adjazent ist. Dieser Knoten v wird entfernt und der neue Graph wird mit G′ bezeichnet. Dann wird ein Graph G̃ aus einer Cliquensumme aus dem Graphen G′ und dem vollständigen Graphen K3 mit der gemeinsamen Clique S = (u, w) gebildet, siehe dazu Abbildung 4.15. Der Graph G̃ ist dann ebenfalls außerplanar, denn wäre er es nicht, hätte der Graph einen K4 oder einen K2,3 als Minor. Da zu dem außerplanaren Graphen G nur eine Kante hinzugefügt wurde um G̃ zu erhalten, kann dieser keinen K4 oder K2,3 als Minor enthalten. Angenommen durch die hinzugefügte Kante wäre KAPITEL 4. DIE COLIN-DE-VERDIÈRE-ZAHL 76 ein K2,3 entstanden, dann müsste jeder Kreis gerade sein allerdings gibt es einen Kreis von v nach v über u und w der ungerade ist und somit ist der Minor nicht bipartit. Falls durch das Hinzufügen der Kante ein K4 entstünde, müsste v einen Grad von 3 haben. Dieser Knoten hat dann allerdings einen Grad von 2 und somit kann auch kein K4 entstanden sein. Nach dem Theorem über die Minormonotonie 4.2.5 folgt dann: µ(G′ ) ≤ µ(G) ≤ µ(G̃). Nach dem Theorem über Cliquensummen 4.3.1 und dem Korollar 4.3.2 folgt für µ(G̃) entweder µ(G̃) = t ≔ max{µ(G′ ), µ(K3 )} oder µ(G̃) = t + 1. Nach Induktionsvoraussetzung folgt für G′ : µ(G′ ) ≤ 2, da G′ einen Knoten weniger als G̃ hat. Falls nun µ(G̃) = t folgt nach dem Theorem über die Minormonotonie 4.2.5: µ(G′ ) ≤ µ(G) ≤ µ(G̃) und damit µ(G) ≤ 2, was zu beweisen war. Gilt hingegen µ(G̃) = t + 1 = 3, dann lassen sich zwei oder drei Komponenten aus G̃ − S finden, so dass diese kontrahierten Komponenten mit S einen K5 \ △ enthalten. Allerdings ist ein K5 \ △ das gleiche wie ein K2,3 ein Graph mit fünf Knoten und sieben Kanten. Und dies würde bedeuten, dass G̃ einen K2,3 als Minor hätte, was im Widerspruch zu Außerplanarität von G̃ steht. 4.6.2 Planare Graphen Dieses Theorem ist nun eins der Hauptresultate von Colin de Verdière [32]. Der Beweis verwendet die Theorie von partiellen Differentialgleichungen. Das auch ein kombinatorischer Beweis reicht, zeigt van der Holst [11]. Und dieser Beweis soll hier auch verwendet werden. Theorem 4.6.3. Genau dann, wenn G ein planarer Graph ist, gilt: µ(G) ≤ 3. Beweis. Es sei µ(G) ≤ 3. Angenommen der Graph G wäre nicht planar, dann müsste er den vollständigen Graphen K5 oder den vollständigen bipartiten Graphen K3,3 als Minor enthalten, siehe Theorem 3.1.27. Allerdings gilt µ(K5 ) = µ(3, 3) = 4 und dies ergibt einen Widerspruch zu dem Theorem über die Minormonotonie 4.2.5. Es sei G ein 3-zusammenhängender planarer Graph. Es sei M eine zu G zugehörige Matrix, die die Definition 4.1.1 für G erfüllt. Angenommen, es gelte corank(M) > 3. Weiter sei uvw ein Dreieck in G, dann gibt es ein x ∈ ker(M) für das xu = xv = xw = 0 gilt. Denn der Kern von M beinhaltet mindestens vier linear unabhängige Vektoren x1 , x2 , x3 , x4 ∈ ker(M). Somit hat das Gleichungssystem: 1 2 3 4 xu xu xu xu α1 x1v + α2 x2v + α3 x3v + α4 x4v = 0 1 2 3 4 xw xw xw xw mindestens eine nicht triviale Lösung für α1 , α2 , α3 , α4 ∈ R. Dann lässt sich ein x = α1 x1 +α2 x2 +α3 x3 +α4 x4 finden, so dass x einen minimalen Träger hat und xu = xv = xw = 0 gilt. Nach dem Theorem 4.5.5 sind dann G| supp+ (x) und G| supp− (x) nicht leer und jeweils zusammenhängend. Aufgrund der maximalen Planarität von G lassen sich drei verschiedene Knoten-disjunkte Pfade P1 , P2 und P3 von u, v und w zu supp(x) finden, dies resultiert aus der Bemerkung vom Satz 3.1.11. Weiter seien P′1 , P′2 und P′3 die Teile der Pfade P1 , P2 und P3 , die außerhalb von supp(x) liegen und dort beginnen. Es wird im Folgenden gefolgert, dass der erste Knoten aus der Menge N(supp(x)) zu einem Pfad P′i für i = 1, 2, 3 in N(supp+ (x)) und N(supp− (x)) liegt. Angenommen dies wäre nicht so und der erste Knoten P′i (1) von P′i für i = 1, 2, 3 liegt ohne Beschränkung der Allgemeinheit nur in der Menge N(supp+ (x)) aber nicht in der Menge N(supp− (x)), dann folgt aus P′i (1) < supp(x) die Aussagen: Pi (1) ∈ N(supp+ (x)) \ supp(x) P′i (1) < N(supp− (x)) \ supp(x). 77 KAPITEL 4. DIE COLIN-DE-VERDIÈRE-ZAHL Dies ergibt wiederum einen Widerspruch zum Lemma 4.5.2, da N(supp+ (x)) \ supp(x) = N(supp− (x))\supp(x) gelten muss. Kontrahiere jeweils supp+ (x) beziehungsweise supp− (x) zu einem Knoten t beziehungsweise t′ zusammen, dann haben u, v und w jeweils einen unabhängigen Pfad zu t und t′ , was der Planarität von G, wie im Folgenden noch gezeigt wird, widerspricht, siehe dazu Abbildung 4.16. Angenommen der Graph wäre planar mit u P′1 v w supp− (x) P′3 supp+ (x) P′2 Abbildung 4.16: Der Graph G mit supp+ (x) und supp− (x). Man könnte nun die Pfade P′1 , P′2 und P′3 zu den Endknoten u, v und w kontrahieren. µ(G) ≥ 4, dann könnte man nach Theorem 2.13 eine △Y-Transformation auf u, v und w anwenden. Für den neuen Graph G′ gelte µ(G′ ) ≥ 4 und die Planaritätseigenschaft würde ebenfalls gelten, allerdings entstünde dadurch ein K3,3 , was der Planarität widerspräche. 4.7 Verlinkungsfreie einbettbare Graphen Definition 4.7.1. (Jordan-Kurve) Eine Jordan-Kurve ist eine geschlossene, stetige, schnittpunktfreie Kurve. Definition 4.7.2. (verlinkt). Zwei disjunkte Jordan-Kurven A, B ∈ R3 heißen verlinkt, falls es keine topologische 2Sphäre im R3 gibt, die beide Jordan-Kurven trennt und zwar so, dass eine Kurve im Inneren und die andere Außerhalb liegt, siehe Abbildung 4.17. (a) (b) Abbildung 4.17: Die beiden Jordan-Kurven aus Abbildung (a) sind nicht verlinkt, da es eine topologische 2-Sphäre gibt, die beide Kurven trennt, siehe Abbildung (b). KAPITEL 4. DIE COLIN-DE-VERDIÈRE-ZAHL 78 Abbildung 4.18: Die beiden Jordan-Kurven haben die ungerade Verlinkungszahl 1, da die 2-Scheibe und die Kurve sich in einem Punkt transversal schneiden. Definition 4.7.3. (Verlinkungszahl). Zwei disjunkte Jordan-Kurven A, B ∈ R3 haben eine ungerade Verlinkungszahl, falls es eine Einbettung der 2-Scheibe mit Rand A gibt, so dass die Anzahl der transversalen Schnitte mit dem Bild von B ungerade ist. Siehe Abbildung 4.18. Bemerkung: Eine ungerade Verlinkungszahl bedeutet, dass beide Jordan-Kurven verlinkt sind. Die Umkehrung gilt im Allgemeinen nicht. Definition 4.7.4. (verlinkungsfrei einbettbar). Es sei G ein Graph. G ist verlinkungsfrei einbettbar, falls eine Einbettung des Graphen G in R3 keine verlinkten Kreise besitzt. Ein Graph ist verlinkungsfrei einbettbar, falls es eine solche Einbettung gibt. Bemerkung: Ein Graph heißt verlinkbar, falls er nicht verlinkungsfrei einbettbar ist. Definition 4.7.5. (flache Einbettung). Eine Einbettung eines Graphen G heißt flach, falls es für alle Kreise C in G eine offene Scheibe gibt, die disjunkt von G ist und den Rand von C hat. Bemerkung: Jede flache Einbettung ist auch verlinkungsfrei einbettbar aber die Umkehrung gilt im Allgemeinen nicht, siehe Abbildung 4.19. Robertson, Seymour und Thomas [29] bewiesen, dass ein verlinkungsfrei einbettbarer Graph G auch flach einbettbar ist. Somit sind die Klassen der verlinkungsfrei und flachen Einbettungen gleich. Weiterhin ist die Klasse der verlinkungsfrei einbettbaren Graphen invariant unter Y△- und △YTransformationen. Somit ist auch die Klasse der verbotenen Minoren von verlinkungsfreien einbettbaren Graphen invariant unter Y△- und △Y-Transformationen. Diese Klasse nennt man die Petersen Familie, da ein Graph dem Petersen Graph entspricht, siehe dazu Abbildung 4.20. Robertson, Seymour und Thomas [29] bewiesen folgenden Satz: Satz 4.7.6. Die Petersen Familie ist eine Klasse von verbotenen Minoren für verlinkungsfrei einbettbare Graphen. Theorem 4.7.7. Genau dann, wenn G ein verlinkungsfrei einbettbarer Graph ist, gilt: µ(G) ≤ 4. 79 KAPITEL 4. DIE COLIN-DE-VERDIÈRE-ZAHL Abbildung 4.19: Wird ein Graph G bestehend aus einem Kreis, wie oben eingebettet, ist die Einbettung nicht mehr flach. Beweis. Es wird zunächst gezeigt, dass µ(G) ≤ 4 impliziert, dass G ein verlinkungsfrei einbettbarer Graph ist. Es sei µ(G) ≤ 4. Angenommen der Graph G wäre nicht verlinkungsfrei einbettbar, dann müsste er nach Satz 4.7.6 den vollständigen Graphen K6 beziehungsweise einen Graphen der Petersen Familie als Minor enthalten. Es gilt aber µ(K6 ) = 5, ein Widerspruch zu dem Theorem über die Minormonotonie 4.2.5. Des Weiteren entstehen die Graphen der Petersen Familie durch △Y- beziehungsweise Y△-Transformationen, woraus nach Theorem 4.4.2 dann µ(G) = 5 für alle Graphen G der Petersen Familie gilt. Die Umkehrung wurde von Robertson, Seymour und Thomas [27] vermutet und in [22] bewiesen. Der Beweis erfolgt hier in Abschnitt 4.7.2. 4.7.1 Borsuks Theorem für antipodale Verlinkungen Definition 4.7.8. (konvexe Menge conv). Sei A ∈ Rm×n : ( n X conv(A) ≔ Aλ | λ ∈ Rn+ , Definition 4.7.9. (affine Menge aff). Sei A ∈ Rm×n : ( n aff(A) ≔ Aλ | λ ∈ R , Definition 4.7.10. (lineare Hülle lin). Sei A ∈ Rm×n : i=1 n X i=1 ( ) λ1 = 1 . ) λ1 = 1 . n ) lin(A) ≔ Aλ | λ ∈ R . Definition 4.7.11. (konvexes Polytope). Ein Polytope P im Rd ist die konvexe Menge aus endlich vielen Punkten A = v1 P = conv{A}. . . . vk : 80 KAPITEL 4. DIE COLIN-DE-VERDIÈRE-ZAHL (a) (b) (c) (d) (e) (f) (g) Abbildung 4.20: Die Petersen Familie, eine Klasse von verbotenen Minoren für verlinkungsfrei einbettbare Graphen. Die bekanntesten Vertreter sind hier der vollständige Graph K6 in Abbildung (a) und der Petersen Graph in Abbildung (g). Bemerkungen: Für Bezeichnungen eines Polytopes, wie Seiten, Facetten, definierende Hyperebene eine Facette und so weiter, sei auf [34] hingewiesen. Für die Definition und weiterführende Eigenschaften eines Zellkomplexes wird [33] empfohlen. Definition 4.7.12. (Antipodal). Es sei P ein konvexes Polytop im Rd . Zwei Seitenflächen F, F ′ sind antipodal zueinander, wenn ein Vektor c ∈ Rd mit c , 0 existiert, so dass für x ∈ P die lineare Funktion hc, xi maximal für alle x ∈ F und minimal für alle x ∈ F ′ wird. KAPITEL 4. DIE COLIN-DE-VERDIÈRE-ZAHL 81 Bemerkung: Anschaulich bedeutet dies, dass es zwei parallele Hyperebene H1 , H2 gibt, wobei F ⊂ H1 und F ′ ⊂ H2 gilt und das Polytop von beiden Hyperebenen eingeschlossen wird. Siehe dazu Abbildung 4.21. Abbildung 4.21: Das Polytop mit zwei antipodalen Seitenflächen, die von zwei Hyperebenen eingeschlossen werden. Definition 4.7.13. (generische Abbildung). Es sei φ eine stetige Abbildung von einem Zellkomplex in den Rd . Die Abbildung heißt generisch, falls die Bilder einer k-Seitenfläche und l-Seitenflächen sich nur schneiden falls k + l ≥ d und für k + l = d die Anzahl der transversalen Schnittpunkte endlich ist. Bemerkung: Zusätzlich soll noch die Bedingung gestellt werden, dass die Bilder unter φ rektifizierbar sind. Bemerkung: Im Folgenden seien die Seitenflächen immer relativ offen. Definition 4.7.14. (Rand ∂P). Es sei P ein konvexes Polytop im Rd , dann bezeichne ∂P deren Rand. Definition 4.7.15. (parallel). Zwei Seitenflächen eines Polytops sind parallel, wenn ihre projektiven Hüllen einen nicht leeren Schnitt haben, der in der unendlichen Hyperebene enthalten ist, siehe dazu Abbildung 4.22. Bemerkung: Definition: Eine alternative Bedingung für parallele Seitenflächen wäre die folgende Definition 4.7.16. (parallel). Es sei P ein konvexes Polytop im Rd . Zwei Seitenflächen F und F ′ von P sind parallel genau dann, wenn ihre affinen Hüllen disjunkt sind und es einen Vektor c mit c , 0 und c ∈ F − F und c ∈ F ′ − F ′ gibt. Definition 4.7.17. (Minkowski-Summe). Es seien A, B Mengen, dann ist die Minkowski-Summe definiert durch: A + B ≔ {a + b| a ∈ A, b ∈ B}. KAPITEL 4. DIE COLIN-DE-VERDIÈRE-ZAHL 82 Definition 4.7.18. (Minkowski-Differenz). Es seien A, B Mengen, dann ist die Minkowski-Differenz definiert durch: A− B ≔ {a −b| a ∈ A, b ∈ B}. Abbildung 4.22: Zwei Geraden in der Ebene (R2 ) werden auf die obere Halbkugel projiziert Sofern die Geraden parallel sind, haben sie einen Schnittpunkt am Äquator. Theorem 4.7.19. Es sei P ein voll-dimensionales konvexes Polytop im Rd und sei φ eine generisch, stetige Abbildung von ∂P in den Rd−1 . Dann existiert ein Paar antipodaler Seitenflächen F und F ′ mit dim(F) + dim(F ′ ) = d − 1, so dass |φ(F) ∩ φ(F ′ )| ungerade ist. Bemerkung: Im Folgenden wird zunächst ein allgemeinerer Satz vorgestellt. Danach wird gezeigt, dass dieser Satz 4.7.20 das Theorem 4.7.19 impliziert. Nach Lemma 4.7.26 wird schließlich Theorem 4.7.19 gezeigt. Satz 4.7.20. Es sei P ein voll-dimensionales konvexes Polytop im Rd , das keine parallelen Seitenflächen besitzt und sei φ eine generisch, stetige Abbildung von ∂P in den Rd−1 , dann folgt: X |φ(F) ∩ φ(F ′ )| ist ungerade, wobei über alle antipodalen Paare (F, F ′ ) summiert wird. Da die Abbildung generisch ist, genügt es über alle antipodalen Paare (F, F ′ ) mit dim(F)+ dim(F ′ ) = d − 1 zu summieren. Falls dim(F) + dim(F ′ ) ≥ d folgt, dass (F, F ′ ) parallel sind. Angenommen sie wären nicht parallel, dann gebe es kein c ∈ F−F, F ′ −F ′ , was aber im Widerspruch zu dim(F) + dim(F ′ ) ≥ d steht, da die linearen Hüllen den Raum Rd aufspannen, dann könnten sie aber wiederum nicht in zwei parallelen (nicht schneidende) Hyperebenen liegen. Satz 4.7.21. Der Satz 4.7.20 impliziert das Theorem 4.7.19. Beweis. Angenommen das Polytop P hat parallele Seitenflächen. Für alle Paare Seitenflächen (E, E ′ ) von P, deren affine Hülle sich schneiden, sei pE E′ ein Punkt, der im Schnitt der affinen Hüllen liegt. Und für jedes Paar paralleler Seitenflächen (E, E ′ ) von P, deren projektive Hülle sich schneiden, sei qE E′ der Fernpunkt, der im Schnitt der projektiven Hülle liegt. Weiter sei H eine endliche Hyperebene, die den Raum so teilt, dass alle Punkte pE E′ auf einer Seite liegen und die Hyperebene H keinen Punkt qF F ′ enthält. Solch eine Hyperebene existiert, denn sofern die Anzahl der pE E′ endlich ist, lässt sich eine konvexe Hülle mit den pE E′ bilden und damit auch eine Hyperebene finden, die außerhalb der konvexen Hülle liegt und diese nicht schneidet. Da es unendlich viele dieser Hyperebenen gibt und nur endlich viele Fernpunkte qF F ′ , lässt sich ebenso eine Hyperebene finden, die zusätzlich die Fernpunkte meidet. Durch Anwendung einer projektiven Transformation, die die Hyperebene auf die uneigentliche Hyperebene abbildet, erhält man eine neues 83 KAPITEL 4. DIE COLIN-DE-VERDIÈRE-ZAHL Polytop P′ . Diese Polytop P′ enthält keine parallelen Seitenflächen mehr. Durch die projektive Transformation, bleiben die Punkte pE E′ endlich und werden nicht zu Fernpunkten, da kein Punkt auf der Hyperebene liegt. Da die Fernpunkte qF F′ ebenfalls nicht auf der Hyperebene liegen werden sie nach der projektiven Transformation zu endlichen Punkten. Weiterhin gibt es für alle antipodalen Seitenflächen (F P′ , F P′ ′ ) in P′ ein antipodales Seitenflächenpaar in P. Denn dann folgt dim(F P′ ) + dim(F P′ ′ ) ≤ d − 1, andernfalls wäre die beiden Seitenflächen parallel, was nach Konstruktion nicht sein kann. Dann lassen sich zwei Hyperebenen H1 und H2 finden, so dass F P′ in H1 und F P′ ′ in H2 enthalten sind, das Polytop P′ einschließen und das ein gemeinsamer Punkt, der auf der uneigentlichen Hyperebene nach der projektiven Transformation liegt, finden. Nach Rücktransformation würden die beiden Hyperebenen F P beziehungsweise F P′ sowie den Punkt, der nun auf der uneigentlichen Hyperebene liegt, enthalten. Somit wäre sie auch parallel, da sie einen gemeinsamen Punkt auf der uneigentlichen Hyperebene haben und weiterhin würden sie auch P einschließen, da die projektive Transformation bijektiv ist. Siehe auch Abbildung 4.23. P Falls nun |φ(F) ∩ φ(F ′ )| ungerade ist, bedeutet dies, dass es mindestens ein antipodales Paar geben muss, welches auch eine ungerade Anzahl an Schnittpunkten besitzt. (a) (b) (c) Abbildung 4.23: Das Sechseck soll, wie im Beweis von Satz 4.7.20, transformiert werden. Zunächst werden die Seitenflächen verlängert und die Schnittpunkte p ermittelt, in Bild (a) blau dargestellt. Im nächsten Schritt wird das Sechseck mit den Schnittpunkten und den uneigentlichen Schnittpunkten q aus den parallelen Seitenflächen, in Bild (b) rot dargestellt, auf die obere Halbsphäre projiziert. Im Bild (c) wird eine grüne Hyperebene dargestellt, die die Punkte p auf einer Seite hat und die Punkte q meidet. Anschließend wird diese Hyperebene auf den Äquator projiziert, somit wird das Sechseck ebenfalls verzerrt und die Schnittpunkte liegen nicht mehr auf dem Äquator. Definition 4.7.22. (≤). Für zwei Seitenflächen F, F ′ bezeichnet: F ≤ F ′ : F ⊆ F̄ ′ . KAPITEL 4. DIE COLIN-DE-VERDIÈRE-ZAHL 84 Satz 4.7.23. Seien F, F ′ zwei Seitenflächen eines konvexen Polytops P im Rd . Dann sind die beiden Seitenflächen F, F ′ genau dann antipodal, wenn F − F ′ in einer Seitenfläche von P − P enthalten ist. Beweis. Es seien F, F ′ zwei antipodale Seitenflächen. Nach Definition 4.7.12 gibt es folglich ein c ∈ Rd mit c , 0, so dass hc, xi maximal für alle x ∈ F und minimal für alle x ∈ F ′ wird. Somit gilt hc, Fi ≥ hc, xi und hc, F ′ i ≤ hc, yi für alle x, y ∈ P. Addition ergibt: hc, F − F ′i ≥ hc, x − yi für alle x, y ∈ P. Somit ist F − F ′ eine Seitenfläche in P − P, da c dem Normalenvektor der Hyperebene entspricht, die F − F ′ enthält. Da hc, F − F ′ i ≥ hc, x − yi für alle x, y ∈ P gilt, kann F − F ′ nicht im Inneren von P − P liegen. Sei nun F − F ′ in einer Seitenfläche von P − P enthalten. Angenommen F, F ′ wären keine antipodalen Seitenflächen in P, dann gibt es für alle c ∈ Rd ein x ∈ P mit hc, xi > hc, Fi und hc, F ′ i < hc, xi. Da F − F ′ in einer Seitenfläche S in P − P enthalten ist, enthält jede S definierende Hyperebene auch F − F ′ . Also existiert ein c ∈ Rd mit c , 0, so dass hc, F − F ′ i ≥ hc, xi für alle x ∈ P − P gilt. Daraus folgt dann hc, Fi ≥ hc, x + F ′ i beziehungsweise hc, F ′ i ≤ hc, F − xi für alle x ∈ P − P also auch x ∈ P − F oder x ∈ P − F ′ . Dies ergibt somit einen Widerspruch zu der Annahme, dass es für alle c ∈ Rd ein x ∈ P gibt, so dass hc, xi > hc, Fi beziehungsweise hc, F ′ i < hc, xi gilt. Lemma 4.7.24. Es sei P ein konvexes Polytop ohne parallele Seitenflächen im Rd . i. Sind A, B antipodale Seitenflächen in P, dann ist A − B eine Seitenfläche von P − P und es gilt dim(A − B) = dim(A) + dim(B). ii. Ist F eine Seitenfläche von P − P so existiert ein einziges Paar (A, B) antipodaler Seitenflächen in P mit A − B = F. iii. Für zwei Paare (A, B) und (A′ , B′ ) von antipodalen Seitenflächen gilt A − B ≤ A′ − B′ genau dann, wenn A ≤ A′ und B ≤ B′ gilt. Beweis. Nach Voraussetzung besitzt das Polytop P keine parallelen Seitenflächen. i. Sind A, B antipodale Seitenflächen sind, folgt aus Satz 4.7.23, dass A − B eine Seitenfläche von P − P ist. Da A, B nicht parallele Seitenfläche von P bilden, lassen sie sich als Linearkombination von dim(A) beziehungsweise dim(B) linear unabhängigen P P Vektoren schreiben. Also: A = a + dim(A) λi vi und B = b + dim(B) γi wi , mit a ∈ A, i=1 i=1 P d b ∈ B,vi, wi ∈ R und λi , γi ∈ R. Daraus folgt dann: A − B = a − b + dim(A) λi vi − i=1 Pdim(B) γ w . Da A und B nicht parallel sind, sind die linear unabhängigen Vektoren i i i=1 auch untereinander linear unabhängig, so dass dim(A − B) = dim(a) + dim(B) folgt. ii. Aus dem Satz 4.7.23 folgt bereits, dass A, B antipodale Seitenflächen sein müssen. Seien (A, B) und (A′ , B)′ zwei antipodale Seitenflächenpaare mit A − B = F und A′ − B′ = F, dann folgt A − B = A′ − B′ und aus iii. folgt dann A = A′ und B = B′ . iii. Es seien (A, B) und (A′ , B′ ) zwei antipodale Seitenflächenpaare und es gilt A − B ≤ A′ − B′ . Da (A, B) antipodale Seitenflächen sind, existiert ein c ∈ Rd mit c , 0 und hc, Ai ≥ hc, xi ≥ hc, Bi für alle x ∈ P. Daraus folgt dann: hc, Ai ≥ hc, A′ i und hc, Bi ≤ hc, B′i. Weiter folgt aus A − B ≤ A′ − B′ , dass hc, A − Bi = hc, A′ − B′i gilt, da für alle a ∈ A, b ∈ B zwei Elemente a′ ∈ Ā′ , b ∈ B̄′ mit a − b = a′ − b′ existieren. Gilt nun hc, Ai > hc, A′ i, dann folgt hc, A − Bi > hc, A′ − B′ i. Dies ergibt einen Widerspruch, also muss hc, Ai = hc, A′ i und hc, Bi = hc, B′ i gelten. Also liegen A, A′ und B, B′ jeweils in der gleichen Hyperebene H1 und H2 . Dann seien D, D′ zwei Seitenfläche mit D, D′ ⊂ P und A, A′ ≤ D sowie B, B′ ≤ D′ . Laut Voraussetzung gilt: Für alle a ∈ A, b ∈ B existieren zwei Elemente a′ ∈ Ā′ , b ∈ B̄′ , so dass a−b = a′ −b′ gilt. Also folgt a − a′ = b − b′ und a, a′ ∈ D sowie b, b′ ∈ D′ . Würde nun A 6≤ A′ gelten, dann gäbe es ein Element a ∈ A und a < Ā′ und damit wäre a − a′ , 0 aber a − a′ = b − b′ , das würde bedeuten, dass D − D und D′ − D′ einen von Null verschiedenen Vektor KAPITEL 4. DIE COLIN-DE-VERDIÈRE-ZAHL 85 gemeinsam hätten. Nach Definition 4.7.16 würde daraus die Parallelität von D und D′ folgen. Ein Widerspruch, da P keine parallelen Seitenflächen hat. Sind (A, B) und (A′ , B′ ) zwei antipodale Seitenflächenpaare mit A ≤ A′ und B ≤ B′ , dann folgt daraus A − B ≤ A′ − B′ . Denn für alle a ∈ A und b ∈ B existiert ein a′ ∈ Ā′ und b′ ∈ B̄′ , so dass a = a′ und b = b′ folgt, also auch a − b = a′ − b′ . Lemma 4.7.25. Es seien (F, F ′) ein antipodales Seitenflächenpaar von einem konvexen Polytop P im Rd , gilt dim(F) + dim(F ′ ) ≥ d, so sind F und F ′ parallel. Beweis. Angenommen F und F ′ wäre nicht parallel, dann folgt aus Definition 4.7.16, dass sich die affinen Hüllen der Seiten F und F ′ schneiden oder das es kein c , 0 gibt mit c ∈ F − F und c ∈ F ′ − F ′ . Da F und F ′ antipodale Seitenflächen sind, liegen sie jeweils in einer Hyperebene F ⊂ H1 , F ′ ⊂ H2 , die parallel zueinander sind. Somit können die affinen Hüllen der beiden Seiten sich nicht schneiden. Würde es kein c , 0 mit c ∈ F − F und c ∈ F ′ − F ′ geben müsste eine Basen von F und F ′ den Rd aufspannen. In diesem Fall können die Hyperebenen H1 und H2 nicht mehr parallel sein. Dies ergibt einen Widerspruch und (F, F ′ ) ist ein antipodales, paralleles Seitenflächenpaar. Lemma 4.7.26. Es sei P ein konvexes Polytop im Rd ohne parallele Seiten. Für alle Seitenflächenpaare (A, B) von P mit dim(A) + dim(B) = d − 2 beträgt die Anzahl antipodaler Seitenflächenpaare (F, F ′ ) mit A ≤ F, B ≤ F ′ und dim(F) + dim(F ′ ) = d − 1 null oder zwei. Beweis. Angenommen das Seitenflächenpaar (A, B) wäre nicht antipodal, dann würde die Anzahl antipodaler Seitenflächenpaare (F, F ′) mit A ≤ F, B ≤ F ′ und dim(F) + dim(F ′ ) = d − 1 null betragen, da (A, B) nicht in parallelen Hyperebenen liegen und somit würde sich auch keine (F, F ′ ) finden lassen, die die Bedingung erfüllen. Angenommen das Seitenflächenpaar (A, B) wäre antipodal, dann würde die Anzahl antipodaler Seitenflächenpaare (F, F ′ ) mit A ≤ F, B ≤ F ′ und dim(F) + dim(F ′ ) = d − 1 zwei betragen. Denn nach Lemma 4.7.24 iii. ist die Anzahl gleich der Anzahl von Facetten in P − P, die inzident zu der Seitenfläche A − B wären. Nach Lemma 4.7.24 i. folgt: dim(A − B) = dim(A) + dim(B) = d − 2. Und es gilt, dass sich zwei Seitenflächen der Dimension d − 1 in einer Seitenfläche der Dimension d − 2 schneiden. Somit gibt es zwei Facetten, die inzident zu A − B sind und nach Lemma 4.7.24 ii. gibt es für die genau ein Paar antipodaler Seitenflächen. Bemerkung: Im Folgenden soll nun der Satz 4.7.20 bewiesen werden. Beweis. Die Aussage ist wahr für folgende Abbildung φ: Es wird ein Punkt p in der Nähe des Mittelpunkts einer Facette F bestimmt. Dieser Punkt soll außerhalb des Polytops P liegen. Anschließend wird ∂P auf die Facette F durch den Punkt p projiziert. Dies ist das Prinzip des Schlegeldiagramms, siehe dazu Abbildung 4.24. Da das Polytop P konvex ist, wird ∂P auf die Facette F projiziert ohne das es zu Selbstschnitten kommt. Es wird gezeigt, dass es nur einen eindeutigen nichttrivialen Schnitt gibt. Dabei schneiden sich nur die Facette F und dem Punkt, der am weitesten von F entfernt liegt. Wäre er es nicht, sondern gäbe es eine Seitenfläche F ′ der Dimension d ≥ 1, so wäre die Seitenfläche und die Facette F parallel zueinander, da nach Lemma 4.7.25 zwei antipodale Seitenflächen mit einer Dimension dim(F) + dim(F ′ ) ≥ d parallel sind. Der Satz 4.7.20 ist also für die Abbildung φ richtig, denn der Punkt p und die Facetten bilden den einzigen Schnitt antipodaler Seitenflächen. Nun sei φ eine beliebig stetig, generische Abbildung. Um den Satz 4.7.20 zu beweisen, soll die Abbildung φ in die Abbildung φ deformiert werden. Dabei kann man die projizierten Seitenflächen im Rd−1 von der Abbildung φ so in die projizierten Seitenflächen im Rd−1 von der Abbildung φ verformen, dass sich zwei Seitenflächen φ(E), φ(E ′ ) mit dim(φ(E)) + 86 KAPITEL 4. DIE COLIN-DE-VERDIÈRE-ZAHL dim(φ(E ′ )) ≤ d −3 nicht schneiden. Denn es sei φ(A) eine beliebige projizierte Seitenfläche von φ der Dimension m ≤ d − 3, die in einer Seitenfläche A′ = φ(A) der Dimension m von der Abbildung φ überführt werden soll. Es wird gezeigt, dass sich ein Weg finden lässt, so dass φ(A) zu A′ = φ(A) verformt wird, ohne eine Seitenfläche der Dimension l mit m+l ≤ d−3 zu schneiden. Es sei Hφ(A) die Menge aller Hyperebenen durch die Seitenfläche φ(A), da die Dimension von dim(φ(A)) = m ≤ d − 3 beträgt, gibt es unendlich viele solcher Hyperebenen. Weiter seien Him (φ(A)) ∈ Hφ(A) mit i ∈ I einer beliebige Indexmenge, die Hyperebenen, die durch die Seitenfläche φ(A) gehen und durch eine Seitenflächen φ(B) der Dimension dim(φ(B)) = l, mit m + l = d − 3. Diese Hyperebenen existieren, sind allerdings unter Umständen nicht eindeutig bestimmt. Für jede Seitenfläche φ(B) reicht es sich einen Repräsentanten für Him (φ(A)) auszuwählen. Schließlich gilt dann |HIm (φ(A))| < ∞. Weiter seien Him−k (φ(A)) ∈ Hφ(A) mit i ∈ I ′ einer beliebige Indexmenge, die Hyperebenen die durch alle Seitenflächen φ(S ) innerhalb von φ(A) also φ(S ) ⊂ φ(A) und φ(S ′ ) gehen, weiter soll dim(φ(S )) = m − k und φ(S ′ ) = l mit m−k+l = d−3 gelten. Diese sind ebenfalls nicht eindeutig bestimmt allerdings S m− j reicht es sich wieder einen Repräsentanten auszuwählen. Dann ist | mj=0 HI ′ (φ(A))| < ∞. Dann geben alle Paare von nicht-parallelen Hyperebenen aus Hφ(A) \ m [ j HIm− (φ(A)) ′ j=0 ∪ HIm (φ(A)) m [ ! m− j ′ m ′ , H A′ \ HI ′ (A ) ∪ HI (A ) j=0 eine Möglichkeit an von φ(A) nach A′ zu gelangen. Zunächst über Hφ(A) \ m [ j=0 j HIm− (φ(A)) ∪ HIm (φ(A)) ′ und ab der Schnittmenge von dem Paar zu H A′ \ m [ j=0 j ′ HIm− (A ) ∪ HIm (A′ ) . ′ Dabei kann es immer noch vorkommen, dass die zu φ(A) adjazenten Seitenflächen φ(B) der Dimension m′ bei der Verschiebung auf Seitenflächen der Dimension l′ mit m′ + l′ ≤ d − 3 S ′ m′ −i treffen. Dann gehe man wie oben vor und bilde zunächst m i=0 HI ′′ (φ(B)), betrachte die Paare (P, P′ ) mit P = Hφ(A) \ m [ j HIm− (φ(A)) ′ j=0 ∪ HIm (φ(A)) und P′ = H A ′ \ ′ m [ j=0 j ′ HIm− (A ) ∪ HIm (A′ ) ′ m′ [ ′ HIm′′ −i (φ(B)) i=0 m′ [ i=0 ′ HIm′′ −i (B′ ) , wobei B = φ(B) die zu B korrespondierende Seitenfläche der Abbildung φ ist. Dieses Verfahren wird solange durchgeführt bis man geeignete Hyperebenen gefunden hat, die die Verformung garantieren ohne das sich zwei Seitenflächen schneiden, sofern sie eine Dimension haben, die größer ist als d − 3. Das Prinzip funktioniert, da man aus unendlich 87 KAPITEL 4. DIE COLIN-DE-VERDIÈRE-ZAHL vielen Hyperebenen immer nur endlich viele herausnimmt und man somit immer noch unendlich viele zur Auswahl hat. Falls nun durch Verformung der Seitenfläche φ(A), diese durch eine Seitenfläche φ(B) geht mit dim(φ(A)) + dim(φ(B)) = d − 2, dann gibt es nach Lemma 4.7.26 entweder zwei oder gar keine antipodalen Seitenflächen, die die Seitenflächen φ(A) beziehungsweise φ(B) enthalten. Und dies würde die Parität der Schnittanzahl P nicht ändern. Somit bleibt die Schnittanzahl von |φ(F) ∩ φ(F ′ )| immer ungerade. (a) (b) (c) Abbildung 4.24: Es soll das Schlegeldiagramm des Würfels konstruiert werden. Dazu nehme man einen Punkt, der sich zum einen in der Nähe der Mitte einer Facette des Würfels und andererseits außerhalb des Würfels befindet, Abbildung (a). Anschließend werden Geraden erstellt, die durch diesen Punkt und einen anderen Punkt des Würfels gehen. Der Schnittpunkt dieser Geraden mit der Hyperebenen, die auf der Facette liegen, werden eingetragen und durch die entsprechenden Geraden verbunden, sofern zwei Punkte auch im Würfel adjazent sind. Man erhält dann Abbildung (b) und als Einbettung im R2 dann Abbildung (c). KAPITEL 4. DIE COLIN-DE-VERDIÈRE-ZAHL 88 Definition 4.7.27. (k-Skelett). Es sei P ein Polytop im Rd , dann bezeichne (P)k das k-Skelett von P, wobei das k-Skelett der Zellkomplex mit allen Seitenflächen des Polytop P der Dimension d ≤ k ist. Theorem 4.7.28. Es sei P ein voll-dimensionales konvexes Polytop im R5 und sei φ eine Einbettung von (P)1 in den R3 . Dann existiert ein antipodales Seitenflächenpaar (F, F ′ ) der Dimension 2 von P, so dass φ(∂F) und φ(∂F ′ ) eine ungerade Verlinkungszahl haben. Beweis. Zunächst wird die Abbildung φ um eine letzte Koordinate 0 erweitert, also φ(x) = (φ(x), 0). Somit erhält man eine Einbettung des (P)1 in den R4 . Dann wird die Abbildung φ zu einer generischen Abbildung von ϕ : ∂P → R4 erweitert, so dass die letzte Koordinate positiv ist, sofern x ∈ ∂P \ (P)1 . Zum Beweis des Theorems 4.7.28 benötigt man noch ein Lemma. Lemma 4.7.29. Die Einbettung φ lässt sich zu einer generischen Abbildung ϕ erweitern. Beweis. Da es sich um eine Einbettung handelt, schneiden sich Seitenflächen der Dimension 1 nicht paarweise. Für eine generische Abbildung ϕ müssen die Seitenflächen der Dimension 2 so gewählt werden, dass sie sich paarweise nur in endlich vielen Punkten schneiden. Da sich die Einbettung der Seitenflächen der Dimension 1 nicht schneiden und eine Einbettung einen Homöomorphismus darstellt, lässt sich um die Bilder der Dimension 1 eine Röhre konstruieren, die den Radius ǫ besitzt. Innerhalb dieser Röhre lässt sich dann ein Polygonzug konstruieren, siehe dazu Abbildung 4.25. Für jedes Bild der Seitenfläche Ai der Dimension 2 des Polytops P, die von der Kurve umrandet wird, konstruiert man Kegel. Somit definiere man für die generische Abbildung ein Punkt pi , der dann die Spitze für das Bilde der Seitenfläche bildet, wobei die vierte Koordinate des Punktes pi positiv ist. Die Seitenfläche der Dimension 2 wird somit aus Dreiecken gebildet, die die gleiche Anzahl haben, wie Kanten des Polygonzuges es begrenzen. Um nun zu gewährleisten, dass sich die Bilder Seitenflächen der Dimension 2 nur in endlich vielen Punkten schneiden, genügt es die pi geschickt zu wählen und dabei zu sorgen, dass zwei nicht adjazente belief g bige Dreiecke sich höchstens in endlich vielen Punkten schneiden. Seien also △l und △k zwei beliebige nicht adjazente Dreiecke aus den Bildern der Seitenflächen Al und Ak . Weiter seien pl , ai , a j ∈ △ef und pk , a s, at ∈ △gk , wobei ai , a j und a s , at die Bilder zweier Ecken sind, die im Urbild durch eine Seitenfläche der Dimension 1 verbunden sind und pk , pl die Spitzen von Ak und Al . Daraus ergibt sich dann: △lf = ai + r1 (a j − ai ) + r2 (pl − ai ) △gk = a s + t1 (at − a s ) + t2 (pk − a s ) mit r1 , r2 , t1 , t2 ∈ R+0 und 0 ≤ r1 , r2 , t1 , t2 ≤ 1 und r1 +r2 ≤ 1 sowie t1 +t2 ≤ 1. Da ai , a j , at , a s Seitenflächen der Dimension 0 sind, haben sich nach der Einbettung oben eine vierte Koordinate 0. Deswegen wird zu Vereinfachung der vierdimensionale Punkt ai zum Punkt (ai , 0) und aus pl wird (pl , αl ) mit der vierten Koordinate αl . Für die Schnittpunktmenge ergibt sich aus △lf = △gk , dann: ! ! t1 ai − a s a − a s pk − a s ai − a j ai − pl t2 . = t 0 0 αk 0 −αl r1 r2 Aus der letzten Gleichung folgt: t2 αk = r2 αl also: αk r2 = t2 . αl Daraus ergibt sich dann: at − a s ai − a j 1 (αl pk − a s αl + αk ai − αk pl ) t1 r . ai − a s = | {z } | {z } αl | {z } 1 I II t2 III KAPITEL 4. DIE COLIN-DE-VERDIÈRE-ZAHL 89 (a) (b) (c) Abbildung 4.25: Für die Einbettung einer Seitenfläche der Dimension 1, siehe Abbildung (a), lässt sich eine Röhre um diese Kurve konstruieren, siehe Abbildung (b). Solch eine Röhre existiert, da die Einbettung garantiert, dass zwei Seitenflächen der Dimension 1, sich nicht schneiden. Innerhalb dieser Röhre lässt sich dann ein Polygonzug finden, siehe Abbildung (c). Wären nun I, II und III linear unabhängig, gäbe es eine eindeutige Lösung und die Anzahl der Schnittpunkte wäre endlich. Für den Fall, dass es unendlich viele Lösungen gibt, KAPITEL 4. DIE COLIN-DE-VERDIÈRE-ZAHL 90 müssen mindestens zwei Vektoren linear abhängig sein und das Ergebnis müsste im span der Vektoren liegen. Dies ergibt nun Kriterium für die Wahl der pi für die Bilder der Seitenflächen Ai um eine generische Abbildung zu erhalten. Im Folgenden wird eine rekursive Möglichkeit vorgestellt, um eine endliche Schnittmenge zu gewährleisten. Sei p1 = (p1 , α1 ) so gewählt, dass p1 < span(a1i ) liegt mit a1i ∈ A1 . Man bilde die affinen Ebenen aus: Et = a2s + span(p1 − a1j , a1j − a1i ) mit t ∈ I einer Indexmenge und für alle Bilder aus Ecken a2s ∈ A2 , a1i , a1j ∈ A1 , wobei a1i und a1j durch die Bilder einer Seitenfläche der Dimension 1 adjazent sind. Die Spitze p2 für A2 muss so gewählt werden, dass sie nicht auf den Et liegt. Für jedes p j kommen weitere affine Ebenen hinzu auf denen p j nicht enthalten sein darf: Et = a sj + j−1 X k=1 span(pk − akj , akj − aki ), mit t ∈ I einer Indexmenge und für alle Bilder aus Ecken a sj ∈ A j , aki , akj ∈ Ak , wobei aki und akj durch die Bilder einer Seitenfläche der Dimension 1 adjazent sind und 1 ≤ k ≤ j − 1 gilt. Diese Konstruktion stellt sicher, dass pk − a s , pl − ai und ai − a j linear unabhängig sind. Somit können I und III beziehungsweise II und III nicht linear abhängig sein. Der zweite Fall, dass I und II linear abhängig sind, soll nun ausgeschlossen werden. Wären sie linear abhängig, würde zunächst einmal ai − a s < span(ai − a j ) folgen, denn angenommen es wäre nicht so. Dann wäre a j = a s und mit dem Term I dann at = ai und die beiden Dreiecke hätte eine gleiche Seitenfläche der Dimension 1. Allerdings wäre sie dann adjazent, was ausgeschlossen wurde. Es könnte aber ai − a s ∈ span(ai − a j , III) sein. Sei also p1 wie oben. Dann bilde man alle Ebenen: α2 m 2 Et = ( (p1 − a1i ) + span(a1i − a1j , am k − al )) + a s α1 für alle a2s ∈ A2 , a1i , a1j ∈ A1 , wobei a1i und a1j adjazent durch eine Seitenfläche der Dimenn m n 1 1 sion 1 sind und am k , al ∈ (P)1 mit ak , al , ai , a j . Und p2 muss dann wiederum so gewählt werden, dass es nicht auf der Ebene Et liegt. Somit wird verhindert, dass für den Fall das I und II linear abhängig sind, II und III keine Ebene aufspannen, auf der ai − a s liegt. Somit haben zwei beliebige Dreiecke immer nur eine endliche Schnittpunktanzahl. Da die Röhre einen Radius von ǫ hat und dieser Radius sich beliebig verkleinern lässt, lässt sich der Radius ǫ des Polygonzuges durch die Bedingung der Rektifizierbarkeit beliebig verkleinern und konvergiert somit gegen die Kurve der Einbettung. Und φ lässt sich zu einer generischen Abbildung erweitern. Es sei nun ϕ eine generische Einbettung von ∂P → R4 . Nach dem Theorem 4.7.19 hat das Polytop P zwei antipodale Seitenflächen F und F ′ mit dim(F) + dim(F ′ ) = 4 und |ϕ(F) ∩ ϕ(F ′ )| ist ungerade. Angenommen dim(F) ≤ 1, dann ist die letzte Koordinate in jedem Punkt in ϕ(F) 0, während ϕ(F ′ ) eine positive letzte Koordinate hat, somit kann dim(F) ≤ 1 nicht gelten. Aus dim(F) + dim(F ′ ) = 4 folgt dann, dass dim(F) = dim(F ′ ) = 2 gelten muss. Damit ist der Rand von F und F ′ eine 1-Sphäre S 1 und S 2 , die aufgrund der Einbettung disjunkt sein müssen. Die generische Abbildung ϕ erweitert den Rand zu einem 2-Ball in dem positiven Halbraum des R4 und damit schneiden sich die 2-Bälle in einer ungeraden Anzahl von Punkten, dies soll nun durch Widerspruch gezeigt werden. Dies impliziert wiederum die Verlinktheit und eine ungerade Verlinkungszahl. Angenommen sie hätten eine gerade Verlinkungszahl, dann gibt es eine Erweiterung von ∂F zu einer stetigen Abbildung ϕ′ mit (ϕ′ (F))4 = 0 wobei mit (ϕ′ (x))4 die letzte Koordinate gemeint ist und die ist für jeden Punkt im Inneren von F gleich 0. Und ϕ′ (F) und ϕ(∂F ′ ) schneiden sich transversal in einer geraden Anzahl an Punkten, siehe dazu Abbildung 4.26. Anschließend erweitere ϕ′ zu der generischen Abbildung der Seitenfläche F. Man erhält damit eine KAPITEL 4. DIE COLIN-DE-VERDIÈRE-ZAHL 91 Abbildung 4.26: Die Spitze der Pyramide besitzt eine positive vierte Koordinate. Die Seitenfläche, hier rot dargestellt, hat eine vierte Koordinate 0. geschlossenen 2-Sphäre auf ϕ(F) ∪ ϕ′ (F). Die Abbildung ϕ von ∂F ′ wird nun ebenfalls zu der generischen Abbildung ϕ(F ′ ) erweitert und wird nun ebenfalls allerdings in den negativen Halbraum der letzten Koordinate des R4 geschlossen. Man erhält somit zwei 2-Sphären durch . Diese schneiden sich im positiven Halbraum der positiven letzten Koordinate des R4 in einer ungeraden Anzahl an transversalen Schnittpunkten. Für die letzte Koordinate gleich 0 gibt es eine gerade Anzahl an Schnittpunkten, da eine gerade Verlinkungszahl angenommen wurde und für eine negative letzte Koordinate gibt es keine Schnittpunkte, da nur F ′ dorthin erweitert wurde. Man erhält somit zwei 2-Sphären, die sich in einer ungeraden Anzahl transversaler Schnittpunkte treffen und dies ergibt wie folgt einen Widerspruch. Denn beide 2-Sphären ergeben sich als Bilder von Seitenflächen F, F ′ der Dimension 2. Diese Seitenflächen sind kompakt und somit auch die 2-Sphären. Nach der Verallgemeinerung des Jordanschen Kurvensatzes [17] teilt das Komplement die Menge in zwei Zusammenhangsmengen. Der Abschluss einer dieser beiden Mengen ist kompakt und hat den Rand der 2-Sphäre. Somit gibt es ein Inneres der 2-Sphäre. Schneidet nun die andere 2-Sphäre diese, befindet sie sich im Inneren um dieses wider zu verlassen, gibt es einen weiteren Schnittpunkt und somit ist die Anzahl transversaler Schnitte zwischen zwei kompakten 2-Sphären immer gerade. 4.7.2 Der Beweis von Theorem 4.7.7 Beweis. Es sei G ein verlinkungsfreie einbettbarer Graph und angenommen, es gilt µ(G) ≥ 5. Nach [29] lässt sich annehmen, dass G flach einbettbar im R3 ist. Denn jede flache Einbettung ist verlinkungsfrei, aber die Umkehrung ist im Allgemeinen falsch. Allerdings wurde in [29] gezeigt, dass, sofern es für G eine verlinkungsfreie Einbettung gibt, es auch eine flache Einbettung existiert. Es reicht also zu zeigen, dass der Graph G nicht flach einbettbar ist falls µ(G) ≥ 5 gilt. Es soll nun ein Gegenbeispiel konstruiert werden. Lemma 4.7.30. Es sei G ein verlinkungsfrei einbettbarer Graph mit einer minimalen Anzahl von Knoten, dann folgt, dass G 4-zusammenhängend ist. Beweis. Angenommen G hat einen minimalen Eckenschnitt U mit |U| ≤ 3. Das bedeutet, dass G − U nicht mehr zusammenhängend ist. Im Folgenden wird ein Graph G̃ konstruiert. Es wird gezeigt, dass G ein Minor von G̃ ist. Schließlich wird µ(G̃) = 4 gefolgert, was wegen des Theorems über die Minormonotonie 4.2.5 zum Widerspruch führt, da 4 = µ(G̃) ≥ µ(G) folgt und nach Annahme µ(G) ≥ 5 ist. Man betrachte eine Zusammenhangskomponente K von G − U. Dann sei G′1 der Graph, den man aus G − K und der gebildeten Clique aus den Knoten von U erhält. Schließlich 92 KAPITEL 4. DIE COLIN-DE-VERDIÈRE-ZAHL ist G′1 ebenfalls verlinkungsfrei einbettbar, da G′1 ein Minor von G ist. Weiter sei G′2 der induzierte Graph, den man aus der Zusammenhangskomponente K und der induzierten Clique aus U erhält. Dann ist G′2 ebenfalls verlinkungsfrei einbettbar, da der Graph ebenfalls ein Minor von G ist. Schließlich sei G̃ der Graph, der sich aus einer Cliquensumme aus den Graphen G′1 und G′2 bildet mit der auf U induzierten Clique, siehe dazu Abbildung 4.27. Da die Graphen G′1 und G′2 weniger Knoten als G haben und G ein Graph ist, der für eine minimale Anzahl von Knoten die Ungleichung µ(G) ≥ 5 erfüllt, muss µ(G′1 ) ≤ 4 und µ(G′2 ) ≤ 4 gelten. Weiterhin ist G ein Untergraph von G̃. Nach Theorem 4.3.1 würde aus G̃ > t ≔ max{µ(G′1 ), µ(G′2 )} die Gleichheit von µ(G̃) = t + 1 folgen und das es zwei oder drei kontrahierten Komponenten aus G̃ − U gibt, so dass diese mit U einen Kt+3 \ △ formen. Allerdings gilt µ(G̃) ≥ µ(G) und aus µ(G) ≥ 5 erhält man schließlich µ(G̃) ≥ 5. Damit µ(G) ≥ 5 gilt, muss t = 4 sein. Da aber |U| ≤ 2 ist, erhält man mit drei anderen kontrahierten Komponenten höchstens fünf Ecken und diese können keinen K7 \ △ bilden. Somit folgt 4 = µ(G̃) ≥ µ(G). Dies ergibt einen Widerspruch. U U’ (a) G (b) G ′1 U U K K K (c) G ′2 (d) G̃ Abbildung 4.27: Zunächst wird eine Zusammenhangskomponente K aus dem Graphen G − U, siehe Abbildung (a), ausgewählt. Anschließend wird der Graph G′1 aus der induzierten Clique auf U und G − K konstruiert, siehe dazu Abbildung (b). Anschließend wird G′2 aus der induzierten Clique auf U und K gebildet, siehe dazu Abbildung (c). Der Graph G̃ aus Abbildung (d) entsteht dann als Cliquensumme aus G′1 und G′2 mit der hier rot dargestellten Clique. Sei nun |U| = 3. Man betrachte eine Zusammenhangskomponente K von G − U. Dann ist der G′1 der Graph, den man aus G − K und der gebildeten Clique aus den Knoten von U erhält ebenfalls verlinkungsfrei einbettbar. Um zu sehen, dass G′1 verlinkungsfrei einbettbar ist, wird die Zusammenhangskomponente auf einen Knoten k kontrahiert. Anschließend wird auf den Knoten aus U und k eine Y△-Transformation angewendet und man erhält schließlich G′1 , siehe dazu Abbildung 4.28. Da verlinkungsfrei einbettbare Graphen invariant unter Y△-Transformation bleiben, ist G′1 ebenfalls verlinkungsfrei einbettbar. Weiter sei G′2 der induzierte Graph, den man aus der Zusammenhangskomponente K und der induzierten Clique aus U erhält. Dann ist G′2 ebenfalls aus der obigen Argumentation ver- 93 KAPITEL 4. DIE COLIN-DE-VERDIÈRE-ZAHL linkungsfrei einbettbar. Schließlich sei G̃ der Graph, der sich aus einer Cliquensumme aus den Graphen G′1 und G′2 bildet mit der auf U induzierten Clique, siehe dazu Abbildung 4.29. Da die Graphen G′1 und G′2 weniger Knoten als G haben und G ein Graph ist, der für eine minimale Anzahl von Knoten die Ungleichung µ(G) ≥ 5 erfüllt, muss µ(G′1 ) ≤ 4 und µ(G′2 ) ≤ 4 gelten. Weiterhin ist G ein Untergraph von G̃. Nach Theorem 4.3.1 würde aus G̃ > t ≔ max{µ(G′1 ), µ(G′2 )} die Gleichheit von µ(G̃) = t + 1 folgen und das es zwei oder drei kontrahierten Komponenten aus G̃ − U gibt, so dass diese mit U einen Kt+3 \ △ formen. Allerdings gilt µ(G̃) ≥ µ(G) und aus µ(G) ≥ 5 erhält man schließlich µ(G̃) ≥ 5. Damit µ(G) ≥ 5 gilt, muss t = 4 sein. Da aber |U| ≤ 2 ist, erhält man mit drei anderen kontrahierten Komponenten höchstens sechs Ecken und diese können keinen K7 \ △ bilden. Somit folgt 4 = µ(G̃) ≥ µ(G). Dies ergibt einen Widerspruch. Es sei M mit corank(M) = 5 eine zu G zugehörige Matrix, die die Definition 4.1.1 erfüllt. U K (a) G U k (c) G ′1 (b) Abbildung 4.28: Sei K eine Zusammenhangskomponente aus dem Graphen G − U, siehe Abbildung (a). Die Zusammenhangskomponente K wird in Abbildung (b) auf die Ecke k kontrahiert. Anschließend wird an den Punkt k und der Komponente U eine Y△Transformation vollzogen. Der resultierende Graph G′1 , siehe Abbildung (c) ist dann ebenfalls verlinkungsfrei einbettbar und hat weniger Knoten als G. Definition 4.7.31. (∼). Zwei Elemente x, x′ ∈ ker(M) sind äquivalent x ∼ x′ , sofern supp+ (x) = supp+ (x′ ) und supp− (x) = supp− (x′ ) gilt. Definition 4.7.32. (endlich erzeugter offener Kegel). Für eine endliche Menge von Vektoren v1 , v2 , . . . , vm ∈ Rn ist cone(v1 , v2 , . . . , vm ) ≔ m nX i=1 ein endlich erzeugter offener Kegel. λi vi | λi ∈ R, λi > 0 o 94 KAPITEL 4. DIE COLIN-DE-VERDIÈRE-ZAHL U U (a) G (b) G ′1 K U K (c) G ′2 U K (d) G̃ Abbildung 4.29: Zunächst wird eine Zusammenhangskomponente K aus dem Graphen G − U, siehe Abbildung (a), ausgewählt. Anschließend wird der Graph G′1 aus der induzierten Clique auf U und G − K konstruiert, siehe dazu Abbildung (b). Anschließend wird G′2 aus der induzierten Clique auf U und K gebildet, siehe dazu Abbildung (c). Der Graph G̃ aus Abbildung (d) entsteht dann als Cliquensumme aus G′1 und G′2 mit der hier rot dargestellten Clique. KAPITEL 4. DIE COLIN-DE-VERDIÈRE-ZAHL 95 Bemerkung: Falls λi ≥ 0 gilt, bezeichnet man den Kegel als einen endlich erzeugten abgeschlossen Kegel oder einfach als endlich erzeugten Kegel. Anstatt der Vektoren v1 , v2 , . . . , vm lässt sich der Kegel auch mit Hilfe einer Matrix definieren. Sei A ∈ Rm×n eine Matrix mit den Spalten v1 , v2 , . . . , vm , dann bezeichnet o cone(A) ≔ {Aλ, λ ∈ Rn , λ > 0 den gleichen offenen Kegel wie cone(v1 , v2 , . . . , vm ). Weiter ist coneA der Co-Kegel von cone(A) definiert als coneA ≔ {x ∈ Rn | Ax ≤ 0}. Satz 4.7.33. Die Äquivalenzklassen [xi ] von ker(M) bilden einen zentralsymmetrischen Komplex P von spitzen polyhedrischen Kegeln. Beweis. Seien xij ∈ [xi ] für alle j ∈ J einer Indexmenge linear unabhängig, dann bilden P alle positiven Linearkombinationen von xij wieder ein Element in [xi ], also j α j xij ∈ [xi ] für endlich viele α j > 0. Durch die positiven Koeffizienten bleibt sowohl der negative als P auch der positive Träger erhalten. Für die Linearkombination folgt ebenfalls j α j xij ∈ ker(M). Definition 4.7.34. (zerbrochener Kegel). Ein Kegel f von P heißt zerbrochen, falls G| supp+ (x) für alle x ∈ f unzusammenhängend ist. Satz 4.7.35. Sei x ∈ ker(M) mit G| supp+ (x) unzusammenhängend. Dann hat G| supp(x) genau 3 Komponenten K1 , K2 und K3 mit K1 ∪ K2 = supp+ (x) und K3 = supp− (x) und N(Ki ) = V \ supp(x) für i = 1, 2, 3. Beweis. Aus Theorem 4.5.6 folgt zunächst die Existenz der Zusammenhangskomponenten K1 , K2 und K3 mit K1 ∪K2 = G| supp+ (x) und K3 = G| supp− (x). Weiter folgt nach Theorem 4.5.6, dass N(Ki ) = N(supp(x)) für alle Zusammenhangskomponenten Ki aus G| supp(x) gilt. Daraus folgt dann N(K1 ) = N(K2 ) = N(K3 ). Also haben die drei Komponenten die gleichen Nachbarn. Des Weiteren gibt es nach Theorem 4.5.6 keine Kante, die G| supp+ (x) und G| supp− (x) verbindet. Angenommen, die Aussage des Satzes 4.7.35 wäre falsch. Dann gäbe es eine Komponente Ki , so dass N(Ki ) , V \ supp(x) gilt. Dafür gibt es zunächst zwei Fälle: a) es gibt ein a ∈ V(G), so dass a ∈ N(Ki ) aber a < V \ supp(x) gilt oder b) es gibt ein a ∈ V(G), so dass a < N(Ki ) aber a ∈ V \ supp(x) gilt. Es wird der Fall a) behandelt. Dieser Fall kann nicht eintreten, denn falls a ∈ N(Ki ) kann a nicht Element von K j mit i , j sein, da es keine Kante, gibt die jeweils zwei der drei Komponenten aus G| supp(x) verbindet. Somit muss a ein Element aus V \ supp(x) sein. Es wird der Fall b) behandelt. Falls a nicht in N(Ki ) aber in V \ supp(x) enthalten ist, ist die Menge V \ (supp(x) ∪ N(supp(x)) nicht leer und a ist darin enthalten. Da der Graph zusammenhängend ist, muss die Menge V \ (supp(x) ∪ N(supp(x)) mit der Menge N(supp(x)) adjazent sein. Um die Bedingung für den 4-zusammenhängenden Graphen zu gewährleisten, müssen die beiden Mengen V \ (supp(x) ∪ N(supp(x)) und N(supp(x)) durch mindestens vier Kanten verbunden sein, siehe dazu Abbildung 4.30. Dieser hat dann allerdings einen Untergraphen der Petersen Familie 4.20d und wäre somit nicht verlinkungsfrei einbettbar. Ein Widerspruch, somit gilt die Aussage. Satz 4.7.36. Jeder zerbrochene Kegel f ist 2-dimensional. 96 KAPITEL 4. DIE COLIN-DE-VERDIÈRE-ZAHL K3 K2 K1 N(supp(x)) V \ (supp(x) ∪ N(supp(x)) (a) K3 K2 K1 N(supp(x)) V \ (supp(x) ∪ N(supp(x)) n4 (b) K3 n1 K2 n2 K1 n3 K1 K2 K3 n1 n2 n3 n4 v v (c) (d) Abbildung 4.30: Nach Kontraktion der Komponenten K1 , K2 und K3 auf die gleichnamigen Knoten hat der Graph G die folgende Gestalt (a). Es wurde angenommen, das die Aussage des Satzes 4.7.35 nicht gilt. Dann gibt es noch eine weiteren Menge V \ (supp(x) ∪ N(supp(x)), die nicht zu den Ki adjazent ist. Um die Bedingung, dass der Graph 4-zusammenhängend ist zu erfüllen, muss diese Menge durch mindestens vier Kanten mit N(supp(x)) verbunden sein. Man erhält den Graphen aus Abbildung (b). In der Abbildung (c) wurde die Menge N(supp(x)) auf vier Knoten n1 , n2 , n3 , n4 sowie V \ (supp(x) ∪ N(supp(x)) auf den Knoten v kontrahiert. In der Abbildung (d) erkennt man, dass dieser Graph einen Graph aus der Petersen Familie als Minor enthält, siehe Abbildung 4.20d. 97 KAPITEL 4. DIE COLIN-DE-VERDIÈRE-ZAHL Beweis. Es sei x ∈ f und K1 , K2 und K3 die Komponenten wie in Satz 4.7.35. Für v ∈ f folgt: supp(v) = supp(x), da x und v in der gleichen Äquivalenzklasse liegen. Dann gilt MKi vKi = 0 und MKi xKi = 0 für i = 1, 2, 3, siehe dazu den Beweis von Theorem 4.5.6. Weiterhin gilt xK1 > 0, xK2 > 0 und xK3 < 0. Nach dem Perron-Frobenius-Theorem 2.1.19 folgt dann: vKi = λi xKi mit λi > 0. Angenommen dies würde nicht gelten. Dann definiere d so, dass d > maxi |aii | gilt. Schließlich wäre (MKi − d · Id)xKi = −d · xKi und xKi wäre ein Eigenvektor mit einem negativen Eigenwert −d und ebenso vKi . Nach dem Perron-FrobeniusTheorem 2.1.19 muss aber xKi der einzige Eigenvektor zu einem negativen Eigenwert sein. Denn MKi − d · Id hat nur Einträge, die kleiner als 0 sind. Somit muss vKi ein Vielfaches von xKi sein. Weiter gibt es nach dem Perron-Frobenius-Theorem 2.1.19 einen positiven Vektor z zu dem negativen Eigenwert der Matrix M. Somit folgt dann hz, vi = hz, xi = 0, da die Eigenvektoren einer symmetrischen Matrix orthogonal zueinander sind. Sofern für alle Vektoren y ∈ R|V| die folgenden Bedingungen erfüllt sind • hz, yi = 0, • supp+ (x) = supp+ (y) und supp− (x) = supp− (y), • yKi = λi xKi , λi > 0, folgt die Gleichung hy, Myi = 0. Nach Satz 2.1.23 folgt dann y ∈ ker(M) und y ∈ f sowie die Umkehrung. Es seien nun w, x, y ∈ f gegeben. Sind nun w, x, y linear abhängig dann ist f 2-dimensional. Zum einen ergibt sich: xK1 λ1 xK1 γ1 xK1 x λ x γ x K2 2 K2 2 K2 xK3 λ3 xK3 γ3 xK3 x = 0 , y = 0 , w = 0 . .. .. .. . . . 0 0 0 Aus der Gleichung hy, zi = 0 folgt: λ1 = −λ2 hxK2 , zK2 i − λ3 hxK3 , zK3 i . hxK1 , zK1 i Der Bruch ist wohldefiniert, da hxK1 , zK1 i , 0. Dies sieht man, weil z ein positiver Vektor ist und xK1 gerade eine Komponente des Trägers von x ist. Weiter folgt aus Gleichung hy, zi = 0: −γ2 hxK2 , zK2 i − γ3 hxK3 , zK3 i . γ1 = hxK1 , zK1 i Zu zeigen ist nun, dass α1 x + α2 y + α3 w = 0 eine nicht-triviale Lösung besitzt. Es gibt also α1 , α2 , α3 , so dass xK1 λ1 xK1 γ1 xK1 xK2 λ2 xK2 γ2 xK2 xK3 λ3 xK3 γ3 xK3 α1 0 + α2 0 + α3 0 = 0 . . . . . . . . . 0 0 0 gilt und nicht alle α j = 0 sind. Aus der ersten Zeile folgt dann: α1 + α2 −λ2 hxK2 , zK2 i − λ3 hxK3 , zK3 i hxK1 , zK1 i + α3 −γ2 hxK2 , zK2 i − γ3 hxK3 , zK3 i ! hxK1 , zK1 i xK1 = 0. 98 KAPITEL 4. DIE COLIN-DE-VERDIÈRE-ZAHL Durch Multiplikation von −hxK1 , zK1 i mit der Gleichung folgt dann α1 A α2 xK1 = 0 α3 mit: A ≔ −hxK1 , zK1 i λ2 hxK2 , zK2 i + λ3 hxK3 , zK3 i γ2 hxK2 , zK2 i + γ3 hxK3 , zK3 i Durch Multiplikation von −hxK2 , zK2 i mit der zweiten Zeile folgt dann α1 B α2 xK1 = 0 α3 mit: B ≔ −hxK2 , zK2 i −λ2 hxK2 , zK2 i −γ2 hxK2 , zK2 i . Durch Multiplikation von −hxK3 , zK3 i mit der dritten Zeile folgt dann α1 C α2 xK1 = 0 α3 mit: C ≔ −hxK3 , zK3 i −λ3 hxK3 , zK3 i −γ3 hxK3 , zK3 i . Um zu zeigen, dass es eine nicht-triviale Lösung von A α1 B · α2 = 0 α3 C A gibt, genügt es, die Determinante von B zu bestimmen. Schließlich folgt nach Berech C nung der Determinante A det B = 0. C Somit ist der Kern mindestens eindimensional und der Rang höchsten zweidimensional. Da die λi sowie die γi paarweise verschieden sein können folgt, dass der Rang zweidimensional ist und damit auch f . Weiter zum Beweis von Theorem 4.7.7. Wähle eine Menge von hinreichend endlich vielen Einheitsvektoren aus jedem Kegel P in einer zentralsymmetrischen Gestalt. Dies ist möglich, weil aus jedem Einheitsvektor x im Kern der Matrix M auch folgt, dass −x im Kern liegt. Weiter sei P die konvexe Hülle dieser Vektoren. Dann ist P ein 5-dimensionales zentralsymmetrisches konvexes Polytop, so dass jede Seitenfläche von P in einem Kegel von P enthalten ist. Die Vektoren lassen sich so dicht wählen, dass jede Seitenfläche von P höchstens eine Kante, die Teil eines 2-dimensionales Kegels von P ist, beinhaltet. Definition 4.7.37. (zerbrochene Kante). Eine Kante von P heißt zerbrochen, falls sie in einem zerbrochenen Kegel in P enthalten ist. 99 KAPITEL 4. DIE COLIN-DE-VERDIÈRE-ZAHL Man definiere nun eine Einbettung φ des 1-Skelett (P)1 von P in den R3 . Dazu wird die verlinkungsfreie Einbettung Ω des Graphen G benutzt. Sei zunächst x eine Ecke von P und v ∈ supp+ (x) eine Ecke des Graphen G. Nun soll φ(x) in der Nähe der Einbettung von v also Ω(v) abgebildet werden. Weiter soll nun die Einbettung der Kanten geklärt werden. Jede unzerbrochene Kante e = xy von P wird auf eine Kurve abgebildet, die φ(x) und φ(y) verbindet. Dabei soll die Kurve in der Nähe der verlinkungsfreien Einbettung der Ecken aus G| supp+ (z) mit z ∈ e abgebildet werden und zwar so, dass die Abbildung φ injektiv ist. Sei nun e eine zerbrochene Kante von P. Sei x ∈ e und sei K1 , K2 und K3 wie in Satz 4.7.35 und sei T ≔ N(supp(x)). Lemma 4.7.38. Es gibt eine Kurve C in R3 \G, die die Komponente K1 und K2 so verbindet, dass es kein Paar an disjunkten verlinkten Kreise A in G|(K1 ∪K2 ∪T )∪C und B in G|(K3 ∪T ) gibt. Beweis. Es sei H der flach eingebettete Graph von G nach Kontraktion der Ki zu den Punkten vi . Es reicht zu zeigen, dass es eine Kurve C gibt, die v1 und v2 verbindet, so dass H ∪ C verlinkungsfrei einbettbar ist. Denn sei C mit H ∪ C verlinkungsfrei einbettbar, dann lassen sich die vi langsam zu Ki dekontrahieren und C mit zwei beliebigen Punkten in K1 und K2 verbinden. Dann betrachte einen Kreis A in G|(K1 ∪ K2 ∪ T ) ∪C und B in G|(K3 ∪ T ) disjunkt von A. Nach Kontraktion erhält man disjunkte Zyklen A′ und B′ in H ∪C. Da H ∪C verlinkungsfrei einbettbar ist, sind A′ und B′ nicht verlinkt und folglich auch A und B nicht. Siehe hierzu Abbildung 4.31. v1 K1 C C T T v2 K2 (a) (b) Abbildung 4.31: Zunächst betrachtet man einen Kreis in G|(K1 ∪ K2 ∪ T ) ∪C, in Abbildung (a) rot dargestellt. Nach Kontraktion von K1 und K2 erhält man einen Zyklus, ebenfalls rot dargestellt in Abbildung (b). Weiterhin ist H|T ein hamiltonischer Kreis oder ein Teil davon. Im Folgenden soll durch einen Widerspruchsbeweis gezeigt werden, dass H|T ein hamiltonischer Kreis oder ein Teil davon ist. Sei nun angenommen H|T ist weder ein hamiltonischer Kreis noch ein Teil davon. Dann können für H|T folgende Fälle eintreten: • H|T enthält einen Kreis C sowie ein Knoten v ∈ T und v < C oder • H|T besteht aus einem Wald in der mindestens eine Komponente K kein Pfad ist. 100 KAPITEL 4. DIE COLIN-DE-VERDIÈRE-ZAHL Im ersten Fall lassen sich die Kanten des Kreises C kontrahieren, so dass nur noch ein Dreieck übrig bleibt. Die restlichen Knoten bis auf v werden entfernt. Der entstandene Minor ist ein Dreieck mit einer isolierten Ecke. Im zweiten Fall lassen sich die Zusammenhangskomponenten ausser K entfernen. Die Komponente K enthält mindestens eine Ecke vom Grad 3, da K kein Pfad ist. Nach Kontraktion von K erhält man schließlich einen K1,3 . Allerdings enthält in beiden Fällen der Graph H einen Minor der ein Mitglied der Petersen Familie ist. Dies ergibt einen Widerspruch zum Satz 4.7.6, da H verlinkungsfrei einbettbar ist, siehe dazu Abbildung 4.32. Nach Kontraktion der Komponenten Ki zu den Ecken vi sind die Ecken vi mit allen Ecken aus T adjazent. Somit ist H isomorph zum vollständigen bipartiten Graphen K3,|T | mit einigen Kanten in T , die einen hamiltonischen Kreis in T oder einen Teil davon formen. Da H flach einbettbar ist, gibt es für alle Kanten e = {t1 , t2 } von H|T eine offene Scheibe, die mit den Rand des Dreiecks t1 t2 v3 disjunkt zu H ist. Böhmes Lemma [5] besagt, dass falls es solche offenen Scheiben gibt, lassen sich ebenfalls offene Scheiben finden, die alle paarweise disjunkt sind. Da die Vereinigung von H|({v3 } ∪ T ) mit den offenen Scheibe kontrahierbar ist, lässt sich eine Kurve C finden, die v1 und v2 verbindet und keine Scheibe schneidet. Diese Kurve hat die geforderten Bedingungen. v3 v2 v3 v1 (a) v2 v1 (b) Abbildung 4.32: Wäre in H|T ein Minor mit 4 Knoten enthalten, der einen K1,4 , siehe Abbildung (a), oder ein Dreieck mit einem isolierten Punkt, siehe Abbildung (b), enthielte, so entsprächen die Graphen zwei Mitglieder der Petersen Familie, siehe Abbildung 4.20b und 4.20c. Somit lässt sich für alle zerbrochenen Kanten eine Einbettung φ in der Nähe von G|(K1 ∪ K2 ) ∪ C finden, so dass diese injektiv ist. Nach jeder zerbrochenen Kante ist die Einbettung φ fertig. Nach Satz 4.7.28 gibt es für eine Einbettung zwei antipodale Seitenflächen F und F ′ der Dimension 2, so dass die Bilder ihrer Ränder verlinkt sind. Da P ein zentralsymmetrisches Polytop ist, gibt es eine Facette D von P, so dass F ≤ D und F ′ ≤ −D. Sei y ∈ D \ ∂D, dann folgt das die Bilder der Einbettung φ unter ∂F und ∂F ′ jeweils in der Nähe der verlinkungsfreien Einbettung Ω unter supp+ (y) und supp− (y) sind. Dies folgt aus supp+ (x) ⊆ supp+ (y) und supp− (x) ⊆ supp− (y) und soll im folgenden Lemma bewiesen werden. Lemma 4.7.39. Seien D, F Seitenflächen eines Polytops P für die F ≤ D gilt. Dann folgt für alle y ∈ D \ ∂D und x ∈ F̄: supp+ (x) ⊆ supp+ (y) und supp− (x) ⊆ supp− (y). Beweis. Sei y ∈ D \ ∂D und x ∈ F̄. Dann folgt für alle z ∈ D \ ∂D, dass y ∼ z gilt. Insbesondere gilt für alle λ ∈ [0, 1) auch y ∼ λx+(1−λ)y, da die Gerade λx+(1−λ)y für λ ∈ [0, 1) im relativen Inneren der Seitenfläche D liegt und D in einem Kegel aus P enthalten KAPITEL 4. DIE COLIN-DE-VERDIÈRE-ZAHL 101 ist. Es soll nun gefolgert werden, dass supp+ (x) ⊆ supp+ (y) und supp− (x) ⊆ supp− (y) gilt. Angenommen die Aussage supp+ (x) ⊆ supp+ (y) wäre falsch. Dann gibt es mindestens einen Index i ∈ supp+ (x) aber i < supp+ (y). Nach Voraussetzung ist y ∼ λx + (1 − λ)y für λ ∈ [0, 1) und somit auch yi ∼ λxi + (1 − λ)yi für λ ∈ [0, 1). Da i < supp+ (y) gibt es zwei Fälle zu unterscheiden: 1. i ∈ supp− (y) und 2. i ∈ supp0 (y). Angenommen der erste Fall tritt ein. Dann ist yi < 0 und es müsste 0 > λxi + (1 − λ)yi für i alle λ ∈ [0, 1) gelten. Dann sei λ ≔ x−y . Dann ist λ in den geforderten Intervall [0, 1), da i −yi −yi > 0. Schließlich folgt ! −yi −yi λxi + (1 − λ)yi = yi xi + 1 − xi − yi xi − yi ! −yi · xi xi − yi + yi yi + = xi − yi xi − yi −yi · xi xi · yi = + xi − yi xi − yi = 0. Dies ergibt einen Widerspruch, da 0 > λxi + (1 − λ)yi für alle λ ∈ [0, 1) gelten soll. Angenommen der zweite Fall tritt ein. Dann ist yi = 0 und es müsste 0 = λxi + (1 − λ)yi für alle λ ∈ [0, 1) gelten. Sei nun λ ∈ (0, 1). Dann folgt λ · xi + (1 − λ)yi = λ · xi > 0. Dies ergibt einen Widerspruch, da 0 > λxi + (1 − λ)yi für alle λ ∈ [0, 1) gelten soll. Somit folgt supp+ (x) ⊆ supp+ (y). Der Fall supp− (x) ⊆ supp− (y) folgt analog. Daraus folgt schließlich die Behauptung. Somit ist das Bild der Einbettung φ auf ∂F in der Nähe der Einbettung Ω auf supp+ (y) und das Bild der Einbettung φ auf ∂F ′ ist in der Nähe der Einbettung Ω auf supp− (y) beziehungsweise auf supp− (y) enthalten. Im Folgenden soll gezeigt werden, dass ∂F oder ∂F ′ eine zerbrochene Kante beinhalten müssen. Lemma 4.7.40. Genau ein Rand einer Seitenfläche eines antipodalen Seitenflächenpaares F, F ′ muss eine zerbrochene Kante enthalten. Beweis. Falls ∂F und ∂F ′ keine zerbrochene Kante enthalten, folgt, dass G zwei disjunkte verlinkte Kreise hat. Ein Widerspruch, denn die Ecken von x, y ∈ ∂F einer unzerbrochenen Kante e = xy würden unter der Einbettung φ in der Nähe der Bilder von supp+ (x) und supp− (y) unter der Einbettung Ω eingebettet sein. Für z ∈ e ist G| supp+ (z) zusammenhängend und somit gibt es einen Weg von φ(x) nach φ(y) in der Einbettung von G, die in der Nähe von Ω liegt und somit verlinkbar ist. Somit kann Ω nicht eine verlinkungsfreie Einbettung sein. Dies ergibt einen Widerspruch und somit muss es mindestens eine zerbrochene Kante geben. Also nehme an, dass ∂F eine zerbrochene Kante enthält. Dann ist es die einzige zerbrochene Kante in ∂F, da nach Konstruktion ∂D höchstens eine Kante von P beinhaltet, die Teil eines 2-dimensionalen Kegel f in P ist. Also ist f ein zerbrochener Kegel. Es wird nun gezeigt, dass ∂F ′ keine zerbrochene Kante enthält, sofern ∂F bereits eine zerbrochene Kante beinhaltet. Angenommen ∂F ′ enthält eine zerbrochene Kante e′ . Dann ist nach Konstruktion e′ Teil eines zerbrochenen Kegels f ′ in P. Da P zentralsymmetrisch ist, folgt − f = f ′ . Aber für x ∈ f ist G| supp− (x) zusammenhängend. Dann ist −x ∈ f ′ und G| supp+ (x) müsste unzusammenhängend sein. Also enthält ∂F ′ keine zerbrochene Kante. KAPITEL 4. DIE COLIN-DE-VERDIÈRE-ZAHL 102 Nun sei x ∈ f und betrachte K1 , K2 , K3 und T wie in Satz 4.7.38. Aus Satz 4.7.35 folgt dann supp+ (x) = K1 ∪ K2 und supp− (x) = K3 . Sei nun wieder y ∈ D \ ∂D. Nach Lemma 4.7.39 ergibt sich K1 ∪ K2 ⊆ supp+ (y) und K3 ⊆ supp− (y). Aus einer weiteren Überlegung folgt ebenfalls supp+ (y) ⊆ K1 ∪ K2 ∪ T und supp− (y) ⊆ K3 ∪ T . Denn nach Satz 4.7.35 folgt T = V \ supp(x) und somit supp+ (y) ⊆ K1 ∪ K2 ∪ T und supp− (y) ⊆ K3 ∪ T . Das Bild von ∂F unter der Einbettung φ ist in der Nähe von G|(K1 ∪ K2 ∪ T ) ∪ C unter Ω, denn es gilt supp+ (y) ⊆ K1 ∪ K2 ∪ T und supp− (y) ⊆ K3 ∪ T . Weiter ist ∂F im Bild von φ unter supp+ (y) also in der Nähe von G|(K1 ∪ K2 ∪ T ) ∪ C und ∂F ′ ist im Bild von supp− (y) unter φ also in der Nähe von G|(K3 ∪T ). Dies ergibt einen Widerspruch zum Lemma 4.7.38, da es keine verlinkten Kreise geben darf. Kapitel 5 Vom Permutaeder zur Verdière-Matrix 5.1 Grundlegendes L. Lovász gab in den Publikationen [23] und [20] einen Weg an, wie man aus verschiedene Klassen von Graphen mit gegebener Verdière-Matrix eine Einbettung gewinnt. Dabei werden Pfade nach R, ausserplanare Graphen nach R2 und planare Graphen nach R3 eingebettet. Die Einbettung garantiert, dass sich die Kanten nur in inzidenten Knoten berühren. Bei der Klasse der planaren Graphen wird die Einbettung so realisiert, dass die Knoten auf die Einheitssphäre S 2 abgebildet werden und adjazenten Knoten durch Geodäten verbunden sind. Des Weiteren gab er noch eine Möglichkeit an, wie man aus einem 3-Polytop eine Verdière-Matrix konstruiert. Diese Verdière-Matrix hat einen maximalen Corank für den Graphen, der durch das 1-Skelett des Polytops hervorgegangen ist. I. Izmestiev verallgemeinerte in [15] dieses Verfahren. Nach diesem Verfahren ist es möglich eine Verdière-Matrix aus einem n-dimensionalen Polytop zu bestimmen, welche dann zu dem Graphen des 1-Skelett assoziiert ist. Diese Matrix ist dann eine Verdière-Matrix mit einem Corank von n. Allerdings wird nicht garantiert, dass der Corank n der maximale unter allen möglichen Verdière Matrizen ist. Im folgenden Kapitel wird dieses Verfahren für einen bestimmte Klasse von Polytopen, die Permutaeder, untersucht. 5.2 Permutaeder Definition 5.2.1. (affine Hülle). Für eine endliche Menge von Vektoren v1 , v2 , . . . , vm ∈ Rn ist aff(v1 , v2 , . . . , vm ) ≔ m nX i=1 λi vi | λi ∈ R, m X i=1 λi = 1 o die affine Hülle erzeugt von den vi . Definition 5.2.2. (Permutaeder Pn ). Das Permutaeder Pn ist die konvexe Hülle aller Punkte, die durch Permutationen σ ∈ Σn auf der Menge [n] ≔ {1, 2, . . . , n} entsteht: Pn ≔ conv{(σ(1), σ(2), . . . , σ(n))T ∈ Rn | σ ∈ Σn }. Hierbei bezeichnet Σn die Menge aller Permutationen auf [n]. KAPITEL 5. VOM PERMUTAEDER ZUR VERDIÈRE-MATRIX (a) P2 104 (b) P3 (c) P4 Abbildung 5.1: Der Pn mit den Fällen n =2 (a), 3 (b) und 4 (c). Beispiel: Für n = 2 gibt es nur zwei Permutationen der Menge [2] = {1, 2} nämlich (1, 2) und (2, 1). Somit ist P2 = conv{(1, 2)T , (2, 1)T }. Der P2 besteht somit nur aus einer Strecke, siehe dazu Abbildung 5.1a. Für den Fall n = 3 besteht das Permutaeder P3 aus der konvexe Hülle, die von sechs Ecken gebildet wird: P3 = conv{(1, 2, 3)T , (1, 3, 2)T , (2, 1, 3)T , (2, 3, 1)T , (3, 1, 2)T , (3, 2, 1)T }. Der P3 ist somit ein reguläres Sechseck, siehe dazu Abbildung 5.1b. Und für den Fall n = 4 ist der P4 ein Oktaederstumpf mit 24 Ecken, siehe dazu Abbildung 5.1c. Allgemein lässt sich sagen, dass das Permutaeder Pn genau n! Ecken besitzt, dies ist genau die Anzahl aller möglichen Permutationen der Zahlen 1, 2, . . . , n. Lemma 5.2.3. (Farkas Lemma). Für jede Matrix B ∈ Rn×r und b ∈ Rn gilt entweder: • b ∈ cone(B) oder • es existiert ein a ∈ Rn mit aT B ≤ 0 und aT b > 0. Beweis. Der Beweis wird in [34] erbracht. Satz 5.2.4. Der Pn befindet sich in der Hyperebene: n X i=1 xi = n(n + 1) . 2 KAPITEL 5. VOM PERMUTAEDER ZUR VERDIÈRE-MATRIX 105 Beweis. Sei A ∈ Rn×n! mit σ1 (1) σ2 (1) · · · σ (2) σ (2) · · · 2 1 A ≔ . .. .. . . . . σ1 (n) σ2 (n) · · · σn! (1) σn! (2) .. , . σn! (n) mit σi , σ j ∈ Σn und σi , σ j für alle verschiedenen i, j ∈ {1, 2, . . . , n}. Dann ist A die Matrix, deren Spaltenvektoren aus allen Punkten des Permutaeders besteht. Sei x ∈ Pn = conv(A), P dann existiert ein λ ∈ Rn! mit x = Aλ und n! i=1 λi = 1. Es bleibt zu zeigen, dass (1, 1, . . . , 1)Aλ = gilt, was äquivalent zu Pn i=1 xi = n(n+1) 2 n(n + 1) 2 ist. Dann folgt: n n n X X X (1, 1, . . . , 1)Aλ = σ1 (i), σ2 (i), · · · , σn! (i) λ i=1 i=1 i=1 n n n X X X i, · · · , i λ = i, i=1 i=1 i=1 ! n(n + 1) n(n + 1) n(n + 1) = λ , ,··· , 2 2 2 n! X n(n + 1) = λi 2 i=1 n! = n(n + 1) X λi 2 i=1 |{z} 1 n(n + 1) = 2 Bemerkung: Die Minkowski-Weyl-Dualität [34] besagt, dass sich jedes Polyeder P als Minkowski-Summe von einer konvexen Menge conv(A) als auch eines endlich erzeugten Kegels cone(B) schreiben lässt also P = conv(A) + cone(B) und das sich jedes Polyeder als die Schnittmenge von Halbräumen darstellen lässt. Satz 5.2.5. Es sei v ∈ Pn mit vT = (σ(1), σ(2), . . . , σ(n)) für ein σ ∈ Σn . Dann ist v eine Ecke von Pn . Beweis. Es genügt zu zeigen, dass es eine Hyperebene cT x = d gibt, so dass cT v = d gilt und cT w < d für alle wT ∈ {(σ(1), σ(2), . . . , σ(n)) | σ ∈ Σn } mit w , v. Dann definiere: Weiter definiere: (n + 1) σ(1) (n + 1) (n + 1) σ(2) (n + 1) 1 1 c ≔ v − . = . − . . 2 .. .. 2 .. σ(n) (n + 1) (n + 1) T d≔c v= n X i=1 1 i2 − n(n + 1)2 . 4 KAPITEL 5. VOM PERMUTAEDER ZUR VERDIÈRE-MATRIX 106 Nach Definition gilt cT v = d. Bleibt noch cT w < d für alle wT ∈ {(σ(1), σ(2), . . . , σ(n)) | σ ∈ Σn } mit w , v zu zeigen. Sei nun wT = (τ(1), τ(2), . . . , τ(n)) mit τ ∈ Σn und τ , σ, dann folgt n X 1 cT w = σ(i) · τ(i) − n(n + 1)2 . 4 i=1 Pn 2 1 Mit d = i=1 i − 4 n(n + 1)2 bleibt cT w < d beziehungsweise n X i2 > i=1 n X i=1 σ(i) · τ(i) zu zeigen. Der Beweis erfolgt mittels Induktion nach n. Induktionsanfang: Es sei n = 2. Für n = 2 besteht das Permutaeder aus einer konvexen P Hülle, die von zwei Ecken (1, 2) und (2, 1) gebildet wird. Demnach folgt: 2i=1 i2 = 12 +22 = P2 5 und i=1 σ(i)τ(i) = 1 · 2 + 2 · 1 = 4. Somit ist die Aussage für n = 2 wahr. Induktionsvoraussetzung: Die Aussage sei für n ≥ 2 wahr. Induktionsschritt: Es bleibt zu zeigen, dass unter der Induktionsvoraussetzung, die Aussage auch für n + 1 wahr ist, also: n+1 n+1 X X i2 > σ(i) · τ(i). i=1 i=1 Schließlich ergibt sich: n+1 X i2 = i=1 n X i2 + (n + 1)2 i=1 > n X i=1 ≥ n+1 X i=1 σ(i) · τ(i) + (n + 1)2 σ(i) · τ(i). Die erste Ungleichung ergibt sich aus der Induktionsvoraussetzung. Somit ist v eine Ecke von Pn . Satz 5.2.6. Allgemein gilt dann: ) ( ) n X \( X n(n + 1) |I|(|I| + 1) ∩ x ∈ Rn | . xi = Pn = x ∈ Rn | xi ≥ 2 2 i∈I i=1 I⊂[n] Bemerkung: Im Folgenden soll der Satz 5.2.6 bewiesen werden. Das Lemma 5.2.7 zeigt die erste Inklusion während die verbleibende Inklusion durch das Lemma 5.2.15 vollendet wird. Lemma 5.2.7. Es gilt: ) ( ) n \( X X |I|(|I| + 1) n(n + 1) n n xi ≥ Pn ⊆ x∈R | ∩ x∈R | . xi = 2 2 i∈I I⊂[n] i=1 P für alle I ⊂ [n] Facetten von Beweis. Zunächst muss gezeigt werden, dass i∈I xi ≥ |I|(|I|+1) 2 Pn sind. Mit Pn = conv{(σ(1), σ(2), . . . , σ(n))T ∈ Rn | σ ∈ Σn } sei nun x ∈ Pn , dann lässt sich x als Konvexkombination der Ecken schreiben: σi (1) n! n! σi (2) X X x= λi . , mit λi = 1. .. i=1 i=1 σi (n) KAPITEL 5. VOM PERMUTAEDER ZUR VERDIÈRE-MATRIX 107 Dann bleibt zu zeigen, dass für x und eine beliebige Teilmenge I ⊂ [n] X i∈I xi ≥ |I|(|I| + 1) 2 gilt. Nachrechnen ergibt: X xi = i∈I n! X λj n! X σ j (i) i∈I j=1 ≥ X λj j=1 |{z} |I| X i i=1 =1 |I|(|I| + 1) . = 2 Somit folgt dann: X i∈I xi ≥ |I|(|I| + 1) . 2 Gleichheit folgt für alle x ∈ {(σ(1), σ(2), . . . , σ(n))T ∈ Rn | σ ∈ Σn } mit xi ∈ [I] für i ∈ I. Somit ergibt sich, dass alle x ∈ {(σ(1), σ(2), . . . , σ(n))T ∈ Rn | σ ∈ Σn } auf mindestens einer Facetten liegen. Für ein gegebenes x ∈ {(σ(1), σ(2), . . . , σ(n))T ∈ Rn | σ ∈ Σn } lassen sich durch Ik = {i | xi ≤ k} mit 1 ≤ k ≤ n − 1 genau n − 1 Facetten konstruieren. Die Ecke x liegt dann auf den Facetten: X i∈Ik xi ≥ |Ik |(|Ik | + 1) , mit 1 ≤ k ≤ n − 1. 2 Somit wurde zunächst ) ( ) n X \( X n(n + 1) |I|(|I| + 1) ∩ x ∈ Rn | xi = Pn ⊆ x ∈ Rn | xi ≥ 2 2 i∈I i=1 I⊂[n] gezeigt. Es bleibt noch die andere Inklusion zu zeigen. Definition 5.2.8. Es sei Σn ≔ {(σ(1), σ(2), . . . , σ(n))T ∈ Rn | σ ∈ Σn }. Definition 5.2.9. (Abbildung τ). Man definiere die Abbildung τ durch: τ : [n − 1] × Σn −→ Σn . Sei vT = (σ(1), . . . , σ(n)) und i = σ(k) sowie i + 1 = σ(l), dann ist τi ◦ v = (σ(1), . . . , σ(k − 1), σ(l), σ(k + 1), . . . , σ(l − 1), σ(k), σ(l + 1), . . . , σ(n)). Die Abbildung τi vertauscht die Positionen der Einträge eines Vektors mit dem Wert i und i + 1. KAPITEL 5. VOM PERMUTAEDER ZUR VERDIÈRE-MATRIX 108 Abbildung 5.2: Die rot markierten Ecken sind adjazent, da es eine Hyperebene gibt auf denen die Ecken liegen und die restlichen Ecken liegen in dem unteren Halbraum. Beispiel: Sei vT = (2, 1, 5, 4, 3), dann ist τ4 ◦v = (2, 1, 4, 5, 3)T und τ2 ◦v = (3, 1, 5, 4, 2)T . Definition 5.2.10. (Adjazenz zweier Ecken). Es sei P ein Polytop und v, w ∈ P zwei Ecken. Die Ecken v, w sind zueinander adjazent, wenn es eine Hyperebene nT x = d gibt, so dass nT v = nT w = d und nT u > d für alle Ecken u ∈ P mit u , v, w gilt. Zur Veranschaulichung siehe Abbildung 5.2. Lemma 5.2.11. (Adjazenz zweier Ecken im Permutaeder). Es seien v, w ∈ Pn zwei Ecken im Permutaeder. Die Ecken v, w sind genau dann adjazent, wenn ein i ∈ [n − 1] existiert, so dass τi ◦ v = w gilt. Beweis. Seien zunächst zwei Ecken v, w gegeben und es gibt ein i ∈ [n − 1], so dass τi ◦ v = w gilt. Im Folgenden soll nun eine Hyperebene N T x = D konstruiert werden, so dass N T v = N T w = D und N T u > D für alle Ecken u , v, w gilt. Dazu definiere eine Klasse nk ∈ Rn von Normalenvektoren für Hyperebenen mit 0 < k ≤ n − 1 und k , i. Dafür betrachte 1, wenn vi ≤ k und wi ≤ k, (nk )i ≔ 0, sonst. P P Weiter definiere dk ≔ nTk v. Schließlich sei N ≔ k nk und D = k dk . Es muss nun gezeigt werden, dass N T x = D die gesuchte Hyperebene ist. Aus der Konstruktion folgt zunächst N T v = N T w = D. Bleibt N T u > D für alle Ecken u , v, w zu zeigen. Aus dem Beweis aus Satz 5.2.6 folgt nTk u ≥ dk um die Gleichheit aus N T u = D zu folgern, muss nTk u = dk für alle k gelten. Zur Vereinfachung seien die Positionen an denen vk den Wert 1 hat durch j1 , j2 , . . . , jk gegeben. Zum Beispiel folgt dann aus der Gleichung nT2 u = (n2 ) j1 u j1 + (n2 ) j2 u j2 = u j1 + u j2 . KAPITEL 5. VOM PERMUTAEDER ZUR VERDIÈRE-MATRIX 109 Schließlich ergibt sich folgendes Gleichungssystem: u j1 = 1 u j1 + u j2 = 3 u j1 + u j2 + u j3 = 6 .. . 1 u j1 + u j2 + u j3 + . . . + u ji−1 = (i − 1)i 2 i+1 X 1 u jl = (i + 1)(i + 2) 2 l=1 .. . n−2 X u jl = l=1 1 (n − 2)(n − 1). 2 Lösen des Gleichungssystem ergibt u j1 = 1, u j2 = 2, . . . u ji−1 = i − 1. An den Stellen ji , ji+1 muss u gleich i und i + 1 sein. Schließlich sind die Werte von u eindeutig, bis auf den Stellen ji , ji+1 , bestimmt. Beide Fälle ergeben erneut die Ecke v oder w. Dies ergibt einen Widerspruch. Folglich sind v und w adjazent. Sei nun umgekehrt zwei adjazente Ecken v, w gegeben. Es soll gezeigt werden, dass es ein i ∈ [n−1] gibt, so dass τi ◦v = w ergibt. Der Beweis erfolgt nun mittels Widerspruch. Sofern v, w adjazente Ecken sind, gibt es eine Hyperebene nT x = d, so dass nT v = nT w = d und nT u > d für alle Ecken u , v, w gilt. Es genügt sich dabei auf den Fall vT = (1, 2, 3, . . . , n) P zu beschränken. Denn sei vT = (σ(1), . . . , σ(n)), dann ist nT v = ni=1 ni σ(i) = d. Dann sei ṽ = (1, 2, . . . , n) und wende σ auf n und w an also σ ◦ n = (nσ(1) , nσ(2) , . . . , nσ(n) ), dann folgt P P (σ ◦ n)T ṽ = ni=1 nσ(i) i = ni=1 ni σ(i) = d und für w analog. Seien nun v1 , v2 , . . . , vn−1 die Nachbarn von v, die sich durch τ ergeben. Also ist vk ≔ τk ◦ v. Nach Voraussetzung ist w , vk für alle k. Es soll nun gezeigt werden, dass die Ecke w im aufgespannten Kegel v + cone{v1 − v, v2 − v, . . . , vn−1 − v} liegt und somit nach Farkas Lemma 5.2.3 die Ecke w nicht zu v adjazent sein kann. Zunächst definiere ṽk ≔ vk − v, dann ist 1, wenn i = k, (ṽk )i ≔ −1, wenn i = k + 1, 0, sonst. Sei vT = (1, 2, . . . , n) und w = (σ(1), σ(2), . . . , σ(n)) es sollen nun gezeigt werden, dass w=v+ n−1 X ri ṽi i=1 für ri ≥ 0. Setze ri = ri−1 + σ(i) − i und r0 = 0. Eingesetzt folgt an der Position k: (v)k + n−1 X ri (ṽi )k = k + rk−1 (ṽk−1 )k + rk (ṽk )k i=1 = k + (−1) · (rk−1 ) + 1 · (rk−1 + σ(k) − k) = σ(k). KAPITEL 5. VOM PERMUTAEDER ZUR VERDIÈRE-MATRIX 110 Folglich ist w im Kegel v + cone{ṽ1 , ṽ2 , . . . , ṽn−1 } und nach Farkas Lemma 5.2.3 gibt es keine Hyperebene auf der v und w liegt und die, die anderen Ecken trennt. Lemma 5.2.12. Die Dimension des Permutaeders Pn beträgt n − 1. Beweis. Es sei vT = (1, 2, . . . , n) eine Ecke in Pn . Dann definiere vk ≔ τk ◦ v − v für 1 ≤ k ≤ n − 1. Dann gilt: 1, wenn i = k, (vk )i ≔ −1, wenn i = k + 1, 0, sonst. Es wird gezeigt, dass die Matrix M, die aus den Spaltenvektoren vk besteht einen nulldimensionalen Kern hat. Aus M = (v1 , v2 , . . . , vn ) folgt: 1 −1 1 −1 .. . .. . x1 0 x2 0 · x3 = 0 . . . . . 1 . . xn+1 0 −1 Schließlich folgt aus der ersten Gleichung x1 = 0 daraus folgt wiederum x2 = 0 und so weiter. Folglich ist x = 0 und die Dimension des Kerns der Matrix M ist 0. Dementsprechend ist der Rang volldimensional also n − 1-dimensional. Somit beträgt die Dimension des Permutaeders n − 1. Lemma 5.2.13. Es sei F eine Facette des Pn . Weiter seien v1 , . . . , vk ∈ Pn alle Ecken auf F, dann gibt es eine F bestimmende Hyperebene nT x = d, so dass (n)i ∈ {0, 1} gilt. Beweis. Es sei Ik ≔ {i | (v1 )i ≤ k}. Es wird gezeigt, dass falls ein k < n existiert, so dass (vi )Ik = {(vi ) j | j ∈ Ik } ⊂ [k] für alle i gilt, gibt es solch eine Hyperebene. Dann setze 1, wenn i ∈ Ik , (n)i ≔ 0, sonst. Weiter definiere d ≔ 12 |Ik |(|Ik | + 1). Dann ist nT x = d eine F definierende Hyperebene mit den gewünschten Eigenschaften. Angenommen es gibt nun kein k < n , so dass (vi )Ik ∈ [k] für alle i gilt. Dann gibt es mindestens zwei Ecken u, w auf F, so dass [k] = {(u)i1 , (u)i2 , . . . , (u)ik } , {(w) j1 , (w) j2 , . . . , (w) jk } für alle 0 < k ≤ n − 1 gilt. Da das 1Skelett eines konvexen Polytopes zusammenhängend ist, gibt es einen kürzesten Weg u = v1 , v2 , . . . , vk = w von u nach w, wobei vi und vi+1 für alle 0 < i < k adjazent sind. Zur Vereinfachung nehme man, wie im Beweis von Lemma 5.2.11, uT = (1, 2, . . . , n) an. Es wird gezeigt, dass der Weg aus mindestens n Knotenpunkten besteht und der Weg die folgende Gestalt hat u = v1 , v2 = τi1 ◦ v1 , v3 = τi2 ◦ τi1 ◦ v1 , . . . , w = vk = τik−1 ◦ τik−2 ◦ · · · ◦ τi1 ◦ v1 , wobei {i1 , i2 , . . . , ik−1 } = [n−1] gilt. Zunächst folgt nach Lemma 5.2.11, dass v j die folgende Gestalt hat v j = τi j−1 ◦ τi j ◦ · · · ◦ τi1 ◦ v1 , da aufeinanderfolgende Ecken adjazent sein sollen. Durch einen Widerspruchsbeweis soll nun gezeigt werden, dass der Weg aus mindestens n Knotenpunkten besteht. Angenommen der Weg besteht aus weniger Ecken und es gilt u = v1 , v2 = τi1 ◦ v1 , v3 = τi2 ◦ τi1 ◦ v1 , . . . , w = vk = τik−1 ◦ τik−2 ◦ · · · ◦ τi1 ◦ v1 , KAPITEL 5. VOM PERMUTAEDER ZUR VERDIÈRE-MATRIX 111 dann folgt {i1 , i2 , . . . , ik−1 } , [n − 1]. Somit gibt es ein j für das j < {i1 , i2 , . . . , ik−1 } aber j ∈ [n − 1] gilt. Dann setze 1, wenn i ≤ j, (n)i ≔ 0, sonst. Da auf dem Weg von u nach w kein τ j vorkommt, gilt {(vi )1 , (vi )2 , . . . , (vi ) j } = [ j] für alle 0 < i ≤ k. Dies ergibt einen Widerspruch, da nT x = 12 j( j + 1) eine F bestimmende Hyperebene ist, für die (n)i ∈ {0, 1} gilt. Daraus folgt, dass der Weg aus mindestens n Ecken bestehen muss. Aus der gleichen Argumentation folgt ebenfalls, dass {i1 , i2 , . . . , ik−1 } = [n − 1] gelten muss. Man definiere nun e j durch: e j ≔ τi j ◦ τi j−1 ◦ · · · ◦ τi1 ◦ u − τi j−1 ◦ τi j−2 ◦ · · · ◦ τi1 ◦ u, wobei τi0 = id ist. Durch die Definition der e j folgt: vk = u + k X ei . i=1 Im Folgenden soll nun gezeigt werden, dass die Dimension der affinen Hülle, die von den e j aufgespannt werden, n − 1 ist. Daraus folgt, dass die Facette ebenfalls n − 1 dimensional ist und dies ergibt einen Widerspruch, da nach Lemma 5.2.12 der Permutaeder Pn die Dimension n − 1 hat und somit die Facette n − 2 dimensional ist. Der Beweis erfolgt mittels Induktion nach n. Induktionsanfang: Es sei n = 2. Mit uT = (1, 2) ergibt sich wT = (2, 1) und somit eT1 = (1, −1). Die affine Hülle, die von e1 aufgespannt wird, ist 1-dimensional. Somit können u und w nicht in einer Facette liegen. Im Induktionsschritt wird ein Argument verwendet, welches an dieser Stelle einmal erläutert wird. Falls der Weg aus genau n Eckpunkten besteht, konstruiere man eine Matrix M ∈ R2×1 deren Spaltenvektoren aus den e j ’s bestehen. In diesem Fall nur aus eT1 = (1, −1). Weiterhin fügt man der Matrix M eine weitere Spalte bestehend aus dem ersten kanonischen Einheitsvektor (1, 0, . . . , 0) hinzu. Die Matrix lautet dann: ! 1 1 M= . −1 0 Die Determinante der Matrix M ergibt dann: det(M) = 1. Somit ist der Rang der Matrix M zweidimensional und insbesondere heißt dies, dass die Dimension der affinen Hülle, die von den e j ’s aufgespannt wird, 1-dimensional sein muss. Induktionsvoraussetzung: Die Aussage sei für n mit n ≥ 2 wahr. Induktionsschritt: Es bleibt zu zeigen, dass unter der Induktionsvoraussetzung, die Aussage auch für n + 1 wahr ist. Hierfür werden zunächst zwei Fälle unterschieden. Der erste Fall beinhaltet den Fall, das der Weg aus genau n + 1 Eckpunkten besteht und der zweite Fall schließt die Möglichkeit ein, dass der Weg aus mehr als n + 1 Eckpunkten besteht. Man betrachte zunächst den ersten Fall, der Weg besteht aus n + 1 Eckpunkten. Man konstruiere eine Matrix M ∈ R(n+1)×(n) , deren Spaltenvektoren aus den e1 , e2 , . . . , en bestehen. Zu der Matrix fügt man noch eine weitere Spalte mit dem Vektor (1, 0, . . . , 0)T . Der Weg von u nach w besteht aus einer Kette von Abbildungen τ. Angenommen die Abbildung τn−1 wird vor τn benutzt. Weiter sei vl = τn ◦ vl−1 . Der Wert n + 1 an der n + 1. Stelle wird mit n vertauscht. Somit ist (vl )n+1 = n und (vl−1 )n+1 = n + 1 und (el−1 )n+1 = −1. Da im Folgenden die Abbildung τn nicht mehr benutzt wird, da der Weg aus n + 1 Eckpunkte besteht, enthält die letzte Zeile der Matrix M nur eine −1. Schließlich berechne man die Determinante der Matrix M. Dazu wende man den Laplaceschen Entwicklungssatz auf die letzte Zeile an, falls τn−1 nach τn angewendet wird, gilt die gleiche Argumentation nur mit der vorletzten Zeile. Dann ist: X det(M) = (−1)n+1+ j(M)n+1, j det(Mn+1, j ), j=1 KAPITEL 5. VOM PERMUTAEDER ZUR VERDIÈRE-MATRIX 112 wobei Mn+1, j die n × n-Untermatrix von M ist, die durch Streichen der n + 1-ten Zeile und j-ten Spalte entsteht. Schließlich folgt dann: det(M) = (−1)n+1+l−1 (−1) det(Mn+1,l−1 ). Durch das Streichen der n + 1-ten Zeile und j-ten Spalte der Matrix M, ist die Matrix Mn+1,l−1 eine mögliche Matrix aus den e j ’s für den Fall, dass die Dimension des Permutaeders n ist. Nach Induktionsvoraussetzung hat Mn+1,l−1 volldimensionalen Rang also ist det(Mn+1,l−1 ) , 0. Somit ist auch det(M) , 0. Folglich hat auch M einen volldimensionalen Rang und daraus folgt, dass die Dimension der Facette n sein muss. Dies ergibt einen Widerspruch. Man betrachte nun den zweiten Fall, der Weg besteht aus m Eckpunkten mit m > n + 1. Da nach Lemma 5.2.12 die Dimension des Permutaeders n beträgt, muss die Dimension der Facette n − 1 sein. Folglich besitzt jede Ecke des 1-Skelett der Facette mindestens n − 1 Nachbarn. Es wird nun gezeigt, dass jede Ecke in F genau n − 1 Nachbarn besitzt. Angenommen die Ecke sei ohne Beschränkung der Allgemeinheit uT = (1, 2, . . . , n + 1) und u besitzt n Nachbarn nämlich τ1 ◦ u, τ2 ◦ u, . . . , τn ◦ u. Dann definiere: ωk ≔ τk ◦ u − u, für 1 ≤ k ≤ n Dann ist 1, wenn i = k, (ωk )i ≔ −1, wenn i = k + 1, 0, sonst. Im Beweis des Lemmas 5.2.12 wurde gezeigt, dass die Matrix M, die aus den Spaltenvektoren ωk besteht, einen nulldimensionalen Kern hat. Dementsprechend ist der Rang der Matrix M volldimensional also n-dimensional. Somit kann F aber keine Facette sein, da sie die Dimension n − 1 haben müsste. Daraus folgt, dass jede Ecke in F genau n − 1 Nachbarn besitzt. Das 1-Skelett der Facette F ist somit (n − 1)-regulär. Es sei nun G der Graph, der sich durch das 1-Skelett der Facette F ergibt. Weiter sollen die Kanten des Graphen nun gefärbt werden. Falls zwei Ecken v, w benachbart sind und durch die Abbildung τi in einander übergehen also v = τi ◦ w gilt, färbe die Kante e = (v, w) mit i. Diese Färbung ist eindeutig, da auch w = τi ◦ v gilt. Man erhält schließlich einen (n − 1)-regulären Graphen, dessen Kanten mit n Farben gefärbt wurden. Nach Theorem 3.1.23 gibt es nun einen bunten Weg der Länge n + 1. Somit gibt es keinen zweiten Fall, das der Weg auf der Facette aus m Eckpunkten mit m > n + 1 gilt. Lemma 5.2.14. Es sei J ⊂ N \ {0} eine Teilmenge. Falls X |J|(|J| + 1) j= 2 j∈J gilt, folgt J = {1, 2, . . . , |J|}. Beweis. Der Beweis erfolgt durch Induktion nach |J|. Induktionsanfang: Es sei |J| = 1. Für |J| = 1 ergibt sich: |J|(|J|+1) = 1. Daraus folgt J = {1}. 2 Somit ist die Aussage für |J| = 1 wahr. Induktionsvoraussetzung: Die Aussage sei für |J| = 1 ≥ 1 wahr. Induktionsschritt: Es bleibt zu zeigen, dass unter der Induktionsvoraussetzung, die Aussage auch für |J| = 1 + 1 wahr ist, also: X (|J| + 1) · (|J| + 2) . j= 2 j∈J Es sei jmax ≔ max j∈J j. Es gibt nun drei Fälle zu unterscheiden: KAPITEL 5. VOM PERMUTAEDER ZUR VERDIÈRE-MATRIX 113 • jmax < |J| + 1, • jmax = |J| + 1, • jmax > |J| + 1. Falls jmax < |J| + 1 gilt, ergibt dies einen Widerspruch, da es noch |J| Zahlen in J geben muss die kleiner als jmax sind. Falls jmax = |J| + 1 gilt, folgt: X X j j = jmax + j∈J j∈J\ jmax = und daraus wiederum X (|J| + 1) · (|J| + 2) 2 j∈J\ jmax j= |J|(|J| + 1) . 2 Anwendung des Induktionsschrittes ergibt die Behauptung. Falls jmax > |J| + 1 gilt, folgt: X X j j = jmax + j∈J j∈J\ jmax (|J| + 1) · (|J| + 2) = 2 und daraus wiederum X j∈J\ jmax j= (|J| + 1) · (|J| + 2) − jmax . 2 Eine kurze Rechnung soll nun |J|(|J| + 1) (|J| + 1) · (|J| + 2) > − jmax 2 2 zeigen. Also |J|(|J| + 1) (|J| + 1) · (|J| + 2) > − jmax 2 2 |J|(|J| + 1) (|J| + 1)|J| > + |J| + 1 − jmax 2 2 jmax > |J| + 1. Dies ergibt eine wahre Aussage. Selbst wenn J = {1, 2, . . . , |J|}, folgt X (|J| + 1) · (|J| + 2) j> − jmax 2 j∈J\ j max und dies ergibt einen Widerspruch. Für eine andere Wahl für J ,mit einer Mächtigkeit von P − jmax . |J|, folgt ebenfalls j∈J\{ jmax } > (|J|+1)·(|J|+2) 2 Lemma 5.2.15. Es gilt: ) ( ) n \( X X |I|(|I| + 1) n(n + 1) n n Pn ⊇ x∈R | xi ≥ ∩ x∈R | . xi = 2 2 i∈I I⊂[n] i=1 Beweis. Es wurde im Beweis von Lemma 5.2.13 gezeigt, dass für alle Ecken ei auf einer Facette F es eine F bestimmende Hyperebene nT x = d gibt, so dass (n)i ∈ {0, 1} gilt. Im Beweis von Lemma 5.2.13 sowie im Lemma 5.2.14 wurde auch gezeigt, dass d = 1 2 | supp(v)| · (| supp(v)| + 1) sein muss. KAPITEL 5. VOM PERMUTAEDER ZUR VERDIÈRE-MATRIX 114 Bemerkung: Es wurden die Lemmata 5.2.7 und 5.2.15 gezeigt. Somit ist der Satz 5.2.6 bewiesen. Im Folgenden soll noch gezeigt werden, dass keine der Hyperebenen redundant ist. Lemma 5.2.16. Keine der Hyperebenen aus Pn = \( I⊂[n] n x∈R | X i∈I ) ( ) n X |I|(|I| + 1) n(n + 1) n xi ≥ ∩ x∈R | xi = 2 2 i=1 ist redundant. P Beweis. Es sei eine Teilmenge I ⊂ [n] mit dem zugehörigen Halbraum i∈I xi ≥ |I|(|I|+1) 2 gegeben. Dann ist v mit vI = (1, 2, . . . , |I|) und v[n]\I = (|I| + 1, |I| + 2, . . . , n) eine Ecke des Permutaeders Pn . Angenommen der zu I zugehörige Halbraum kann aus der H-Darstellung entfernt werden. Es gilt X |I|(|I| + 1) vi = 2 i∈I und somit liegt v auf der zu I zugehörigen Hyperebene. Im Folgenden soll nun gezeigt werden, dass sofern der zu I zugehörige Halbraum aus der H-Darstellung entfernt wird, die Ecke v nur auf n −2 Facetten liegt. Somit kann v keine Ecke mehr sein und dies ergibt einen Widerspruch. Aus der gegebenen Ecke v ergeben sich n − 1 Facetten aus den Mengen: Ik ≔ {i | vi ≤ k}, für 1 ≤ k ≤ n − 1. Da der zu I zugehörige Halbraum entfernt wurde und I = I|I| gilt, gibt es mindestens n − 2 Facetten auf denen v liegt. Es soll nun gezeigt werden, dass v nur auf den zu Ik zugehörigen Hyperebene liegt. Sei nun angenommen das es eine Menge J existiert, so dass J , Ik für alle k gilt und das v auf der zu J zugehörigen Hyperebene liegt. Dann muss gelten: X |J|(|J| + 1) . vi = 2 i∈J Nach Lemma 5.2.14 muss dann {(v) j | j ∈ J} = {1, 2, . . . , |J|} gelten. Dann folgt allerdings wiederum J = I|J| und dies ergibt einen Widerspruch, da J , Ik für alle k angenommen wurde. Korollar 5.2.17. Der Pn besitzt genau 2n − 2 Facetten. Beweis. Nach Satz 5.2.6 gilt: Pn = \( I⊂[n] x ∈ Rn | X i∈I xi ≥ ) ( ) n X |I|(|I| + 1) n(n + 1) ∩ x ∈ Rn | . xi = 2 2 i=1 Somit lässt sich der Pn als Schnitt von Halbräumen darstellen. Die Halbräume werden durch Hyperebenen begrenzt, die einen Normalenvektor von der Gestalt v ∈ {0, 1}n haben. Auf diese Weise lassen sich 2n Normalenvektoren erzeugen. Die Anzahl der Facetten ergibt sich dann, wenn man die Hyperebene mit v = (1, 1, . . . , 1) und den gesamten Raum mit v = (0, 0, . . . , 0) abzieht. Somit ergeben sich 2n − 2 Facetten. Satz 5.2.18. (Schwerpunkt des Pn ). Der Schwerpunkt des Pn ist: ! n+1 n+1 Sn = . ,..., 2 2 KAPITEL 5. VOM PERMUTAEDER ZUR VERDIÈRE-MATRIX 115 Beweis. Die Zahlen 1, 2, . . . , n sollen auf n Koordinaten verteilt werden. Dafür gibt es n! Kombination und dementsprechend n! Ecken. Wird für eine Ecke die erste Koordinate festgehalten also (i, σ(2), σ(3), . . . , σ̂(i), . . . , σ(n)) mit σ(k) , i, so gibt es genau (n − 1)! Kombinationen für Ecken bei denen die erste Koordinate i lautet. Somit ergibt sich die j. Schwerpunktkoordinate durch: n! (S n ) j = 1 X vi n! i=1 n = 1 X i · (n − 1)! n! i=1 n = X 1 (n − 1)! i n! i=1 n(n + 1) 1 (n − 1)! n! 2 1 (n + 1)! = n! 2 n+1 . = 2 = n+1 Schließlich lautet der Schwerpunkt S n = ( n+1 2 , . . . , 2 ). Satz 5.2.19. Es seien Fi , F j zwei Facetten von Pn mit zugehörigen Normalenvektoren vi , v j ∈ {0, 1}n . Dann gelten die äquivalenten Bedingungen: i. Die Facetten Fi und F j sind adjazent. ii. Sei I = supp(vi ) und J = supp(v j ), dann gilt I ⊂ J oder J ⊂ I. Beispiel: Es seien v = (1, 0, 0, 0, 1, 1, 1, 0) und w = (1, 0, 1, 0, 1, 1, 1, 1) die Normalenvektoren von den Facetten F und G. Dann ist I = supp(v) = {1, 5, 6, 7} und I = supp(v) = {1, 3, 5, 6, 7, 8}. Schließlich gilt: I ⊂ J und somit sind die Facetten F und G benachbart. Bemerkung: Anschaulich entspricht der Bedingung ii., das der Normalenvektor vi entweder durch das Entfernen oder Hinzufügen von 1’en aus v j gewonnen wird. Beweis. Es soll zunächst die Implikation aus ii. folgt i. gezeigt werden. Es seien vi und v j zwei Normalenvektoren die durch das Hinzufügen oder Entfernen von 1’en gewonnen wurden. Die Positionen der 1’en in den Normalenvektor vi geben Auskunft über die Position der Koordinaten von den Ecken des Pn , die in der Hyperebene Fi liegen. Sei also I ⊂ [n] und J ⊂ [n] zwei Teilmengen von [n] für die gelten: I ≔ supp(vi ) und J ≔ [n] \ I. Dann gelten für die Ecken x ∈ {(σ(1), σ(2), . . . , σ(n)) ∈ Rn | σ ∈ S n }, die in der Hyperebene Fi liegen: {(x)i | i ∈ I} = {1, 2, . . . , |I|}. Weiter seien I ′ , J ′ ∈ [n] mit: I ′ ≔ supp(v j ) und J ′ ≔ [n] \ I. Da vi und v j durch das Hinzufügen oder das Entfernen von 1’en hervorgegangen ist, folgt: I ∩ I ′ = I˜ , ∅. Folglich gibt es x ∈ {(σ(1), σ(2), . . . , σ(n)) ∈ Rn | σ ∈ S n } mit ˜ = {1, 2, . . . , |I|} ˜ die sowohl in Fi als auch F j liegen und somit sind Fi und F j {(x)i | i ∈ I} adjazent. Es soll nun die Implikation aus i. folgt ii. gezeigt werden. Sei nun umgekehrt Fi und F j zwei adjazente Facetten mit zugehörigen Normalenvektoren vi und v j gegeben. Wieder seien I, I ′ ⊂ [n] zwei Teilmengen von [n] für die gelten: I ≔ supp(vi ) und I ′ ≔ supp(v j ). Also bestimmen die Positionen der 1’en die Positionen der Koordinaten mit den Einträgen 1, 2, . . . , |I| beziehungsweise 1, 2, . . . , |I ′ |. Somit folgt für alle x ∈ Fi : {(x)i | i ∈ I} = {1, 2, . . . , |I|} und für alle x′ ∈ F j : {(x′ )i | i ∈ I ′ } = {1, 2, . . . , |I ′ |}. Angenommen die Behauptung, dass I ⊂ I ′ oder I ′ ⊂ I gilt, wäre falsch. Dadurch kann es allerdings keine Ecke KAPITEL 5. VOM PERMUTAEDER ZUR VERDIÈRE-MATRIX 116 y geben, die sowohl in der Facette Fi als auch F j enthalten ist, da die Zahlen 1, 2, . . . , |I| beziehungsweise die Zahlen 1, 2, . . . , |I ′ | auf die Positionen I beziehungsweise I ′ verteilt werden. Sofern nicht I ⊂ I ′ oder I ′ ⊂ I gilt, gibt es keine gemeinsamen Positionen für die Koordinaten und somit auch kein y. Dies ergibt einen Widerspruch. Somit müssen Fi und F j adjazent sein. Definition 5.2.20. (Volumen des Pn ). Das Volumen des Permutaeders Pn sei mit vol(Pn ) bezeichnet. Satz 5.2.21. Es sei F eine Facette des Pn mit zugehörigen Normalenvektor v ∈ {0, 1}n . Weiter seien I, J ⊂ [n] zwei Mengen mit: I ≔ supp(v) und J ≔ [n] \ I. Dann gilt für das Volumen der Facette F: vol(F) = vol(P|I| ) · vol(P|J| ). Beweis. Das Volumen der Facette F berechnet sich durch: Z χF (x) dn x. vol(F) = Rn Die Facette F lässt sich schreiben als: F = conv{x ∈ Rn | xI ∈ Σ|I| , x′J ∈ Σ|J| , x J = x′J + (|I|, . . . , |I|)}. Und damit folgt: Z vol(F) = χF (x) dn x Rn Z χP|I| ×P|J| (x) dn x = Rn ! Z Z ′ ′′ |I| ′ χP|I| (x ) · χP|J| (x ) d x d|J| x′′ = R|I| R|J| ! Z χP|I| (x′ ) χP|J| (x′′ ) d|J| x′′ d|I| x′ R|I| R|J| Z χP|J| (x′′ ) d|J| x′′ = vol(P|J|) = Z R|J| = vol(P|I| ) · vol(P|J|). Korollar 5.2.22. Es seien F, F ′ zwei benachbarte Facetten des Pn mit zugehörigen Normalenvektoren v, v′ ∈ {0, 1}n . Weiter seien I, I ′ ⊂ [n] zwei Teilmengen von [n] mit: I ≔ supp(v) und I ′ ≔ supp(v′ ). Weiter sei k ≔ |I|, beziehungsweise k′ ≔ |I ′ | und k > k′ . Dann gilt für das Volumen Fi j des Schnitts aus den Facetten F und F ′ : vol(Fi j ) = vol(Pk′ ) · vol(Pk−k′ ) · vol(Pn−k ). Beweis. Der Beweis funktioniert analog wie der Beweis vom Satz 5.2.21. Satz 5.2.23. (Volumen eines Kegels). Es sei G ⊂ Rn−1 eine kompakte Menge und h ∈ R+ . Dann definiert: Kh (G) ≔ {((1 − λ)x, λh) ∈ Rn | x ∈ G, 0 ≤ λ ≤ 1} einen Kegel mit der Grundfläche G und der Höhe h, siehe dazu Abbildung 5.3. Und das Volumen beträgt: h vol(Kh ) = vol(G). n 117 KAPITEL 5. VOM PERMUTAEDER ZUR VERDIÈRE-MATRIX h Rn−1 G Abbildung 5.3: Ein Kegel mit der Grundfläche G und der Höhe h. Beweis. Das Volumen berechnet sich durch: vol(Kh ) = Zh 0 ! ! t vol 1 − G dt h = vol(G) Zh 0 = vol(Kh ) = t 1− h !n−1 h vol(G). n Bemerkung: Im folgenden Verlauf soll das Volumen eines Kegels in einer affinen Hyperebene berechnet werden. Die Rechnung lassen sich dennoch so fortführen, wie die Abbildung 5.4 zeigt. Satz 5.2.24. Es sei F eine Facette des Permutaeders Pn mit zugehörigen Normalenvektor v ∈ {0, 1}n . Weiter seien I, J ⊂ [n] zwei Teilmengen von [n] mit: I ≔ supp(v) und J ≔ [n]\ I. Weiter sei k ≔ |I|. Dann gilt für den Schwerpunkt der Facette F: falls i ∈ I, 21 (k + 1), (S F )i = 1 (n + k + 1), falls i ∈ J. 2 Beweis. Es sei i ∈ [n] gegeben. Zunächst betrachte man den Fall, dass i ∈ I gilt. Die Positionen der 1’en geben wieder Auskunft über die Positionen der Zahlen: 1, 2, . . . , k. Die Facette F lässt sich demnach wieder schreiben als: F = conv{x ∈ Rn | xI ∈ Σ|I| , x′J ∈ Σ|J| , x J = x′J + (|I|, . . . , |I|)}. Somit gibt es insgesamt k!(n − k)! Ecken in F. Sei x ∈ F und gilt an der Stelle (x)i = σ(1) mit σ ∈ Σk , dann gibt es für die übrigen Stellen (x)i′ mit i′ ∈ I noch (k − 1)! Kombinationen und für die Stellen (x) j mit j ∈ J gibt es noch (n − k)! KAPITEL 5. VOM PERMUTAEDER ZUR VERDIÈRE-MATRIX (a) 118 (b) (c) Abbildung 5.4: In der Abbildung (a) ist ein Kegel in einer affinen Hyperebene zu sehen. Zunächst wird die Hyperebene so gedreht und verschoben, dass eine Koordinate 0 wird, wie in Abbildung (b) zu sehen ist. Im Anschluss wird der Kegel noch so verschoben, dass die Spitze auf einer Achse liegt, siehe dazu Abbildung (c). Rotation und Translation sind invariant unter der Volumenberechnung, so dass die Volumen der Kegel in der affinen Hyperebene vor und nach der euklidischen Bewegung übereinstimmen. Kombinationen. Somit ergibt sich für den Schwerpunkt der Facette an der Position i: (S F )i = k X 1 m · (k − 1)!(n − k)! k!(n − k)! m=1 k = (k − 1)!(n − k)! X m k!(n − k)! m=1 1 k(k + 1) · k 2 k+1 . = 2 = Es sei nun j ∈ [n] gegeben. Sei nun der andere Fall j ∈ J gegeben. Weiter sei x ∈ F und es gilt an der Stelle (x) j = k + τ(1) mit τ ∈ Σn−k , dann gibt es für die übrigen Stellen x j′ mit j′ ∈ J noch (n − k − 1)! Kombinationen und für die Stellen (x)i mit i ∈ I gibt es noch k! KAPITEL 5. VOM PERMUTAEDER ZUR VERDIÈRE-MATRIX 119 Kombinationen. Somit ergibt sich für den Schwerpunkt der Facette an der Position j: (S F ) j = = n X 1 m · k!(n − k − 1)! k!(n − k)! m=k+1 n k!(n − k − 1)! X m k!(n − k)! m=k+1 n(n + 1) k(k + 1) 1 · − = n−k 2 2 ! 2 2 1 n −k +n+k = · n−k 2 ! (n − k)(n + k + 1) 1 · = n−k 2 n+k+1 . = 2 ! Lemma 5.2.25. Es seien F eine Facetten des Permutaeders Pn mit zugehörigem Normalenvektoren v ∈ {0, 1}n . Weiter seien I, J ⊂ [n] zwei Teilmengen von [n] mit: I ≔ supp(v) und J ≔ [n]\I. Weiter sei k ≔ |I|. Dann gilt für einen Normalenvektor w zu F der zusätzlich P noch in der Hyperebene ni=1 xi = 12 n(n + 1) liegen soll: 12 (k − n), falls i ∈ I, (w)i = 1 k, falls i ∈ J. 2 Beweis. Der Normalenvektor w berechnet sich durch die Differenz des Schwerpunkt der Facette mit dem Schwerpunkt des Pn . Somit ergibt sich für den Normalenvektoren w nach Satz 5.2.24 und Satz 5.2.18: 12 (k − n), falls i ∈ I, (w)i = 1 k, falls i ∈ J. 2 Es bleibt zu zeigen, dass w in der Hyperebene Pn i=1 wi = 0 gilt. n X wi = i=1 k X 1 i=1 2 Pn i=1 xi = 21 n(n + 1) enthalten ist und damit (k − n) + n X 1 k 2 i=k+1 1 1 k(k − n) + (n − k)k 2 2 1 = (k2 − kn + kn − k2 ) 2 = 0. = Somit liegt w in der Hyperebene. Weiter muss gezeigt werden, dass die Ecken auf der Facette F auf der Hyperebene H mit dem zugehörigen Normalenvektor w liegen. Sei also KAPITEL 5. VOM PERMUTAEDER ZUR VERDIÈRE-MATRIX 120 x ∈ F eine Ecke: n X xi wi = i=1 k X 1 i=1 2 (k − n) · i + n X 1 k·i 2 i=k+1 1 1 k(k + 1)(k − n) + k(n(n + 1) − k(k + 1)) 4 4 1 3 2 2 = (k − k n + k − kn + n2 k + kn − k3 − k2 ) 4 1 = (n2 k − k2 n) 4 1 = (nk(n − k)). 4 = Der Wert 14 (nk(n − k)) hängt nur von den Parametern n und k ab und ist somit unabhängig von dem Wert der Ecke x und somit liegt F auf der Hyperebene. Satz 5.2.26. Es sei F eine Facetten des Pn mit zugehörigen Normalenvektor v ∈ {0, 1}n . Weiter sei I eine Teilmenge von [n] mit: I ≔ supp(v). Weiter sei k ≔ |I|. Dann gilt für den Abstand h des Schwerpunktes der Facette F und den Schwerpunkt S n des Pn : h= 1p nk(n − k). 2 Beweis. Nach Lemma 5.2.25 ergibt sich für die Differenz des Schwerpunkt der Facette mit dem Schwerpunkt des Pn : 21 (k − n), falls i ∈ I, (w)i = 1 k, falls i ∈ J. 2 Wobei J ≔ [n] \ I ist. Damit berechnet sich der Abstand, da w orthogonal zu der Facette steht, wie folgt: h = kwk v u t k n X 2 1 X = n−k + k2 2 m=1 m=k+1 1p (n − k)2 k + k2 (n − k) = 2 1p = (n − k)((n − k)k + k2 ) 2 1p = nk(n − k). 2 Satz 5.2.27. Das Volumen des Pn beträgt: vol(Pn ) = √ n · nn−2 . Beweis. Der Beweis erfolgt mittels Induktion nach n. Induktionsanfang: Es sei n = 2. Für n = 2 besteht das Permutaeder aus einer mit √ √ Strecke n−2 2. Und aus n · n ergibt den Koordinaten: (1, 2) und (2, 1). Die Länge ist demnach √ √ sich durch Einsetzen von n = 2: 2 · 22−2 = 2. Induktionsvoraussetzung: Die Aussage sei für n ≥ 2 wahr. Induktionsschritt: Es bleibt zu zeigen, dass unter der Induktionsvoraussetzung, die Aussage auch für n + 1 wahr ist. KAPITEL 5. VOM PERMUTAEDER ZUR VERDIÈRE-MATRIX (a) 121 (b) Abbildung 5.5: Das Pn wird in verschiedenen Kegel aufgeteilt. Dabei bilden die Facetten die Grundfläche und die Höhe bildet den Abstand der Facette zu dem Schwerpunkt. Die Summe über die Volumen der Kegel ist dann das Volumen des Pn . Das Permutaeder Pn soll zunächst in Kegel geteilt werden. Dabei bilden die Facetten des Pn die Grundfläche und die Höhe ergibt sich als Abstand der Facette zu dem Schwerpunkt des Pn , siehe dazu Abbildung 5.5. Es sei k = i. Dann gibt es genau ! n #F = k Facetten F mit zugehörigen Normalenvektor v ∈ {0, 1}n . So dass es I, J ⊂ [n] zwei Teilmengen von [n] mit: I ≔ supp(v) und J ≔ [n] \ I und |I| = k. Denn auf die n Koordinaten gibt es genau nk Möglichkeiten k 1’en zu verteilen. Für den zugehörigen Flächeninhalt gilt dann nach Satz 5.2.21: vol(F) = vol(Pk ) · vol(Pn−k ). Damit folgt nach Induktionsvoraussetzung: √ √ vol(F) = k · kk−2 n − k · (n − k)n−k−2 . Die Höhe der Facette zu dem Schwerpunkt des Pn beträgt nach Satz 5.2.26: h= 1p nk(n − k). 2 Nach Satz 5.2.23 lautet das Volumen des Kegels mit der Höhe h und der Facette F als Grundfläche: h vol(F). vol(K) = n−1 Man beachte dabei, dass das Pn in einer Hyperebene liegt und somit n − 1 dimensional ist. Damit ergibt sich: vol(K) = √ √ p 1 nk(n − k) k · kk−2 n − k · (n − k)n−k−2 . 2(n − 1) KAPITEL 5. VOM PERMUTAEDER ZUR VERDIÈRE-MATRIX 122 Insgesamt ergibt sich dann durch die Addition der Volumen aller Kegel: √ √ !√ n−1 X n nk(n − k) k · kk−2 n − k · (n − k)n−k−2 vol(Pn ) = k 2(n − 1) k=1 p ! n−1 X n nk2 (n − k)2 · kk−2 · (n − k)n−k−2 = k 2(n − 1) k=1 ! n−1 √ X n k(n − k) · kk−2 · (n − k)n−k−2 = n k 2(n − 1) k=1 ! n √ X n k(n − k) · kk−2 · (n − k)n−k−2 . = n k 2(n − 1) k=1 Es bleibt also noch zu zeigen, dass ! n X n k(n − k) · kk−2 · (n − k)n−k−2 = nn−2 k 2(n − 1) k=1 gilt. Dies folgt allerdings aus einer kombinatorischen Betrachtungsweise. Die Summe soll die Anzahl der aufspannenden Bäume der Eckenanzahl n wiedergeben. Dazu wird ein alternativer Weg zur Berechnung der Anzahl der aufspannenden Bäume vorgestellt. Es seien also n Ecken für einen Graph gegeben. Dann lässt sich dieser Graph auf nk Möglichkeiten aufteilen, so dass der erste Teilgraph T 1 genau k und der anderen Teilgraph T 2 genau n − k Ecken hat. Für T 1 gibt es nach Satz 3.1.15 genau kk−2 aufspannende Bäume und für T 2 gibt es genau (n − k)n−k−2 aufspannende Bäume. Um nun einen Baum zu erhalten, der n Ecken besitzt. Müssen beide Teilgraphen durch eine Brücke verbunden werden. Dafür gibt es dann k(n − k) Möglichkeiten. Die Summe von k = 1 bis n − 1 ergibt dann die Zahl der n aufspannenden Bäume. Allerdings zählt die Summe zweimal, da nk = n−k gilt. Des Weiteren ist jeder Baum n − 1 mal enthalten, da durch die Verbindung des T 1 mit T 2 mit einer Brücke auch Bäume entstehen, die schon einmal gezählt wurden, da diese Graphen bereits durch die Kombinationen anderer Teilgraphen T 1′ , T 2′ abgedeckt wurden. Folglich ist n n−2 ! n−1 X n k(n − k) · kk−2 · (n − k)n−k−2 . = 2(n − 1) k k=1 Und damit: vol(Pn ) = √ n · nn−2 . Satz 5.2.28. Es seien F, F ′ zwei benachbarte Facetten des Pn mit zugehörigen Normalenvektoren v, v′ ∈ {0, 1}n . Weiter seien I, I ′ ⊂ [n] zwei Teilmengen von [n] mit: I ≔ supp(v) und I ′ ≔ supp(v′ ). Weiter sei k ≔ |I|, beziehungsweise k′ ≔ |I ′ | und k > k′ . Dann gilt für den Winkel α zwischen F und F ′ : √ ′ k (n − k) cos(α) = − √ . k(n − k′ ) Beweis. Nach Lemma 5.2.25 ergeben sich für die Normalenvektoren w, w′ der Facetten F, F ′ : 21 (k − n), falls i ∈ I, wi = 1 k, falls i ∈ J. 2 Und w′i 12 (k′ − n), falls i ∈ I ′ , = 1 k′ , falls i ∈ J ′ . 2 KAPITEL 5. VOM PERMUTAEDER ZUR VERDIÈRE-MATRIX 123 Wobei J ≔ [n] \ I und J ′ ≔ [n] \ I ′ ist. Zu Bestimmung des Winkels α wird folgende Gleichung benutzt: hw, w′ i = kwk · kw′ k · cos(α). Für den Betrag w und w′ folgt: kwk = s k k−n 2 !2 + (n − k) k 2 !2 1√ 3 k − 2nk2 + kn2 + nk2 − k3 2 1p nk(n − k). = 2 = Und analog für w′ : 1p ′ nk (n − k′ ). 2 Für das Skalarprodukt aus w und w′ folgt schließlich: kw′ k = 1 I ∩ I ′ (k − n)(k′ − n) + J ∩ J ′ (kk′ ) + n − I ∩ I ′ − J ∩ J ′ (k − n)k′ 4 ! 1 ′ ′ ′ = n (n − k)|I ∩ I | + (k − n + |J ∩ J |)k . 4 hw, w′ i = ! Schließlich folgt dann mit k′ = |I ∩ I ′ | und n − k = |J ∩ J ′ |: √ ′ k (n − k) . cos(α) = − √ k(n − k′ ) 5.3 Colin-de-Verdière-Matrix Definition 5.3.1. (Dualität von Polytopen). Es sei P ⊂ Rn ein Polytop mit 0 ∈ P, dann ist P∗ das duale Polytop von P definiert durch: P∗ ≔ {y ∈ Rn | xT y ≤ 1, x ∈ P}. Theorem 5.3.2. (Verdière-Matrix für konvexe Polytope). Es sei P(x0 ) = {p ∈ Rn | wTi p ≤ x0i , i ∈ I} ein konvexes Polytop. Weiter sei G das 1-Skelett des P∗ . Dann ist die Matrix M definiert durch: ∂2 vol(P(x)) Mi j = − ∂xi ∂x j x=x0 eine Colin-de-Verdière-Matrix für G. Bemerkung: Der Beweis des Theorems 5.3.2 wird in [15] erbracht. Dort finden sich zwei einfachere zu handhabende Gleichungen für M. Für i , j folgt: vol(Fi j (x)) ∂2 vol(P(x)) = . ∂xi ∂x j kwi k · kw j k · sin(αi j ) Und für i = j: X ∂2 vol(P(x)) ∂2 vol(P(x)) w j = 0. w + i ∂xi ∂x j ∂x2i j,i KAPITEL 5. VOM PERMUTAEDER ZUR VERDIÈRE-MATRIX 124 Wobei Fi j die Seite ist, die aus dem Schnitt von Fi und F j entsteht. Im vorigen Kapitel wurden alle Formeln bewiesen, die zur Berechnung der Verdière-Matrix benötigt werden. Die zu berechnenden Werte, die zur Bestimmung der Verdière-Matrix benötigt werden, hängen nur von der Dimension n sowie die Anzahl der 1’en ki , k j aus dem zughörigen Normalenvektoren vi , v j der Facetten Fi , F j ab. Dabei muss beachtet werden, dass das Permutaeder Pn im Rn liegt allerdings n − 1 dimensional ist. Was zu Folge hat, dass der Normalenraum 2-dimensional ist. Hierbei werden zwischen zwei Darstellungen der Normalen unterschieden. Mit vi sind die Normalen mit vi ∈ {0, 1}n gemeint, die Auskunft über k, die Anzahl der 1’en geben. Mit wi ist die Normale aus Satz 5.2.25 gemeint. Im folgenden soll die Verdière-Matrix des P4 exemplarisch berechnet werden. Dabei werden die benötigten Werte vol(Fi j ), sin(αi j ) und kwi k·kw j k in der Tabelle ausgewertet, die jeweils nur von den Werten n, k, k′ abhängen. Hierbei werden die Facetten immer so gewählt, dass k > k′ und 4 > k > 1 gilt. Für die Berechnung werden folgende Gleichungen benötigt: vol(Fi j ) = vol(Pk′ ) vol(Pk−k′ ) vol(Pn−k ) √ √ √ ′ ′ = k′ k′k −2 k − k′ (k − k′ )k−k −2 n − k(n − k)n−k−2 , 1 p ′ n kk (n − k′ )(n − k), 4 s k′ (n − k) sin(αi j ) = 1 − k(n − k′ ) s n(k − k′ ) . = k(n − k′ ) kwi k · kw j k = Somit ergibt sich die folgende Tabelle: n k k′ 4 2 1 4 3 1 4 3 2 vol(Fi j ) √ 2 √ 2 √ 2 kwi k · kw j k √ 2 3 3 √ 2 3 sin(αi j ) q 2 √3 2 2 3q 2 3 Für die Matrixeinträge Mi j mit i , j und adjazente Fi , F j ergeben sich dann: 1 (Mi j ) = − . 2 Für die Diagonaleinträge sei F die Facette mit vT = (1, 0, 0, 0). Dann ergeben sich für die Nachbarfacetten von F die folgenden Normalenvektoren: 1 1 1 1 1 1 1 0 0 1 1 0 , , , , , . 0 1 0 1 0 1 0 0 1 0 1 1 Für v ergibt sich dann der folgende Normalenvektor w: wT = 12 (−3, 1, 1, 1) und damit auch die anderen Normalenvektoren: −2 −2 −2 −1 −1 −1 1 −2 1 2 1 2 1 −1 1 −1 1 3 , , , , , . 2 2 2 −2 2 2 2 −1 2 3 2 −1 2 2 −2 3 −1 −1 KAPITEL 5. VOM PERMUTAEDER ZUR VERDIÈRE-MATRIX 125 Und für den Diagonaleintrag zu vT = (1, 0, 0, 0) folgt aus: X ∂2 vol(P(x)) ∂2 vol(P(x)) w j = 0, w + i ∂xi ∂x j ∂x2i j,i die Gleichung: −3 −2 −2 −2 −1 −1 −1 1 1 1 1 −2 1 1 2 1 1 2 1 1 −1 1 1 −1 1 1 3 0 = M11 · − · − · − · − · − · − · 2 1 2 2 2 2 2 −2 2 2 2 2 2 −1 2 2 3 2 2 −1 1 2 2 −2 3 −1 −1 −3 −4.5 1 1.5 . = M11 − 1 1.5 1.5 1 Schließlich ergibt sich M11 = 23 . Nun sei F die Facette mit vT = (1, 1, 0, 0). Dann ergeben sich für die Nachbarfacetten von F die folgenden Normalenvektoren: 1 0 1 1 0 1 1 1 , , , . 0 0 1 0 0 0 0 1 Für v ergibt sich dann der folgende Normalenvektor w: wT = (−1, −1, 1, 1) und damit auch die anderen Normalenvektoren: −3 1 −1 −1 1 1 1 −3 1 −1 1 −1 , , , . 2 1 2 1 2 −1 2 3 1 1 3 −1 Und für den Diagonaleintrag zu vT = (1, 1, 0, 0) folgt dann: −1 −3 1 −1 −1 1 −1 1 1 1 1 1 −3 1 1 −1 1 1 −1 0 = M22 · − · − · − · − · 2 1 2 2 1 2 2 1 2 2 −1 2 2 3 1 1 1 3 −1 −1 −2 −1 −2 = M22 − . 1 2 1 2 Schließlich ergibt sich M22 = 2. Die restlichen Diagonaleinträge ergeben sich analog. Sofern eine Facette einen Normalenvektor v hat mit k = 1 oder k = 3 folgt für den Matrixeintrag 23 und für k = 2 ergibt sich 2. Die Diagonaleinträge sind nun vollständig bestimmt. Als nächstes müssen noch die Positionen ermittelt werden an welchen Stellen sich eine 0 und − 12 in der Matrix M ergibt. Dazu muss eine lexikografische Ordnung ermittelt werden um von Fi auf den Normalenvektor zu schließen und damit festzustellen welche Facetten mit welchen Facetten adjazent sind. Dazu wird zu jedem Normalenvektor v ∈ {0, 1}n die zu dem Binärsystem aus v die entsprechende Dezimalzahl der Facette zugeordnet. Sei also zum Beispiel vT = (1, 1, 0, 0), dann entspricht dies der 12. Facette, da 1 · 23 + 1 · 22 + 0 · 21 + 0 · 20 = 12. Zu dem Normalenvektor v wurden die Normalenvektoren 126 KAPITEL 5. VOM PERMUTAEDER ZUR VERDIÈRE-MATRIX der benachbarten Facetten bereits ermittelt: 1 0 1 1 0 1 1 1 , , , . 0 0 1 0 0 0 0 1 Diese Normalenvektoren entsprechen den Facetten: 8,4,14,13. Und somit ergeben sich dann auch die Matrixeinträge: 1 2 1 =− 2 1 =− 2 1 =− 2 = 2. M12,8 = − M12,4 M12,14 M12,13 M12,12 Der Diagonaleintrag M12,12 = 2, da k = 2 ist. Die Verdière-Matrix lautet dann wie folgt: 3 0 −1 0 −1 0 1 −1 M = 2 0 −1 0 −1 0 −1 0 0 3 −1 0 0 −1 −1 0 0 −1 −1 0 0 −1 −1 −1 2 0 0 0 −1 0 0 0 −1 0 0 0 0 0 0 3 −1 −1 −1 0 0 0 0 −1 −1 −1 −1 0 0 −1 2 0 −1 0 0 0 0 0 −1 0 0 −1 0 −1 0 2 −1 0 0 0 0 0 0 −1 −1 −1 −1 −1 −1 −1 3 0 0 0 0 0 0 0 0 0 0 0 0 0 0 3 −1 −1 −1 −1 −1 −1 −1 0 0 0 0 0 0 −1 2 0 −1 0 −1 0 0 −1 0 0 0 0 0 −1 0 2 −1 0 0 −1 −1 −1 −1 0 0 0 0 −1 −1 −1 3 0 0 0 0 0 0 −1 0 0 0 −1 0 0 0 2 −1 −1 −1 0 0 −1 −1 0 0 −1 −1 0 0 −1 3 0 0 −1 0 −1 0 −1 0 . −1 0 −1 0 −1 0 3 Der corank von M beträgt 3. Die Matrix M ist sogar eine optimale Verdière-Matrix für den Graphen G, dass heißt es gibt keine Matrix, die die Definition 4.1.1 für den Graphen erfüllt und einen größeren corank als 3 hat. Der Graph G ist das 1-Skelett des dualen Polytops zu P4 . Zur Veranschaulichung siehe Abbildung 5.6 und 5.7. KAPITEL 5. VOM PERMUTAEDER ZUR VERDIÈRE-MATRIX 127 Abbildung 5.6: Das duale Permutaeder P∗4 mit den P4 . Die ermittelte Verdière-Matrix hat einen Corank von drei und der Graph ist planar somit ist diese Matrix sogar eine optimale Verdière-Matrix. Für höhere Dimension ist es nicht gewährleistet, dass die berechnete Matrix optimal ist. L. Lovász und A. Schrijver gaben in ihrer Arbeit [20] einen Beweis an, dass alle ermittelten Verdière-Matrizen für dreidimensionale konvexe Polytope optimal sind. KAPITEL 5. VOM PERMUTAEDER ZUR VERDIÈRE-MATRIX (a) 128 (b) (c) (d) Abbildung 5.7: Der Graph G des 1-Skelett des dualen Polytops zu P4 lässt sich einfach konstruieren. Zu dem P4 (a) entsteht der Graph in dem man auf jeder Facette eine Ecke legt und diese dann mit jeder anderen Ecke durch eine Kante verbindet, sofern die Facetten auf dem die Ecken liegen adjazent sind, siehe (b). Für die Ebene lässt sich das P4 aufklappen (c) und dort werden dann wieder die Ecken auf den Facetten durch anderen Ecken verbunden, sofern die Facetten adjazent sind, siehe (d). Man erhält dann einen planaren Graphen. KAPITEL 5. VOM PERMUTAEDER ZUR VERDIÈRE-MATRIX 129 5.3.1 Verdière-Matrix mit Mathematica Diese Kapitel soll die Umsetzung der Berechnungen, aus dem vorigen Kapitel, in Mathematica beschreiben. Hierbei müssen die folgenden Prozeduren umgesetzt werden: • GetAngle, • GetVolume, • GetNormLength, • CheckAdjacencies, • GetW, • SetEntry, • SetDiagonalEntry, • GetVMatrix. GetAngle Die Prozedur GetAngle hängt nur von den Werten n, k, k′ ab. In dieser Prozedur soll der Winkel zweier benachbarter Facetten F, F ′ mit zugehörigen Normalenvektoren v, v′ bestimmt werden. Hierbei gilt allerdings k = | supp(v)| und k′ = | supp(v′ )|. Eine mögliche Mathematica Umsetzung sieht dann so aus: GetAn g le [ n , k1 , k2 ] := Module [ { N1 , K1 , K2 } , N1 = n ; K1 = k1 ; K2 = k2 ; Sqrt [ N1 ( K1 − K2 ) / ( K1 ( N1 − K2 ) ) ] ] Der Aufruf GetAngle[n,k,k’], in Mathematica, ermittelt dann den Winkel der benachbarten Facetten F, F ′ . GetVolume Die Prozedur GetVolume hängt nur von den Werten n, k, k′ ab. In dieser Prozedur soll das Volumen aus dem Schnitt zweier benachbarter Facetten F, F ′ mit zugehörigen Normalenvektoren v, v′ bestimmt werden. Hierbei gilt allerdings k = | supp(v)| und k′ = | supp(v′ )|. Eine mögliche Mathematica Umsetzung sieht dann so aus: GetVolume [ n , k1 , k2 ] := Module [ { N1 , K1 , K2 } , N1 = n ; K1 = k1 ; K2 = k2 ; Sqrt [ K2 ] K2 ˆ ( K2 − 2 ) ∗ Sqrt [ K1 − K2 ] ( K1 − K2 ) ˆ ( K1 − K2 − 2 ) ∗ Sqrt [ N1 − K1 ] ( N1 − K1 ) ˆ ( N1 − K1 − 2 ) ] Der Aufruf GetVolume[n,k,k’], in Mathematica, ermittelt dann das Volumen des Schnitts der benachbarten Facetten F, F ′ . KAPITEL 5. VOM PERMUTAEDER ZUR VERDIÈRE-MATRIX 130 GetNormLength Die Prozedur GetNormLength hängt nur von den Werten n, k, k′ ab. Es seien F, F ′ zwei benachbarte Facetten mit zugehörigen Normalenvektoren v, v′ . Dann gibt es zu F und F ′ zwei P Normalenvektoren w und w′ , die in der affinen Hyperebene ni=1 xi = 12 n(n + 1) enthalten sind. In der Prozedur GetNormLength soll der Wert kwk · kw′ k der Normalenvektoren w, w′ ermittelt werden. Hierbei gilt allerdings k = | supp(v)| und k′ = | supp(v′ )|. Eine mögliche Mathematica Umsetzung sieht dann so aus: GetNormLength [ n , k1 , k2 ] := Module [ { N1 , K1 , K2 } , N1 = n ; K1 = k1 ; K2 = k2 ; 1 / 4 ∗ N1∗ Sqrt [ K1 K2 ( N1 − K2) ( N1 − K1 ) ] ] Der Aufruf GetNormLength[n,k,k’], in Mathematica, ermittelt dann Wert kwk · kw′ k der Normalenvektoren w, w′ . CheckAdjacencies Die Prozedur CheckAdjacencies hängt nur von den Vektoren v, v′ ab. In dieser Prozedur soll überprüft werden, ob zwei Facetten F, F ′ mit zugehörigen Normalenvektoren v, v′ zu einander adjazent sind. Hierbei gilt allerdings k = | supp(v)| und k′ = | supp(v′ )|. Eine mögliche Mathematica Umsetzung sieht dann so aus: C h e c k A d j a c e n c i e s [ v1 , v 2 ] := Module [ { V1 , V2 } , V1 = v1 ; V2 = v2 ; V := V1 − V2 ; p o s i t i v := 0 ; n e g a t i v := 0 ; For [ i = 1 , i <= Length [ V] , i ++ , Which [ V [ [ i ] ] > 0 , p o s i t i v ++ , V [ [ i ] ] < 0 , negativ ++]]; temp := { p o s i t i v , n e g a t i v } ; b o o l := 0 ; I f [ ( temp [ [ 2 ] ] > 0 && temp [ [ 1 ] ] == 0 ) | | ( temp [ [ 1 ] ] > 0 && temp [ [ 2 ] ] == 0 ) , b o o l = 1 , b o o l = 0 ] ; bool ] Der Aufruf CheckAdjacencies[v,v’], in Mathematica, ermittelt dann, ob F, F miteinander adjazent sind, falls ja gibt er den Wert 1, ansonsten den Wert 0 zurück. Hierbei werden die Vektoren einfach subtrahiert V = v − v′ . Falls die Facetten adjazent sind, muss v′ entweder durch das Entfernen oder das Hinzufügen von 1’en aus v entstanden sein. Sofern der Vektor V einen positiven, wie auch negativen Träger hat, können F und F ′ nicht adjazent sein, da sonst sowohl 1’en entfernt wie auch hinzugefügt wurden. 131 KAPITEL 5. VOM PERMUTAEDER ZUR VERDIÈRE-MATRIX GetW Die Prozedur GetW hängt nur von den Vektoren v ab. In dieser Prozedur soll der zugehörige Vektor v einer Facette F in einen Normalenvektor w, der in der affinen HyperP ebene ni=1 xi = 21 n(n + 1) enthalten ist, umgewandelt werden. Eine mögliche Mathematica Umsetzung sieht dann so aus: GetW [ v ] := Module [ { V} , V = v; W = V; K := 0 ; For [ i = 1 , i <= Length [ V] , For [ i = 1 , i <= Length [ V] , I f [ V [ [ i ] ] == 1 , W[ [ i ] ] = 1 / 2 W[ [ i W ] i ++ , K += V [ [ i ] ] ] ; i ++ , ( K − Length [ V ] ) , ] ] = 1/2 K] ] ; Der Aufruf GetW[v], in Mathematica, ermittelt dann den Normalenvektor w, der in der P affinen Hyperebene ni=1 xi = 12 n(n + 1) enthalten ist. SetEntry Die Prozedur SetEntry hängt nur von den Werten n, i, j ab. In dieser Prozedur soll der Matrixeintrag i, j der Verdière-Matrix bestimmt werden. Eine mögliche Mathematica Umsetzung sieht dann so aus: S e t E n t r y [ n , i , j ] := Module [ { N1 , I , J } , N1 = n ; I = i; J = j; k1 := 0 ; k2 := 0 ; v1 = I n t e g e r D i g i t s [ I , 2 , N1 ] ; v2 = I n t e g e r D i g i t s [ J , 2 , N1 ] ; For [ h = 1 , h <= n , h ++ , k1 += v1 [ [ h ] ] ] ; For [ h = 1 , h <= n , h ++ , k2 += v2 [ [ h ] ] ] ; I f [ k1 >= k2 , , { tem p v ec = v1 , v1 = v2 , v2 = tempvec , temp = k1 , k1 = k2 , k2 = temp } ] ; temp = 0 ; I f [ C h e c k A d j a c e n c i e s [ v1 , v2 ] == 1 , { temp = GetVolume [ N1 , k1 , k2 ] , temp / = GetNormLength [ N1 , k1 , temp / = GetAn g le [ N1 , k1 , temp = 0 ] ; − temp ] k2 ] , k2 ] } , KAPITEL 5. VOM PERMUTAEDER ZUR VERDIÈRE-MATRIX 132 Der Aufruf SetEntry[n,i,j], in Mathematica, ermittelt dann den Matrixeintrag i, j. Der Befehl v1 = IntegerDigits[I, 2, N]; wandelt die Zahl I eine Binärzahl der Länge N um. Die Länge N bedeutet, dass entstandene Vektor mit Nullen aufgefüllt wird, bis er die Länge N hat. In der nächsten Zeile wird mit For[h = 1, h ¡= n, h++, k1 += v1[[h]]]; der Wert k = | supp(v1)| ermittelt. Falls v1 mehr 1’en als v2 hat, werden im nächsten Schritt die Vektoren getauscht. Anschließend wird überprüft, ob die Facetten benachbart sind, falls ja vol(Fi j (x)) wird der Matrixeintrag aus kwi k·kw j k·sin(α bestimmt. i j) SetDiagonal Die Prozedur SetDiagonal hängt nur von den Werten n, i und der Matrix m ab. In dieser Prozedur sollen die Diagonaleinträge der Verdière-Matrix bestimmt werden. Eine mögliche Mathematica Umsetzung sieht dann so aus: S e t D i a g o n a l [ n , i , m ] := Module [ { N1 , I , M} , N1 = n ; M = m; I = i; v = I n t e g e r D i g i t s [ I , 2 , N1 ] ; w = GetW [ v ] ; tem p v ec = 0 ; For [ f = 1 , f <= 2 ˆ N1 − 2 , f ++ , I f [ M[ [ I , f ] ] != 0 && f != I , tem p v ec −= M[ [ I , f ] ] ∗ GetW [ I n t e g e r D i g i t s [ f , 2 , N1 ] ] ] ] ; S o l v e [w∗ x == tempvec , x ] [ [ 1 , 1 , 2 ] ] ] Der Aufruf SetDiagonal[n,i,m], in Mathematica, ermittelt dann den Matrixeintrag Mi,i . Der Aufruf For[f = 1,...,tempvec -= M[[I, f]]*GetW[IntegerDigits[f, 2, N1]]]]; berechnet den 2 P vol(P(x)) Wert j,i ∂ ∂x w j . Der Befehl Solve[w*x == tempvec, x][[1, 1, 2]] löst schließlich i ∂x j 2 P vol(P(x)) das Gleichungssystem Mi,i wi + j,i ∂ ∂x w j = 0. i ∂x j GetVMatrix Die Prozedur GetVMatrix hängt nur von den Wert n ab. In dieser Prozedur wird die Verdière-Matrix bestimmt. Eine mögliche Mathematica Umsetzung sieht dann so aus: GetVMatr ix [ n ] := Module [ { N1 } , N1 = n ; M = I d e n t i t y M a t r i x [ 2 ˆ N1 − 2 ] ; For [ f = 1 , f <= 2 ˆ N1 − 2 , f ++ , For [ g = f , g <= 2 ˆ N 1− 2 , g ++ , { M[ [ f , g ] ] = S e t E n t r y [ N1 , f , g ] , M[ [ g , f ] ] = M[ [ f , g ] ] } ] ] ; For [ f = 1 , f <= 2 ˆ N1 − 2 , f ++ , For [ g = f , g <= 2 ˆ N 1− 2 , g ++ , { M[ [ f , g ] ] = S e t E n t r y [ N1 , f , g ] , M[ [ g , f ] ] = M[ [ f , g ] ] } ] ] ; KAPITEL 5. VOM PERMUTAEDER ZUR VERDIÈRE-MATRIX 133 For [ h = 1 , h <= 2 ˆ N1 − 2 , h ++ , M[ [ h , h ] ] = S e t D i a g o n a l [ N1 , h , M] ] ; M ] Der Aufruf GetVMatrix[n], in Mathematica, ermittelt dann die Verdière-Matrix für das Permutaeder Pn . Beispiele Wird nun der Befehl GetVMatrix[5] aufgerufen, erscheint die Verdière-Matrix für das 1Skelett des dualen Polytops vom Permutaeder P5 . Um sich nun einmal den Graph des 1Skelett anzuschauen. Ruft man in Mathematica zunächst << Combinatorica‘ auf und gibt anschließend den Befehl GraphPlot[GetVMatrix[5]] ein, es erscheint das folgende Bild 5.10. Hierbei wird die Verdière-Matrix als eine Art Adjazenzmatrix interpretiert. Die Anzahl der Knoten entspricht dann der Zeilen- beziehungsweise der Spaltenanzahl und zwei verschiedene Knoten i und j sind miteinander adjazent, sofern der Matrixeintrag Vi j der Verdière-Matrix V eine von Null verschiedene Zahl ist. Im Folgenden sind die Graphen für die Fälle n = 4, 5, 6, 7 in den Abbildungen 5.8, 5.10, 5.12 und 5.14 zu sehen. Weiterhin lässt sich durch Aufruf der Funktion MatrixPlot[GetVMatrix[5]] eine Visualisierung der Verdière-Matrix darstellen. Es wird ein Gitter mit der gleichen Dimension wie der Matrix erzeugt. Falls für den Matrixeintrag Vi j = 0 gilt, folgt dass das Feld {i, j} eine weiße Farbe erhält. Die anderen Matrixeinträge werden entsprechend ihres absoluten Wertes durch Graustufen dargestellt. Dementsprechend haben zwei gleiche Farben im Gitter auch den gleichen Matrixeintrag. Die Darstellung der Matrixdarstellungen sind in den Abbildungen 5.9, 5.11, 5.13 und 5.15 für die Fälle n = 4, 5, 6, 7 zu sehen. KAPITEL 5. VOM PERMUTAEDER ZUR VERDIÈRE-MATRIX Abbildung 5.8: Das 1-Skelett des P∗4 . 134 KAPITEL 5. VOM PERMUTAEDER ZUR VERDIÈRE-MATRIX 1 5 10 135 14 1 1 5 5 10 10 14 14 1 5 10 Abbildung 5.9: Der Matrix-Plot der Verdière-Matrix für P∗4 . 14 KAPITEL 5. VOM PERMUTAEDER ZUR VERDIÈRE-MATRIX Abbildung 5.10: Das 1-Skelett des P∗5 . 136 KAPITEL 5. VOM PERMUTAEDER ZUR VERDIÈRE-MATRIX 1 10 20 137 30 1 1 10 10 20 20 30 30 1 10 20 Abbildung 5.11: Der Matrix-Plot der Verdière-Matrix für P∗5 . 30 KAPITEL 5. VOM PERMUTAEDER ZUR VERDIÈRE-MATRIX Abbildung 5.12: Das 1-Skelett des P∗6 . 138 KAPITEL 5. VOM PERMUTAEDER ZUR VERDIÈRE-MATRIX 1 20 40 139 62 1 1 20 20 40 40 62 62 1 20 40 Abbildung 5.13: Der Matrix-Plot der Verdière-Matrix für P∗6 . 62 KAPITEL 5. VOM PERMUTAEDER ZUR VERDIÈRE-MATRIX Abbildung 5.14: Das 1-Skelett des P∗7 . 140 141 KAPITEL 5. VOM PERMUTAEDER ZUR VERDIÈRE-MATRIX 1 50 100 126 1 1 50 50 100 100 126 126 1 50 100 Abbildung 5.15: Der Matrix-Plot der Verdière-Matrix für P∗7 . 126 Kapitel 6 Ausblick Im Rahmen der Recherchen mit dem Thema der Colin-de-Verdière-Zahl, stellten sich einige Fragestellungen heraus, dessen Untersuchungen sich lohnen würde weiter zu ergründen. So ergab sich beispielsweise die Vermutung von Yves Colin de Verdière, dass die Colin-deVerdière-Zahl eines Graphen einen engen Zusammenhang zu der chromatischen Zahl des gleichen Graphen hat. Der Zusammenhang der Vermutung besteht darin, dass die Colinde-Verdière-Zahl eines Graphens um die Zahl 1 vermehrt, eine obere Schranke für die chromatische Zahl des Graphen zu sein scheint: χ(G) ≤ µ(G) + 1. Da die Graphenklassen nur für die ersten vier Zahlen der Verdière Zahl bekannt sind, lässt sich die Vermutung auch nur für diese Graphenklassen bestätigen. Für die Verdière-Zahl 1 folgt, dass der zugehörige Graph ein Pfad sein muss und somit die chromatische Zahl 2 beträgt. Für außerplanare Graphen ergibt sich eine chromatische Zahl von 3 und die Verdière-Zahl beträgt 2. Die Färbung der planaren Graphen führt auf das Vier-Farben-Problem zurück. Kazimierz Kuratowski zeigte in seiner Arbeit [16], dass planare Graphen sich mit 4 Farben färben lassen. Die zugehörige Verdière-Zahl beträgt 3. Für die verlinkungsfreien einbettbaren Graphen beträgt die Verdière-Zahl 4. Neil Robertson, Paul Seymour und Robin Thomas bewiesen in [28], dass die chromatische Zahl dieser Graphen 5 beträgt. Daraus ergibt sich beispielsweise die Frage, ob sich für die Kneser-Graphen ebenfalls eine Möglichkeit finden lässt, den Verdière-Graphenparameter zu bestimmen. Aus dem bereits untersuchten Färbungsproblem der Kneser-Graphen [19] ließe sich einerseits die Vermutung der chromatischen Zahl und der Verdière-Zahl für die Kneser-Graphen bestätigen oder widerlegen und andererseits eine große Klasse von Graphen untersuchen. Das Kapitel 5 führt auch gleich auf die nächste Idee der Untersuchung. Da die VerdièreZahl nur für die Zahlen 1 bis 4 untersucht ist, ergibt sich in natürlicher Weise die Frage, welche Graphenklassen sich hinter den anderen Zahlen verbergen. Eine Vermutung ist die, das Graphen die Verdière-Zahl k haben, sofern der Graph das 1-Skelett eines einfachen volldimensionalen Polytops im k-dimensionalen Raum ist. Die Arbeit von Ivan Izmestiev [15] bestätigt eine untere Schranke dieser Vermutung. Literaturverzeichnis [1] M. Aigner, Diskrete Mathematik, Vieweg-Teubner, Wiesbaden, 2009 [2] H. Anton, Lineare Algebra, Spektrum Akademischer Verlag, Heidelberg, Berlin, 1998 [3] V. Arnold, Modes and quasi-modes, J. Funct. Anal. 6, 1972, 94-101 [4] R. Bacher, Y. C. d. Verdière, Multiplicités des valeurs propres et transformations étoile-triangle des graphes, Bulletin de la Société Mathématique de France 123, 1995 [5] T. Böhme, On spatial representations of graphs, Contemporary methodes in graph theory [6] G. Chartrand, F. Harary, Planar Permutation Graphs, Annales de l’institut Henri Poincaré (B) Probabilités et Statistiques, 3 no. 4, 1967, 433-438 [7] R. Diestel, Graphentheorie, Springer-Verlag, Berlin, Heidelberg, 2006 [8] G. Fischer, Lineare Algebra, Vieweg Studium – Grundkurs Mathematik, Wiesbaden, 2005 [9] O. Forster, Analysis 2, Vieweg Studium – Grundkurs Mathematik, Wiesbaden, 2006 [10] B. C. Hall, Lie Groups, Lie Algebras, and Representations, Springer-Verlag, New York, 2003 [11] H. v. d. Holst, A short proof of the planarity characterization of Colin de Verdière, Journal of Combinatorial Theory Series B Volume 65 , Issue 2, November 1995, 269-272 [12] H. v. d. Holst, L. Lovász, A. Schrijver, On the Invariance of Colin de Verdière’s Graph Parameter Under Clique Sums, Linear Algebra and its applications, 1995, 226-228;509-517 [13] H. v. d. Holst, L. Lovász, A. Schrijver, The Colin de Verdière graph parameter, Graph Theory and Combinatorial Biology, Bolyai Soc. Math. Stud. 7, Budapest, 1996, 29-85 [14] S. Hwang, Cauchy’s interlace theorem for eigenvalues of Hermitian matrices, Amer. Math. Monthly 111, 2004, 157-159. [15] I. Izmestiev, The Colin de Verdière number and graphs of polytopes, arXiv:0704.0349v3 [16] K. Kuratowski, Sur le problème des courbes gauches en topologie, Fund Math. 15, 1930, 271-283. LITERATURVERZEICHNIS 144 [17] E. L. Lima, The Jordan-Brouwer Separation Theorem for Smooth Hypersurfaces, The American Mathematical Monthly, Vol. 95, No. 1, 1988, 39-42 [18] K. Y. Lin, An Elementary Proof of the Perron-Frobenius Theorem for NonNegative Symmetric Matrices, Chinese Journal of Physics, VOL. 15, NO. 4, Winter, 1977 [19] L. Lovász, Kneser’s conjecture, chromatic number, and homotopy, Journal of Combinatorial Theory, Series A 25, 319-324 [20] L. Lovász, Steinitz representations of polyhedra and the Colin de Verdière number, J. Combin. Theory Ser. B, 82(2), 2001, 223-236 [21] L. Lovász, The Colin de Verdière number of a graph, based on joint papers with H. van der Holst and A. Schrijver, www.cs.elte.hu/ lovasz/colinnotes.pdf [22] L. Lovász, A. Schrijver, A Borsuk theorem for antipodal links and a spectral characterization of linklessly embeddable graphs, Proc. Amer. Math. Soc., 126(5), 1998, 1275-1285 [23] L. Lovász, A. Schrijver, On the null space of a Colin de Verdière matrix, Annales de l’institut Fourier, 49 no. 3, 1999, 1017-1026 [24] J. Matoušek, J. Nešetřil, Diskrete Mathematik, Springer-Verlag, Berlin, Heidelberg, 2007 [25] F. Ninio, A simple proof of the Perron-Frobenius theorem for positive symmetric matrices, J. Phys. A: Math. Gen. 10 1259, 1977 [26] S. M. Osnaga, On rank one matrices and invariant subspaces, Balkan Journal of Geometry and its Applications, vol. 10, 2005, 145-148 [27] N. Robertson, P. Seymour, R. Thomas, A survey of linkless embeddings, Graph Structure Theory, 1991, 125-136 [28] N. Robertson, P. Seymour, R. Thomas, Hadwiger’s conjecture for K6-free graphs, Combinatorica 13 (3): doi:10.1007/BF01202354, 279-361 [29] N. Robertson, P. Seymour, R. Thomas, Sachs’ linkless embedding conjecture, Journal of Combinatorial Theory Series B Volume 64, Issue 2, 1995, 185-227 [30] D. Werner, Funktionalanalysis, Springer-Verlag, Berlin, Heidelberg, 2007 [31] Y. C. de Verdière, On a new graph invariant and a criterion for planarity, Graph Structure Theory (N. Robertson, P. Seymour, eds.), Contemporary Mathematics, American Mathematical Society, Providence, Rhode Island, 1993, 137-147. [32] Y. C. de Verdière, Sur un nouvel invariant des graphes et un critère de planarité, Journal of Combinatorial Theory, Series B 50, 1990, 11-21. [33] J. H. C. Whitehead, Combinatorial homotopy. I., Bull. Amer. Math. Soc. 55, 1949, 213-245 [34] G. M. Ziegler, Lectures on Polytopes, Springer-Verlag, New York, 2007 Eidesstattliche Versicherung Hiermit versichere ich, dass ich die vorliegende Diplomarbeit selbstständig und ohne unerlaubte Hilfe angefertigt und andere als die in der Diplomarbeit angegebenen Hilfsmittel nicht benutzt habe. Alle Stellen, die wörtlich oder sinngemäß aus anderen Schriften entnommen sind, habe ich als solche kenntlich gemacht. Berlin, den 4. Februar 2011 Kai Lawonn