Kapitel 3 Modelle In letzter Zeit werden vermehrt Parameter (Gradfolgen, Kernzahlfolgen, etc.) empirischer Graphen (Internet, WWW, Proteine, etc.) berechnet und diskutiert. Insbesondere interessieren dabei die inhärenten Bildungsgesetze, welche die beobachteten Ausprägungen dieser Parameter hervorrufen. Wir behandeln in diesem Abschnitt einige Modelle und Algorithmen zur Beschreibung und effizienten Erzeugung von Multigraphen, und untersuchen Zusammenhänge zwischen Modellen und Parametern. 3.1 Def inition (Graphenmodelle) Ein (Graphen-)Modell (K, P ) besteht aus einer Klasse K von Graphen zusammen mit einem Wahrscheinlichkeitsmaß P auf dieser Klasse. Im folgenden sei X eine Zufallsvariable für Graphen in K. Ist G = (V, E) ∈ K ein fester Graph, so wird seine Wahrscheinlichkeit mit P (X = G) oder kurz P (G) bezeichnet. Entsprechend bezeichnen wir die Wahrscheinlichkeit, dass ein zufälliger Graph des Modells eine bestimmte Eigenschaft aufweist, z.B. mit P (∆(G) = 7) oder P (e ∈ E). Der Erwartungswert einer Eigenschaft wird mit hm(G)i, hdG (v)i usw. bezeichnet. Wir betrachten zunächst ein Modell für schlichte ungerichtete Graphen. Sei dazu G(n) die Klasse der ungerichteten Graphen mit Knotenmenge Vn = {1, . . . , n}. 96 Methoden der Netzwerkanalyse (SS 2003) 97 3.2 Def inition (Zufallsgraphen; Gilbert 1959) Für jedes n ∈ 0 und 0 ≤ p ≤ 1 heißt das Modell G(n, p) = (G(n), P ) mit P induziert durch P ({v, w} ∈ E) = p unabhängig für alle v 6= w ∈ Vn Zufallsgraph (mit n Knoten und Kantenwahrscheinlichkeit p). Wir vereinbaren q = 1 − p. 3.3 Lemma n(n−1) P (G) = pm q 2 −m ¥ Beweis: Da alle Kantenwahrscheinlichkeiten unabhängig sind, gilt Y Y Y P (X = G) = P ({v, w} ∈ E) = p· q. v6=w∈V {v,w}∈E {v,w}6∈E ¤ Methoden der Netzwerkanalyse (SS 2003) 98 Erzeugen eines Graphen in einem Modell (K, P ) bedeutet, algorithmisch Mi., 25.6. einen Graphen so zu konstruieren, dass man ein bestimmtes G ∈ K mit Wahrscheinlichkeit P (G) erhält, d.h. wenn man bei k Aufrufen mit gleicher Eingabe k(G) mal den Graphen G erhalten hat, dann gilt k(G) −→ P (G) . k k→∞ Wir gehen davon aus, dass uns ein Zufallszahlengenerator R[0, 1] zur Verfügung steht, der unabhängig und gleichverteilt Zahlen im Intervall [0, 1] erzeugt. Der naheliegende Algorithmus zur Erzeugung von Zufallsgraphen führt für jedes Knotenpaar ein Zufallsexperiment aus und verbindet die beiden Knoten genau dann, wenn R[0, 1] ≤ p. Die Laufzeit dieses Konstruktionsalgorithmus’ ist allerdings in Θ(n2 ), unabhängig von p. Ist p klein, so ist der Graph höchstwahrscheinlich dünn und die Laufzeit wesentlich länger als der Graph groß. Um zu einem effizienteren Algorithmus zu gelangen, betrachte die Knotenpaare (v, w) ∈ V × V mit v < w. Wenn wir diese in irgendeiner Reihenfolge aufzählen, wie lange dauert es dann im naheliegende Algorithmus, bis wieder eine Kante eingefügt wird? Zu einem beliebigen Zeitpunkt kommt die nächste Kante mit Wahrscheinlichkeit qk p nach genau k Fehlversuchen. Um mit dem Zufallsgenerator eine Fehlversuchszahl k mit Wahrscheinlichkeit q k p zu erzeugen, ordnen wir jedem k ein Teilintervall von [0, 1] der Länge q k p zu. Man beachte, dass ∞ X k=0 qk p = p· ∞ X k=0 qk = p· 1 1−q = 1 ist. Sind die Intervalle der Größe nach geordnet, so endet das Intervall von k bei k k X X 1 − q k+1 i qi = p · q p = p· = 1 − qk . 1−q i=0 i=0 Zu einer Zufallszahl R ← R[0, 1] brauchen wir also nur das kleinste k zu bestimmen, dessen zugehöriges Intervall hinter R endet: Methoden der Netzwerkanalyse (SS 2003) PSfrag replacements 99 R 0 qp p q2p ... 1 R < 1 − q k+1 q k+1 < 1 − R e(k+1) log q < elog(1−R) log(1 − R) k > −1 log q j k Wir lassen daher log(1−R) potentielle Kanten aus. Wegen der Gleichverteilog q lung des Zufallszahlengenerators kann log R anstelle von log(1−R) verwendet werden. Algorithmus 19: Erzeugen von Zufallsgraphen Eingabe : Knotenzahl n ∈ 0 , Kantenwahrscheinlichkeit 0 < p < 1 Ausgabe: Graph G = ({1, . . . , n}, E) E ← ∅; 1 r ← log(1−p) ; v ← 1; w ← 1; while v < n do w ← w + 1 + br · log R[0, 1]c; while w > n do v ← v + 1; w ← w − (n − v); if v < n then E ← E ∪ {{v, w}}; 3.4 Satz Der Algorithmus erzeugt einen Zufallsgraphen G = (V, E) in Zeit O(n + m) und benötigt dafür genau m + 1 Zufallszahlen. ¥ Beweis: Für die Korrektheit brauchen wir nur noch zu zeigen, dass alle möglichen Paare (v, w) ∈ V × V mit v < w berücksichtigt werden. Eine lexikographische Aufzählung der Paare entspricht aber einem zeilenweisen Methoden der Netzwerkanalyse (SS 2003) 100 Durchlauf durch die obere Dreiecksmatrix der Adjazenzmatrix. Die folgende Skizze zeigt, dass die Indexberechnungen korrekt sind. n−(v+1) z 1 }| { v w PSfrag replacements n 1 v n Zur Laufzeit beachte, dass in jedem (bis auf den letzten) Durchlauf der äußeren Schleife eine Kante erzeugt und in jedem Durchlauf der inneren Schleife die Nachbarschaft eines Knotens abgeschlossen wird. ¤ Welche Eigenschaften haben die erzeugten Graphen? Die erwartete Anzahl von Kanten ist hmi = X (P ({v, w} ∈ E) · 1 + P ({v, w} 6∈ E) · 0) = p · v6=w∈V n(n − 1) , 2 sodass für festes 0 < p < 1 gilt hmi ∈ Θ(n2 ). Da wir vor allem an der Modellierung dünner Graphen interessiert sind, sollte p also geeignet in Abhängigkeit von n gewählt werden. Methoden der Netzwerkanalyse (SS 2003) 101 Wählt man die Kantenwahrscheinlichkeit p abhängig von der Knotenzahl n, Di., 1.7. dann treten Phasenübergänge auf, unterhalb derer bestimmte Eigenschaften fast immer gegeben sind, aber oberhalb nicht (oder umgekehrt). 3.5 Def inition (Eigenschaften fast aller/keines Graphen) Eine Eigenschaft A ⊆ K haben fast alle Graphen eines Modells (K, P ), wenn lim P (G ∈ A) = 1 n→∞ bzw. hat sie fast kein Graph des Modells, wenn lim P (G ∈ A) = 0 . n→∞ 3.6 Def inition (Schwellenfunktion) Eine Funktion t(n) heißt Schwelle(nfunktion) einer Eigenschaft A von Zufallsgraphen, wenn für alle Wahlen von p = p(n) 0 falls p(n) −→ 0 t(n) n→∞ lim P (G ∈ A) = n→∞ 1 falls p(n) −→ ∞ t(n) n→∞ 3.7 Bemerkung Mit t(n) ist auch jede andere Funktion in Θ(t(n)) Schwellenfunktion. können wir bereits folgern, dass unterhalb der Schwelle Aus hmi = p · n(n−1) 2 1 1 , d.h. für p(n) ∈ o( ), fast kein Zufallsgraph eine Kante enthält. Analog n2 n2 sind fast alle Zufallsgraphen oberhalb von 1 − n12 vollständig. 3.8 Bemerkung Für zahlreiche interessante Eigenschaften gibt es solche Schwellen. So ist 1 √ Schwelle für ∆(G) > 1, n1 Schwelle für das Enthalten eines Kreises (d.h. n n unterhalb sind fast alle Zufallsgraphen Wälder) und logn n Schwelle dafür, dass fast alle Graphen zusammenhängend sind. Methoden der Netzwerkanalyse (SS 2003) 102 Exkurs: Die Probabilisitische Methode Das ursprüngliche Anwendungsgebiet von Zufallsgraphen sind Existenzaussagen für Graphen mit bestimmten Eigenschaften. 3.9 Def inition (Ramsey-Zahlen) Für r, s ∈ mit r, s ≥ 2 hat ein Graph G ∈ G(n) die Eigenschaft (r, s), wenn er einen knoteninduzierten Teilgraphen Gr ∈ G(r) enthält, der vollständig verbunden ist (eine Clique Kr der Größe r), oder einen knoteninduzierten Teilgraph Gs ∈ G(s), der nur aus isolierten Knoten besteht (eine unabhängige Menge der Größe s). Das kleinste n ∈ , für das jeder Graph in G(n) die Eigenschaft (r, s) hat, ist die Ramsey-Zahl R(r, s). 3.10 Bemerkung Falls jeder Graph in G(n) die Eigenschaft (r, s) hat, dann auch jeder Graph in G(n0 ) mit n0 > n. Ein Graph hat die Eigenschaft (r, s) genau dann, wenn sein Komplementgraph die Eigenschaft (s, r) hat. Es gilt R(r, 2) = r, denn entweder ist G ∈ G(r) eine Clique, oder es gibt zwei nicht-adjazente (unabhängige) Knoten (für n < r haben die Cliquen Kn nicht die Eigenschaft (r, 2)). Aus Symmetriegründen folgt R(2, s) = s. Wir leiten zunächst eine obere Schranke für die Ramsey-Zahlen her. 3.11 Lemma Für r, s > 2 ist R(r, s) ≤ R(r − 1, s) + R(r, s − 1). ¥ Beweis: Seien nr = R(r − 1, s) und ns = R(r, s − 1) und G = (V, E) ∈ G(n) für n = nr + ns . Wir zeigen, dass G die Eigenschaft (r, s) hat. Für einen beliebigen Knoten v ∈ V sei N ∗ (v) = V \ (N (v) ∪ {v}) die Menge der von v unabhängigen Knoten. Wegen |N (v)| + |N ∗ (v)| = n − 1 ist entweder |N (v)| ≥ nr oder |N ∗ (v)| ≥ ns . Ist |N (v)| ≥ nr , dann gibt es in N (v) eine Clique der Größe r − 1, die zusammen mit v eine Clique der Größe r ergibt, oder eine unabhängige Menge Ns der Größe s. Der Fall |N ∗ (v)| ≥ ns ist analog, sodass G in jedem Fall die Eigenschaft (r, s) hat. ¤ 3.12 Folgerung µ ¶ r+s−2 R(r, s) ≤ r−1 Durch Induktion über r, s ≥ 2. Zunächst sind R(r, 2) = r = ¡¥ rBeweis: ¢ ¡s¢ und R(2, s) = s = 1 . Mit dem Lemma und der Induktionsvoraussetr−1 Methoden der Netzwerkanalyse (SS 2003) 103 zung folgt R(r, s) ≤ R(r − 1, s) + R(r, s − 1) ¶ ¶ µ ¶ µ µ r+s−2 r+s−3 r+s−3 = + ≤ r−1 r−1 r−2 aus der Rekursionsformel für Binomialzahlen. ¤ ¡2r−2¢ ¡2r−3¢ ¡2r−3¢ Insbesondere ist also R(r, r) ≤ r−1 = r−1 + r−2 ≤ 22r−3 für alle Mi., 2.7. r ≥ 2. Eine (interessantere) untere Schranke wird mit der Probabilisitischen Methode bewiesen. 3.13 Satz r R(r, r) ≥ 2 2 ¥ Beweis: Wir haben bereits R(2, 2) = 2 und (s. oben) R(3, 3) ≤ 6. Der ungerichtete Kreis C5 hat nicht die Eigenschaft (3, 3), sodass R(3, 3) = 6. r Für r ≥ 4 sei n < 2 2 . Wir zeigen, dass es in G(n) einen Graphen geben muss, der nicht die Eigenschaft (r, r) hat. Im Modell G(n, 12 ) hat jeder Graph G ∈ G(n) Wahrscheinlichkeit P (G) = 1 . n 2( 2 ) Insbesondere induziert eine beliebige Teilmenge A ⊆ Vn mit |A| = r eine r r Clique mit Wahrscheinlichkeit 2−(2) . Wegen n < 2 2 ist daher die Wahrscheinlichkeit, irgend eine Clique der Größe r zu finden, µ ¶ X r n! n −(r2) −(r2) = 2 = 2 · 2 − ( 2) r r!(n − r)! A⊆Vn : |A|=r r n(n − 1) · · · (n − r + 1) −(r2) nr ≤ r−1 · 2−(2) ·2 r(r − 1) · · · 1 2 2 r r r < 2 2 −(r−1)−(2) = 2− 2 +1 1 ≤ . 2 Aus Symmetriegründen ist auch die Wahrscheinlichkeit, dass der Zufallsgraph eine unabhängige Menge der Größe r enthält, kleiner als 12 . Da beide Wahrscheinlichkeiten zusammen echt kleiner als 1 sind, muss es also einen Graphen mit n Knoten geben, der weder eine Clique noch eine unabhängige Menge der Größe r enthält. ¤ = Methoden der Netzwerkanalyse (SS 2003) 104 Zurück zur Netzwerkanalyse: Eine der am leichtesten zu bestimmenden Kenngrößen empirischer Netzwerke ist die Verteilung der Knotengrade. In Zufallsgraphen ist hdG (v)i = p · (n − 1), doch wie sieht die Verteilung aus? 3.14 Lemma Für Zufallsgraphen gilt P (dG (v) = k) = µ ¶ n−1 · pk q n−1−k k und unter der Voraussetzung (n − 1) · p(n) −→ λ > 0 n→∞ lim P (dG (v) = k) = e−λ · n→∞ λk . k! für alle 0 ≤ k ≤ n − 1. ¡ ¢ möglichen Nach¥ Beweis: Aus der Beobachtung, dass jede der n−1 k barmengen Wahrscheinlichkeit pk q n−1−k hat, ergibt sich der erste Teil der Behauptung. Für den zweiten Teil betrachte ¶ µ (n − 1)! n−1 · pk q n−1−k = · pk (1 − p)n−1−k k k!(n − 1 − k)! pk (n − 1)! · · (1 − p)n−1 = (n − 1 − k)!(1 − p)k k! (n − 1)! · = (n − 1 − k)!(1 − p)k (n − 1)k µ ¶n−1 λ (n − 1)p (n − 1)k pk · 1− · k! (n − 1) λ Für n → ∞ geht der erste Faktor nach Voraussetzung gegen 1, der zweite k ¤ gegen λk! und der dritte gegen e−λ . Methoden der Netzwerkanalyse (SS 2003) 105 In großen Zufallsgraphen sind die Knotengrade bei festem Erwartungswert (und daher insbesondere sehr kleinem p) also in etwa Poisson-verteilt. In vielen interessanten empirischen Netzwerken ist aber beobachtet worden, dass die Knotengrade einem Potenzgesetz folgen, d.h. P (dG (v) = k) verhält sich wie 1 kγ für ein γ > 0 und zufällig gewähltes v ∈ V . Anschaulich bedeutet das, dass die Anzahl der Knoten höheren Grades rapide kleiner wird. Für diese Netzwerke scheint also ein anderes Modell nötig zu sein, in dem einige Knoten als Nachbarn bevorzugt werden. Idee für ein Modell mit Bevorzugung (Barabási und Albert 1999): “. . . ausgehend von einer kleinen Anzahl (m0 ) von Knoten, fügen wir in jedem Schritt einen neuen Knoten mit m(≤ m0 ) Kanten ein, die den neuen Knoten mit m der bereits im System vorhandenen Knoten verbinden. Um in das Modell Bevorzugung zu integrieren, nehmen wir an, dass die Wahrscheinlichkeit Π, mit der der neue Knoten mit einem Knoten i verbunden wird, vom Grad ki dieses Knotens abhängt, sodass Π(ki ) = Pkikj . Nach t Schritten j führt das Modell zu einem zufälligen Netzwerk mit t+m0 Knoten und mt Kanten.” Probleme mit dieser Definition: • Da der Graph nach t Schritten mt Kanten hat, müssen die m0 initialen Knoten isoliert gewesen sein. Dann ist aber Π nicht wohldefiniert. • Bei gleichzeitiger Wahl der m Nachbarn eines neuen Knotens reicht für die Auswahl einer Nachbarschaft die Angabe der Randverteilungen für die einzelnen Knoten nicht aus. Beispiel: Betrachte den Fall m = 2 und füge zu C4 (dem einfachen Kreis mit 4 Knoten) einen weiteren Knoten v hinzu. Wir legen die Wahrscheinlichkeiten für die sechs mögliche Nachbarschaften von v willkürlich fest. Die Wahrscheinlichkeit eines Paares, in dem die beiden Nachbarn von v selbst benachbart sind, sei p für ein beliebiges 0 ≤ p ≤ 41 . Entsprechend ist die Wahrscheinlichkeit der beiden nicht benachbarten Paare 1−4p . Für jeden Knoten des C4 ist die Auswahl2 1 wahrscheinlichkeit dann 4 wie gewünscht, unabhängig von p. Methoden der Netzwerkanalyse (SS 2003) 106 Wegen dieser Schwierigkeiten verwenden wir das folgende präzisere Modell. Da es über gerichteten Multigraphen definiert ist, sei im folgenden G(n) die Klasse der gerichteten Multigraphen mit Knotenmenge Vn = {1, . . . , n}. 3.15 Def inition (Bevorzugung; Bollobás und Riordan 2001) Für n ∈ 0 ist das Multigraphenmodell mit Bevorzugung, G1n = (G(n), P ), wie folgt induktiv definiert. Für G = (V, E) ∈ G(n + 1) sei G0 = G[Vn ] der von den Knoten {1, . . . , n} induzierte Teilgraph von G. Dann ist 0 falls d+ 0 G (n + 1) 6= 1 oder m(G) − m(G ) 6= 1 G0 (v) P (G) = P (G0 ) · d2n+1 falls (n + 1, v) ∈ E, v ≤ n 1 0 P (G ) · 2n+1 falls (n + 1, v) ∈ E, v = n + 1 . Zu b ∈ erhalten wir das Modell Gbn aus G1nb durch Kontraktion von jeweils b aufeinanderfolgenden Knoten, d.h. ein Knoten 1 ≤ i ≤ n eines Graphen im Modell Gbn entspricht den Knoten ib, . . . , ib + b − 1 eines Graphen im Modell G1nb . 3.16 Bemerkung Wir können einen Multigraphen im Modell G1n also als Ergebnis eines Prozesses ansehen, in dem zu jedem Zeitpunkt ein Knoten hinzukommt. Dieser erhält genau eine ausgehende Kante, deren Zielknoten mit Wahrscheinlichkeit proportional zu seinem Knotengrad (der Summe aus Ein- und Ausgangsgrad) gewählt wird, wobei für den neuen Knoten nur der Ausgangsgrad (das bereits feststehende Ende der Kante) gezählt wird. Bereits hochgradige Knoten werden also weiter bevorzugt. Für den Erzeugungsalgorithmus gehen wir diesmal von Zufallszahlengeneratoren R{0, . . . , r} aus, die gleichverteilt und unabhängig ganze Zahlen aus {0, . . . , r} erzeugen. Die Idee des Algorithmus besteht darin, die gewünschte Auswahlwahrscheinlichkeit eines Knotens durch eine entsprechende Anzahl von Kopien zu bewirken. Methoden der Netzwerkanalyse (SS 2003) 107 Algorithmus 20: Erzeugen von Multigraphen mit Bevorzugung Eingabe : Knotenzahl n ∈ 0 , Ausgangsgrad b ∈ 0 Daten : Array N [0 . . . 2nb − 1] von Knoten (entspricht Liste der Kanten) Ausgabe: Multigraph G = ({1, . . . , n}, E) E ← ∅; m ← 0; foreach v = 1, . . . , n do foreach j = 1, . . . , b do N [2m] ← v; w ← N [R{0, . . . , 2m}]; N [2m + 1] ← w; E ← E ∪ {{v, w}}; inkrementiere m; 3.17 Satz Der Algorithmus erzeugt einen Multigraphen mit Bevorzugung G = (V, E) in O(n + m) Zeit und Platz und benötigt dafür genau m Zufallszahlen. 3.18 Satz (Bollobás, Riordan, Spencer und Tusnády 2001) Für a, b ∈ sei δ(a, b) = 2b(b + 1) (a + b)(a + b + 1)(a + b + 2) dann gilt für Multigraphen mit Bevorzugung Gbn µ ¶ |{v ∈ Vn : d− G (v) = a}| P (1 − ε) · δ(a, b) ≤ ≤ (1 + ε) · δ(a, b) −→ 1 n→∞ n 1 für alle ε > 0 und 0 ≤ a ≤ n 15 . Insbesondere verhält sich die Eingangsgradverteilung also ungefähr wie a13 . Da der Ausgangsgrad b konstant ist, folgt der Knotengrad im zum symmetrisierten Multigraphen gehörigen ungerichteten Multigraphen ebenfalls einem Potenzgesetz. Dies war für die oben zitierte Modellidee aus Experimenten gefolgert worden. 3.19 Bemerkung Mit einer ähnlichen Idee lassen sich Multigraphen mit fest vorgegebenen Gradfolgen erzeugen (zufälliges Matching). Methoden der Netzwerkanalyse (SS 2003) 108 Zum Abschluss betrachten wir noch ein Modell für ungerichtete Multigraphen, Di., 8.7. das durch die folgenden Standardvermutungen über Personenbekanntschaften motiviert ist: • Jede Person hat eine beschränkte Anzahl von Bekannten (kleiner durchschnittlicher Knotengrad ohne Ausreißer) • Viele Bekannte kennen sich untereinander (lokal dichte Teilgraphen) • Man ist mit den meisten anderen Personen über eine kurze Kette von Bekannten verbunden (kleiner durschnittlicher Abstand, Die Welt ist ein Dorf !“) ” Im folgenden sei G(n) die Menge der ungerichteten Multigraphen mit Knotenmenge Vn = {1, . . . , n}. Während die erste Standardvermutung mit dem mittleren Knotengrad bereits formalisiert ist, sind für die anderen beiden neue Kenngrößen notwendig. 3.20 Def inition (Dichte) Die Dichte (G) eines Multigraphen G = (V, E) ist definiert durch (G) = |{(u, w) ∈ V × V : (u, w) ∈ E, u 6= w}| . n(n − 1) 3.21 Def inition (Cluster-Koeffizient) Sei G = (V, E) ein Multigraph und G[V 0 ] ⊆ G der von einer Teilmenge V 0 ⊆ V induzierte Teilgraph. Die Dichte C(v) = (G[N (v) \ {v}]) der (echten) Nachbarschaft eines Knotens v ∈ V heißt Cluster-Koeffizient C(v) von v. Die Cluster-Koeffizient C(G) von G ist der mittlere ClusterKoeffizient seiner Knoten, C(G) = 1 X · C(v) . n v∈V Methoden der Netzwerkanalyse (SS 2003) 109 3.22 Def inition (Charakteristische Weglänge) Die charakteristische Weglänge eines Multigraphen G = (V, E) ist der mittlere Abstand seiner Knoten, L(G) = X 1 · dG (s, t) . n(n − 1) s6=t∈V Graphen mit zwei der drei Eigenschaften lassen sich leicht konstruieren. 3.23 Def inition (Torus) Seien d, k ∈ und Vkd = Vk × · · · × Vk . Der Graph G = (Vkd , E) mit {z } | d mal {(v1 , . . . , vd ), (w1 , . . . , wd )} ∈ E ⇐⇒ 1 ≤ d X min{vi −wi , wi −vi mod k} ≤ r i=1 heißt (k, d, r)-Torus. Wir identifizieren ihn mit dem durch die Bijektion (v1 , . . . , vd ) ↔ d X vi · k i−1 i=1 bestimmten isomorphen Graphen in G(k d ). 3.24 Beispiel (7, 1, 2)-Torus Nachbarn eines Knotens in (k, 2, 2)-Torus mit k ≥ 5 Methoden der Netzwerkanalyse (SS 2003) 110 Wir analysieren nur eindimensionale Tori. Für höhere Dimensionen ergeben sich analoge Resultate. 3.25 Lemma In einem (n, 1, r)-Torus G = (V, E) mit r ≤ n−1 2 gilt (i) d(G) = 2r (ii) C(G) = (iii) L(G) ≥ 3(r−1) 4(r− 12 ) ¥ n−1 ¦ 4r ¥ Beweis: Zwei Knoten v 6= w ∈ Vn sind genau dann adjazent, wenn w ≡ i mod n für ein i ∈ {v − r, . . . , v − 1, v, . . . , v + r}. Jeder Knoten hat damit genau 2r Nachbarn. Die 2r Nachbarn eines Knotens v bilden 2r(2r−1) Paare. Betrachte den Knoten 2 n mit Nachbarschaft N (n) = {n − r, . . . , n − 1, 1, . . . , r}. Die Knoten in {n − r, . . . , n − 1} und {1, . . . , r} sind jeweils paarweise adjazent, und jeder Knoten i ∈ {1, . . . , r} hat r − 1 − i weitere Nachbarn in {n − r, . . . , n − 1}. Insgesamt ergibt sich daher Pr Pr−1 (r − 1 − i) + 2 · r(r−1) r(r − 1) + i=1 i=1 i 2 = C(n) = 2r(2r−1) r(r − 1) + r 2 2 = r(r − 1) + (r−1)r 2 r(r − 1) + r(r − 1) · = 3(r − 1) 4(r − 12 ) r r−1 = 1 + 12 = r 1 + r−1 3 2 2r−1 r−1 und aus Symmetriegründen C(G) = C(n). Schließlich beobachten ¥ ¦wir leicht, dass der Knoten n jeweils 2r Knoten mit Abstand 1, 2, . . . , n−1 (und höchstens 2r Knoten mit um 1 größerem Ab2r stand). Die Summe der Abstände zu den n − 1 anderen Knoten ist daher mindestens n−1 ¢ ¥ n−1 ¦ ¡¥ n−1 ¦ bX 2r c +1 2r 2r 2r · i = 2r · 2 i=1 Dies gilt analog für alle Knoten, sodass ¹ º2 ¹ º ¹ º r r n−1 n−1 n−1 L(G) ≥ + ≥ . n−1 2r n−1 2r 4r ¤ Methoden der Netzwerkanalyse (SS 2003) 111 Für festes r ¿ n hat ein (n, 1, r)-Torus also konstanten Knotengrad und einen konstant hohen Cluster-Koeffizienten. Allerdings ist die charakteristische Weglänge linear in n. Die Idee des nun folgenden Graphenmodells ist, durch Umleitung einiger Kanten die erwarteten Abstände zu verkürzen, um so auch der dritten Eigenschaft zu entsprechen. Mi., 9.7. 3.26 Def inition (Kleine Welt; Strogatz und Watts 1998) und 0 ≤ p ≤ 1 heißt das Graphenmodell S(k, d, r, p) = Zu k, d, r ∈ d (G(k ), P ) kleine Welt der Dimension d, falls P die Wahrscheinlichkeit angibt, dass der Graph aus einem (k, d, r)-Torus entstanden ist, indem jede Kante unabhängig mit Wahrscheinlichkeit p genau einen neuen Endknoten erhalten hat. Wir beschränken uns weiterhin auf Dimension 1. Der Erzeugungsalgorithmus durchläuft die Kanten eines (n, 1, r)-Torus, fügt sie aber nur mit Wahrscheinlichkeit 1 − p in den Graphen ein. Mit Wahrscheinlichkeit p wird eine neue Kante von einem der beiden Endknoten zu einem zufalligen anderen eingefügt. Dabei können Mehrfachkanten entstehen. Algorithmus 21: Erzeugen kleiner Welten der Dimension 1 Eingabe : Knotenzahl n ∈ Nachbarschaftsparameter r ∈ , r ≤ n−1 2 Änderungswahrscheinlichkeit 0 < p < 1 Ausgabe: Graph G = ({0, . . . , n − 1}, E) E ← ∅; foreach v = 0, . . . , n − 1 do foreach w = v + 1, . . . , v + r do w ← w mod n; R ← R[0, 1]; if p2 ≤ R ≤ 1 − p2 then E ← E ∪ {{v, w}}; else if R < p2 then E ← E ∪ {{v, v + d 2R(n−1) e mod n}}; p else e mod n}}; E ← E ∪ {{w, w + d 2(1−R)(n−1) p Methoden der Netzwerkanalyse (SS 2003) 112 3.27 Satz Der Algorithmus erzeugt eine kleine Welt G = (V, E) in O(n + m) Zeit und Platz und benötigt dafür genau m Zufallszahlen. Die folgende Grafik aus dem Artikel von Strogatz und Watts (1998) zeigt den Cluster-Koeffizienten und die charakteristische Weglänge in Abhängigkeit von der Änderungswahrscheinlichkeit (n = 1000 und r = 5). 1 Insbesondere ist für p ≈ 50 der Cluster-Koeffizient noch sehr hoch, die charakteristische Weglänge aber stark gefallen. Diese Ergebnisse sind experimentell. Lassen sie sich analytisch bestätigen? Wie ist der asymptotische Verhalten? Gibt es für ein p = p(n) einen optimalen Kompromiss?