Die Entropie Funktion

Werbung
Die Entropie Funktion
Michael Förster
24. Juli 2004
1
Einführung
Die Entropie ist ein Grundkonzept der Informationstheorie. Eine gute Einführung in die Informationstheorie ist in [1] zu finden. Die Informationstheorie
behandelt das Konzept der Übertragung von Information von einer Quelle zu
einem Empfänger.
Die Entropie mißt die Unbestimmtheit beziehungsweise den Informationsgewinn bei der Codierung von Quellen. Außerdem kann mit ihr die Leistungsfähigkeit von gestörten Kanälen ausgedrückt werden.
Hierbei ist es gleichgültig, ob ein Zufallsexperiment durch die Unsicherheit
über den Ausgang vor Ausführung oder den Informationsgewinn nach Bekanntwerden des Ausgangs beurteilt wird. Beide Größen können durch dieselbe Maßzahl gemessen werden.
Definition 1 Sei X eine Zufallsvariable mit Werten im Bereich
B und sei mit pb die Wahrscheinlichkeit gemeint, dass X den Wert
b annimmt, formal also P (X = b) = pb . Die binäre Entropie von
X bezeichnen wir mit H[X] und ist definiert durch:
X
H[X] :=
−pb · log2 (pb )
b∈B
mit der Konvention, dass 0 · log2 0 := 0 gelten soll.
Nützlich für folgende Beweise ist die sogenannte Gibbs Ungleichung.
Lemma 2 (Gibbs Ungleichung) Seien p1 , . . . , pM und q1 , . . . , qM WahrscheinPM
PM
lichkeiten mit i=1 pi = i=1 qi = 1. Dann
−
M
X
pi · log2 (pi ) ≤ −
i=1
M
X
pi · log2 (qi )
i=1
mit Gleichheit genau dann, wenn pi = qi für alle i ∈ 1, . . . , M .
Beweis:
Wir benutzen den natürlichen Logarithmus statt den Logarithmus dualis, weil
gilt log2 (x) = ln(x)
ln(2) und die Behauptung durch eine positive Konstante nicht
verändert wird. Weiter gilt ln(x) ≤ x − 1 und ln(x) = x − 1 ⇔ x = 1
Daraus folgt dann ln( pqii ) ≤ pqii − 1 und Gleichheit genau dann, wenn pi = qi .
PM
Nach Voraussetzung gilt i=1 pi = 1, daher können wir die Summe auf beiden
Seiten multiplizieren.
M
X
i=1
pi · ln(
M
M
M
X
X
X
qi
qi
)≤
pi ( − 1) =
qi −
pi = 1 − 1 = 0
pi
pi
i=1
i=1
i=1
| {z } | {z }
=1
1
=1
Abbildung 1: ln(x) ≤ x − 1 Graphisch dargestellt
Mit Gleichheit genau dann, wenn pi = qi für alle i. Daraus folgt
M
X
i=1
2
pi ·ln(
M
M
M
X
X
X
qi
)=
pi (ln qi − ln pi ) =
pi ln qi −
pi ln pi ≤ 0
pi
i=1
i=1
i=1
Grundlegende Eigenschaften
a.) Wenn |B| = 2t dann gilt
H[X] ≤ t
(1)
1
2t
für alle b ∈ B
Mit Gleichheit genau dann, wenn P (X = b) = pb =
Um dies zu zeigen wenden wir Gibbs Ungleichung an mit qb = 21t für alle
b ∈ B. Dazu:
X
X
pb log2 pb ≤ −
pi log2 2−t = (−1) · (−t) = t
b∈B
b∈B
b.) Entropie hat die Konzentrations-Eigenschaft
Wenn H[X] ≤ t, dann muß es ein b geben so dass gilt:
pb = P (X = b) ≥ 2−t
Dazu: Annahme für alle b ∈ B gilt pb < 2−t :
Dann folgt für die Entropie
X
X
H[X] =
−pb · log2 (pb ) >
−pb · log2 (2−t )
b∈B
=(
X
b∈B
−pb ) · (−t) = (
b∈B
X
pb ) · t = t
b∈B
| {z }
=1
2
(2)
Dies ist ein Widerspruch zu (1).
c.) Die Entropie ist subadditiv
Pn
Wenn X = (X1 , X2 , . . . , Xn ), dann H[X] ≤ i=1 H[Xi ] (Beweis kommt in
Kapitel 3).
Definition 3 Wenn E ein Ereignis ist, können wir die bedingte Entropie
von X unter der Bedingung, dass E eingetreten ist definieren durch
X
H[X|E] :=
−P (X = b|E) · log2 (P (X = b|E))
b∈B
Auf die gleiche Weise könen wir bedingte Entropie von X mit gegebenen Y
definieren, wobei Y eine Zufallsvariable ist, welche Werte aus einem Bereich
A annimmt.
X
H[X|Y ] :=
H[X|Y = a] · P (Y = a)
a∈A
=
XX
−P (X = b|Y = a) · log2 P (X = b|Y = a) · P (Y = a)
a∈A b∈B
=
XX
−P (X = b ∩ Y = a) · log2 P (X = b|Y = a)
a∈A b∈B
Wenn bestimmte Werte von Y gegeben sind, stellen wir uns H[X|Y ] als
Unbestimmtheit von X vor, verteilt über den Wertebereich, den Y annehmen
kann.
d.) H[X|X] = 0, weil
XX
H[X|X] = −
−P (X = a|X = a) · log2 P (X = a|X = a) · P (X = a) = 1
{z
}
|
a∈A a∈A
=1
|
{z
}
=0
e.) H[X|Y ] = 0 ⇔ X = f (Y ) für eine Funktion f.
Anders ausgedrückt ist H[X|Y ] = 0 genau dann, wenn X total abhängig
von Y ist.
f.) H[X|Y ] = H[X], wenn X und Y unabhängig sind. Dazu:
XX
=
−P (X = b|Y = a) · log2 P (X = b|Y = a) · P (Y = a)
a∈A b∈B
=
X
P (Y = a) · (−
a∈A
|
X
P (X = b) · log2 P (X = b)) = H[X]
b∈B
{z
=1
} |
{z
=H[X]
3
}
Definition 4
H[X, Y ] := −
XX
P (X = b, Y = a) · log2 P (X = b, Y = a)
a∈A b∈B
g.) Wenn wir mit mehr als nur einer ZV bedingen also eine Schnittmenge über
die Ereignismengen nehmen wird klar, dass gilt:
H[X|Y, Z] ≤ H[X|Y ]
(3)
Die Haupteigenschaft der bedingten Entropie ist die folgende:
H[X, Y ] = H[Y ] + H[X|Y ]
(4)
Beweis: Der Trick ist hier eine Null-Addition
H(X, Y ) = −
0 = − log2 (P (Y = a)) + log2 (P (Y = a))
X
P (X = b, Y = a) · { log2 P (X = b, Y = a) − log2 P (Y = a) + log2 P (Y = a)}
{z
}
|
a∈A,b∈B
=−
XX
=log2 P (X=b|Y =a)
P (X = b, Y = a) · log2 P (X = b|Y = a)−
a∈A b∈B
XX
|
=−
P (X = b, Y = a) · log2 P (Y = a)
a∈A b∈B
{z
=P (Y =a)
XX
}
X
P (X = b, Y = a) · log2 P (X = b|Y = a) −
P (Y = a) · log2 P (Y = a)
|
{z
}
a∈A b∈B
a∈A
=P (Y =a)·P (X=b|Y =a)
|
{z
}
=H[Y ]
=−
X
P (Y = a) ·
a∈A
X
P (X = b|Y = a) · log2 P (X = b|Y = a) + H[Y ]
b∈B
|
=−
{z
=H[X|Y =a] nach Def. 1
X
P (Y = a) · H[X|Y = a] +H[Y ]
a∈A
|
{z
=H[X|Y ] nach Def. 3
= H[X|Y ] + H[Y ]
4
}
}
3
Subadditivität (Subadditivity)
Satz 5 Wenn X und Y zwei Zufallsvariablen sind, die nur endlich viele Werte
annehmen, dann
H[X, Y ] ≤ H[X] + H[Y ]
mit Gleichheit nur wenn X und Y stochastisch unabhängig sind.
Beweis:
Nehmen wir an X und Y nehmen ihre Werte in A bzw. B an. Sei pa,b die
Wahrscheinlichkeit P ((X, Y ) = (a, b)) = pa,b und sei pa die Wahrscheinlichkeit,
dass
also P (X = a) = pa und pb = P (Y = b). Da
P X den Wert a annimmt
P
p
=
p
und
p
a
b∈B a,b
a∈A a,b = pb gilt, folgt
X
X
H[X] + H[Y ] =
−pa log pa +
−pb log pb
a∈A
=
XX
b∈B
−pa,b log pa +
a∈A b∈B
=
XX
−pa,b log pb
b∈B a∈A
−pa,b log pa +
a∈A b∈B
XX
−pa,b log pb
b∈B a∈A
X
=
XX
−pa,b (log pa + log pb )
(a,b)∈A⊗B
X
=
−pa,b · log(pa · pb )
(a,b)∈AxB
P
P
P
P
Weil a,b pa · pb = ( a pa ) · ( b pb ) = 1 · 1 = 1 und a,b pa,b ≤ 1 können
wir Gibbs Ungleichung anwenden und bekommen
H[X] + H[Y ]
=
La(2)
X
−pa,b log(pa · pb ) ≥
(a,b)∈AxB
X
−pa,b log(pa,b )
(a,b)∈AxB
= H[X, Y ]
äquivalente Definition für stochastische Unabhängigkeit von X,Y ist.
Satz 6 Sei X = (X1 , . . . , Xn ) ein Zufallsvektor, der Werte in der Menge B =
B1 ⊗ B2 ⊗ . . . ⊗ Bn annimmt, wobei Xi Werte in Bi annimmmt. Dann
H[X] ≤
n
X
H[Xi ]
i=1
mit Gleichheit genau dann wenn X1 , . . . , Xn paarweise stochastisch unabhängig
sind.
Beweis:
n = 2: Lemma 2
n − 1 → n:
5
n
X
IV
H[Xi ] ≥ H[X1 , . . . , Xn−1 ] + H[Xn ]
i=1
X
=
−pb1 ,...,bn−1 · log(pb1 ,...,bn −1 ) +
X
X
X
−pb1 ,...,bn · log(pb1 ,...,bn −1 ) +
(b1 ,...,bn )∈B
=
−pbn · log(pbn )
bn ∈Bn
(b1 ,...,bn−1 )∈B1 ,...,Bn−1
=
X
−pb1 ,...,bn · log(pbn )
(b1 ,...,bn )∈B
−pb1 ,...,bn · log(pb1 ,...,bn −1 · pbn )
(b1 ,...,bn )∈B
La(2)
≥
X
−pb1 ,...,bn · log(pb1 ,...,bn )
(b1 ,...,bn )∈B
=
H[X1 , X2 , . . . , Xn ]
Eine interessante Erweiterung wurde von Chung, Frankl, Graham und Shearer 1986 bewiesen. Wie zuvor sei X = (X1 , X2 , . . . , Xn ) ein Zufallsvektor der
Werte aus B = B1 ⊗B2 ⊗. . .⊗Bn annimmt und jede Zufallsvariable Xi Werte in
Bi annimmt. Nehmen wir weiter an, dass Bi = {0, 1} für alle i ∈ {1, . . . , n}. Für
eine Teilmenge von Koordinaten S bezeichne XS eine Zufallsvariable (Xi )i∈S .
Satz 7 (Allgemeine Subadditivität) Sei X = (X1 , X2 , . . . , Xn ) und B wie oben
und seien S1 , . . . , Sm mit m ≤ n Teilmengen von [n] = {1, . . . , n} so dass jedes
i ∈ [n] mindestens zu k ≥ 1 Mengen von S1 , . . . , Sm gehört. Dann
H[X] ≤
m
1 X
·
H[XSi ]
k i=1
Was heißt das?
Beispiel (mit n=5 und m=3):
X = (X1 , . . . , X5 ) und B = B1 ⊗ B2 ⊗ B3 ⊗ B4 ⊗ B5 und Bi = {0, 1}.
S1 , S2 , S3 sind Teilmengen von [5]={1,2,3,4,5} so dass i ∈ [5] zu mindestens k
Teilmengen von S1 , S2 , S3 gehört.
Seien die Teilmengen: S1 = {3, 4}, S2 = {1, 2, 3}, S3 = {2, 3, 5}, Dann gilt

1 ∈ S2



2 ∈ S2 , S 3 

3 ∈ S1 , S 2 , S 3
k=1


4 ∈ S1



5 ∈ S3
Mit Satz 7 gilt dann: H[X1 , . . . , X5 ] ≤ H[XS1 ]+H[XS2 ]+H[XS3 ] = H[X3 , X4 ]+
H[X1 , X2 , X3 ] + H[X2 , X3 , X5 ].
6
gilt
Seien die Teilmengen: S1 = {1, 2, 3}, S2 = {2, 3, 4, 5}, S3 = {1, 3, 4, 5}, Dann

1 ∈ S1 , S 3 


2 ∈ S1 , S 2 

3 ∈ S1 , S 2 , S 3
k=2

4 ∈ S2 , S 3 



5 ∈ S2 , S 3
In der Notation von oben heißt XS1 = (X3 , X4 ), wenn für die Teilmenge S1
gilt: S1 = {3, 4}
Beweis:
Für k=1 folgt die Behauptung aus Satz 6. Sei nun k > 1 und v bezeichne die
minimale Anzahl von Si ’s deren Vereinigung [n] ergibt.
Wir werden die Behauptung durch Induktion über k und v zeigen. Wenn
v = 1 dann existiert ein Si mit Si = [n]. O.B.d.A. sei S1 = [n]. Da k > 1 liegen
jetzt alle Elemente aus [n] in mindestens k − 1 Mengen von S2 , . . . , Sm . Nach
Induktion über k können wir folgern:
(k − 1) · H[X1 , . . . , Xn ] ≤
⇔
⇔
S1 =[n]
⇔
k · H[X1 , . . . , Xn ]
≤
k · H[X1 , . . . , Xn ]
≤
k · H[X1 , . . . , Xn ]
≤
m
X
i=2
m
X
i=2
m
X
i=2
m
X
H[XSi ]
H[XSi ] + H[X1 , . . . , Xn ]
H[XSi ] + H[XS1 ]
H[XSi ]
i=1
Sei nun v > 1, wir benötigen also v Mengen von S1 , . . . , Sm vereinigt, um [n]
zu erhalten. Seien dies O.B.d.A. S1 , . . . , Sv also S1 ∪ S2 ∪ . . . ∪ Sv = [n]. Seien
S10 := S1 ∪ S2 und S20 := S1 ∩ S2 . Jedes Element von [n] ist in mindestens k
Mengen von S10 , S20 , S3 , . . . , Sm , weil
p ∈ S1 ∧ p ∈ S2
p ∈ S1 ∧ p ∈
/ S2
p∈
/ S1 ∧ p ∈ S2
p∈
/ S1 ∧ p ∈
/ S2
⇒
⇒
⇒
⇒
p ∈ S10 ∧ p ∈ S20
p ∈ S10 ∧ p ∈
/ S20
p ∈ S10 ∧ p ∈
/ S20
p∈
/ S10 ∧ p ∈
/ S20
Außerdem genügen schon v − 1 von diesen Mengen, um [n] zu erhalten, weil
[n] = S10 ∪ S3 ∪ . . . Sv . Nach Induktion über v gilt:
k · H[X1 , X2 , . . . , Xn ] ≤
m
X
H[XSi ] + H[XS10 ] + H[XS20 ]
i=3
7
Setze X = XS1 −S2 , Y = XS1 ∩S2 , Z = XS2 −S1 und nach ?? gilt:
H[XS1 ∪S2 ] ≤ H[XS1 ] + H[XS2 ] − H[XS1 ∩S2 ]
⇔ H[XS1 ∪S2 ] + H[XS1 ∩S2 ] ≤ H[XS1 ] + H[XS2 ]
(5)
m
X
k · H[X1 , . . . , Xn ] ≤
H[XSi ] + H[XS1 ∪S2 ] + H[XS1 ∩S2 ]
i=3
≤
m
X
H[XSi ]
(6)
i=1
4
Kombinatorische Anwendungen
Mit Satz (6) wurde von Kleitman, Shearer und Sturtevant (1981) benutzt um
verschiedene, interessante Anwendungen in der Extremalen-Kombinatorik zu
entwickeln. Die Grundidee kann durch folgendes einfaches Korollar von 6 verdeutlicht werden.
Korollar 8 Sei F eine Familie von Teilmengen von {1, 2, . . . , n} und sei mit
pi die Menge der Bruchteile von Mengen in F bezeichnet, die i enthalten. Dann
|F| ≤ 2
Pn
i=1
H(pi )
wobei H(y) := −y · log2 (y) − (1 − y) · log2 (1 − y)
Beweis:
Bringen wir jede Menge F ∈ F in Zusammenhang mit ihrem Vorkommen-Vektor
υF , der ein Vektor der Länge n ist.
Beispiel: F = {S1 , S2 , S3 } Familie von Teilmengen von {1, . . . , 5}
S1 = {1} ⇒ υS1 = (1, 0, 0, 0, 0)
S2 = {4, 5} ⇒ υS2 = (0, 0, 0, 1, 1)
S3 = {2} ⇒ υS3 = (0, 1, 0, 0, 0)
Sei X = (X1 , . . . , Xn ) eine Zufallsvariable, die Werte in {0, 1}n annimmt,
wobei P ((X1 , X2 , . . . , Xn ) = υF ) = |F1 | für alle F ∈ F. Klar ist:
H[X]
= −
X
P (X = υF ) · log2 P (X = υF )
F ∈F
1
1
· log2
)
|F|
|F|
1
= |F| · (
· log2 |F|)
|F|
= log2 |F|
= |F| · (−
8
Es gilt hier pi = P (Xi = 1) und 1−pi = P (Xi = 0) und weil hier H[Xi ] = H(pi )
für alle 1 ≤ i ≤ n gilt:
H[X]
H[X1 , . . . , Xn ] = log2 |F|
n
n
X
X
Satz6
Xi =
H(pi )
=
≤
⇒ |F|
=
i=1
log2 |F |
2
i
Pn
≤2
i=1
H(pi )
Dieses Korollar liefert einen schnellen Beweis für die wohlbekannte Abschätzung:
Korollar 9 Für jede Ganzzahl n und für jede reelle Zahl 0 < p ≤
X n ≤ 2n·H(p)
i
1
2
gilt:
i≤np
Beweis: (nach P. Frankl)
Sei F die FamiliePaller Teilmengen
von {1, 2, . . . , n} mit der Ordnung höchstens
p · n also |F| = i≤np ni . Sei weiter pi der Bruchteil der Teilmengen von F,
die i enthalten dann gilt p1 = p2 = · · · = pn .
Beispiel mit n=5 und p= 21 :
n · p = 52 ⇒ Teilmengen haben höchstens die Göße 2.
F = {∅, {1}, {2}, {3}, {4}, {5}, {1, 2}, {1, 3}, {1, 4}, {1, 5}, {2, 3}, {2, 4}, {2, 5}, {3, 4}, {3, 5}, {4, 5}}
5
5
5
|F| =
+
+
= 1 + 5 + 10 = 16
0
1
2
9
n
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
P
1
0
1
0
0
0
0
1
1
1
1
0
0
0
0
0
0
5
2
0
0
1
0
0
0
1
0
0
0
1
1
1
0
0
0
5
3
0
0
0
1
0
0
0
1
0
0
1
0
0
1
1
0
5
4
0
0
0
0
1
0
0
0
1
0
0
1
0
1
0
1
5
5
0
0
0
0
0
1
0
0
0
1
0
0
1
0
1
1
5
|F| · p1
|F| · p2
|F| · p3
|F| · p4
|F| · p5
∅
{1}
{2}
{3}
{4}
{5}
{1, 2}
{1, 3}
{1, 4}
{1, 5}
{2, 3}
{2, 4}
{2, 5}
{3, 4}
{3, 5}
{4, 5}
≤ np
≤ np
≤ np
≤ np
≤ np
≤ np
≤ np
≤ np
≤ np
≤ np
≤ np
≤ np
≤ np
≤ np
≤ np
≤ np
Pn
i=1
|F| · pi ≤ |F| · np
Pn
Durch doppeltes Abzählen erhalten wir i=1 pi ≤ pn und daraus pi ≤ p für
alle i. Weil die Funktion H(p) streng monoton steigend ist für 0 < p ≤ 12 gilt:
H(pi ) ≤ H(p) für alle i ∈ {1, . . . , n}
Mit Korollar 8 erhalten wir:
X n Pn
= |F| ≤ 2 i=1 H(pi ) ≤ 2n·H(p)
i
i≤np
Die folgende einfache Konsequenz aus Satz 7 sagt uns, dass eine Familie nicht
viele Mitglieder haben kann, wenn ihre Projektionen“ klein sind.
” ∩ S |E ∈ F}
Projektion: Fi : F → Si mit Fi := {E
i
Für 1 gilt dann: F1 : F → S1
F1 := {E ∩ S1 |E ∈ F}
Schnitt von Teilmengen von {1,2,3} mit S1 = {1, 2}:

∅ ∩ S1 = ∅



{1} ∩ S1 = {1} 



{2} ∩ S1 = {2}
F1 = {∅, {1}, {2}, {1, 2}}
{1, 2} ∩ S1 = S1 


{1, 3} ∩ S1 = {1} 



{1, 2, 3} ∩ S1 = S1
10
Satz 10 Sei Ω eine endliche Menge und sei S = {S1 , . . . , Sm } Teilmengen von
Ω, so dass jedes Element von Ω in mindestens k>0 Mitgliedern von S enthalten
ist. Sei F eine Familie von Teilmengen von Ω. Für jedes 1 ≤ i ≤ m definieren
wir die Projektion von F auf die Menge Si durch Fi := {E ∩ Si |E ∈ F}. Dann
|F| ≤ (
m
Y
1
|Fi |) k
(7)
i=1
Beweis:
Nehmen wir an, dass Ω = {1, . . . , n} und definieren Bi = {0, 1} für 1 ≤ i ≤ n.
Sei X = (X1 , . . . , Xn ) die Zufallsvariable, die Werte in B = B1 ⊗ B2 ⊗ · · · ⊗ Bn
annimmt. Für jedes E ∈ F sei die Zufallsvariable X mit Wahrscheinlichkeit |F1 |
gleich dem Vorkommen-Vektor von
PmE.
Nach Satz 7 gilt k · H[X] ≤ i=1 H[XSi ]. Im Beweis zu Korollar 8 haben
wir gesehen, dass H[X] = log2 |F|. wohingegen H[XSi ] ≤ log2 |Fi |, wodurch das
gewünschte Ergebnis impliziert.
H[X]
= log2 |F|
m
1X
H[XSi ]
≤
k i=1
≤
m
1X
log2 |Fi |
k i=1
=
m
Y
1
log2 ( |Fi |)
k
i=1
=
log2 (
m
Y
1
|Fi |) k
i=1
Da der Logarithmus streng monoton steigt folgt, dass
k1
Qm
|F| ≤
i=1 |Fi |
Die Allgemeine Subadditivität der Entropie Funktion aus Satz 7 kann dazu
benutzt werden, um einige nicht trivialen Schnittmengen-Sätze “ zu beweisen.
”
Die folgenden 3 Ergebnisse wurden von Chung, Frankl, Graham und Shearer
1986 [3]) gezeigt.
Erinnern wir uns, dass eine Familie F von Teilmengen von irgendeiner Menge
Ω intersecting heißt, wenn folgendes gilt: F ∩ F 0 6= ∅ für alle F, F 0 ∈ F.
Wenn F intersecting ist, dann |F| ≤ 2|Ω|−1 , weil F nicht eine Menge enthalten kann und gleichzeitig ihr Komplement. Darüber hinaus ist diese Abschätzung
optimal. (Man nehme die Familie aller Teilmengen von Ω, die einen Fixpunkt
haben.)
Um die Frage etwas interessanter zu machen, können wir fordern, dass die
Mitglieder von F nicht nur intersect sind, sondern dass diese Schnittmengen
mindestens eine der gegebenen Konfigurationen enthält.
11
Betrachten wir zuerst ein einfaches Beispiel. Sei, wie zuvor [n] = {1, . . . , n}
Satz 11 Nehmen wir an, dass F eine Familie von Teilmengen von [n] ist, so
dass die Schnittmenge von irgendwelchen 2 Mitgliedern dieser Familie ein Paar
von aufeinanderfolgenden Zahlen enthält, d.h. für alle F, F 0 ∈ F existieren einige 1 ≤ i < n so dass F ∩ F 0 ⊇ {i, i + 1}. Dann
|F| ≤ 2n−2
Bemerkung:
Diese obere Schranke ist optimal: Sei F Familie aller Teilmengen, die die Menge
{1,2} enthalten.
Beweis:
Sei S0 und S1 die Menge aller geraden bzw. ungeraden Zahlen in [n].
Betrachte die Projektionen F := {F ∩ S |F ∈ F} von unserer Familie F auf
diese zwei Mengen mit ∈ {0, 1}.
Seien G, G0 ∈ F , dann hat ihre Schnittmenge mit dem Distributivgesetz die
Form G ∩ G0 = (F ∩ S ) ∩ (F 0 ∩ S ) = (F ∩ F 0 ) ∩ S für irgendwelche F, F 0 ∈ F.
Nach Voraussetzung enthält (F ∩ F 0 ) ein Paar aufeinanderfolgender Zahlen und
ist daher nicht leer. Daher ist jede der Mengen F intersecting und so gilt:
|F | ≤ 2|S |−1 für beide ∈ {0, 1}
Die Voraussetzungen von Satz 10 sind erfüllt und so erhalten wir mit k=1
|F| ≤ |F0 | · |F1 | ≤ 2|S0 |−1 · 2|S1 |−1 = 2|S0 |+|S1 |−2 = 2n−2
Satz 10 hat aber noch weitere Konsequenzen. Zum Beispiel nehme man Ω als
Menge von allen n2 Kanten eines vollständigen Graphen Kn . Wir betrachten die
Teilmengen F von Ω und sehen diese als markierte Teilgraphen G = ([n], E) von
Kn an. Markiert heißt hier, dass wir keine isomorphen Graphen identifizieren.
Satz 12 Nehmen wir an, dass F eine Familie von markierten Teilgraphen von
Kn ist, so dass für alle F, F 0 ∈ F der Graph F ∩ F 0 keine isolierten Knoten
besitzt. Dann
n
n
|F| ≤ 2( 2 )− 2
Beweis:
Wähle Si als einen Sterngraph am i-ten Knoten, d.h. Si besteht aus allen n-1
Kanten {i, j}, j 6= i.
Klar ist, dass jede Kante in genau 2 Mengen von S1 , . . . , Sn . Das ist die
Kante, die die 2 gewählten Sterne aus S1 , . . . , Sn verbindet.
Betrachten wir die Projektion Fi := {F ∩ Si |F ∈ F} von F auf diese Sterngraphen i = 1, . . . , n.
12
Wir bemerken, dass wenn G, G0 ∈ Fi , dann hat ihre Schnittmenge die Form
G ∩ G0
=
=
(F ∩ Si ) ∩ (F 0 ∩ Si )
F ∩ (Si ∩ F 0 ) ∩ Si
=
F ∩ (F 0 ∩ Si ) ∩ Si
=
(F ∩ F 0 ) ∩ (Si ∩ Si )
=
(F ∩ F 0 ) ∩ Si
Ass
Komm
Ass
Idempotenz
für irgendwelche F, F 0 ∈ F und daher ist diese nicht leer, weil der Knoten i,
nach Voraussetzung nicht isoliert sein kann im Teilgraph F ∩ F 0 .
Da jedes Fi eine Familie von Teilmengen von Si ist und die paarweisen
Schnittmengen nicht leer sind, sind diese Fi intersecting und daher
|Fi | ≤ 2|Si |−1 = 2n−1−1 = 2n−2 für alle i = 1, . . . , n
(8)
Wenden wir Satz 10 mit k=2 (Jede Kante ist in genau 2 Sterngraphen) an und
beachten folgende Umrechnung,
n
n
n!
n
n · (n − 1) n
n · (n − 1 − 1)
n · (n − 2)
− =
− =
− =
=
2
2
2 · (n − 2)! 2
2
2
2
2
erhalten wir:
|F| ≤ (
(7)
n
Y
i=1
1
|Fi |) 2 ≤ (
(8)
n
Y
n
n
1
2n−2 ) 2 = 2n·(n−2)/2 = 2( 2 )− 2
i=1
Sagen wir, dass eine Familie F von Teilgraphen von Kn triangle-intersecting
heißt, wenn F ∩ F 0 ein Dreieck enthält, für alle F, F 0 ∈ F.
Satz 13 Sei n ≥ 4 eine gerade Zahl und sei F eine Familie von (markierten)
Teilgraphen von Kn .
Wenn F triangle intersecting ist, dann
n
|F| ≤ 2( 2 )−2
Bemerkung:
Es ist nicht bekannt, ob diese Grenze optimal ist.
Beweis:
Wir wählen Si 1 ≤ i ≤ m := 12 · nn so dass diese aus allen möglichen disjunkten
2
Vereinigungen von 2 kompletten (markierten) Teilgraphen auf n2 Knoten jedes
Graphen. Das heißt jedes Si hat die Form KU ∪ KŪ für
irgendeine Teilmenge
von Knoten U ⊆ {1, . . . , n} mit |U | = n2 . Wir haben nn Möglichkeiten, um aus
2
13
n Knoten n2 auszuwählen. Die gewählten Knoten sind in der Menge U und die
nicht gewählten in Ū .
Die Si ’s sind bipartite Graphen. Wir definieren nun wie in den vorherigen
Beweisen eine Projektion auf diese bipartiten Si ’s: Fi := {F ∩ Si |F ∈ F}
Jede der Familien Fi ist intersecting, weil kein Dreieck komplett in einem
bipartiten Graph liegen kann, nach dem Satz von König[6]. Deshalb
|Fi | ≤ 2|Si |−1
Jeder Graph Si hat s := 2 · n/2
Kanten (Disjunkte Vereinigung von 2
2
vollständigen Teilgrapen mit n/2
).
2
Jede Kante von Kn ist in k := n−2
n/2 Si ’s enthalten. Mit Satz 10 folgt
|F| ≤ (
m
Y
1
2|Si |−1 ) k = 2(s−1)m/k
i=1
Substituieren wir die Werte von s, m und k, erhalten wir dass
n
(2 n/2
− 1) · ( 12 n/2
)
(s − 1)m
2
=
n−2
k
n/2
n
n
!
−
(
( n2 )! · ( n2 − 2)!
n!
2
2 − 2)!
=
·
·
( n − 2)!
2 · ( n2 )! · ( n2 )!
(n − 2)!
2 n
n
(
)!
−
(
−
2)!
n
2
=
· 2
2
( n2 )!
n
n
n
2 · ( 2 − 2)!
=
−
( n2 )!
2
n
n
2
=
− n n
2
2 · ( 2 − 1)
n
n
2
=
− n n
2
2 · ( 2 − 1)
n
n!
=
−
2
2! · (n − 2)! · n2 · ( n2 − 1)
n
n−1
=
− n
2
( 2 − 1)
n
n−1
≤
− n 1
2
( 2 − 2)
n
=
−2
2
Literatur
[1] Mathar,Rudolf - Informationstheorie - Teubner, 1996
- ISBN 3-519-02574-4
14
[2] Ash,Robert - Information Theory - John Wiley & Sons, 1965
[3] Noga Alon - Probabilistic Methods in Extremal Finite Set Theory
http://www.math.tau.ac.il/∼nogaa/PDFS/set3.pdf
[4] Jaikumar Radhakrishnan - Entropy and Counting, 2001
http://www.tcs.tifr.res.in/∼jaikumar/Papers/EntropyAndCounting.ps
[5] Chung, Frankl, Graham and Shearer,
Some intersection theorems for ordered sets and graphs,
J. Combinatorial Theory, Ser. A 43 (1986), 23-37
[6] Lutz Volkmann - Diskrete Strukturen - Eine Einführung
ISBN 3-86073-647-7
15
Herunterladen