Diskrete Mathematik Zusammenfassung der letzten LVA Inhalte der

Werbung
Zusammenfassung
Zusammenfassung der letzten LVA
Definition
• Eine Menge M heißt endlich, wenn es eine natürliche Zahl m und
eine bijektive Abbildung α : {0, 1, . . . , m − 1} → M gibt
Diskrete Mathematik
• In diesem Fall ist m eindeutig bestimmt und man nennt #(M) := m
die Anzahl der Elemente von M
Christina Kohl
Georg Moser
Oleksandra Panasiuk
Christian Sternagel
Vincent van Oostrom
Definition
Eine Menge M heißt abzählbar unendlich, wenn eine bijektive Abbildung
α : N → M , i 7→ xi existiert. Man schreibt dann M = {x0 , x1 , x2 , . . .}
nennt α eine Aufzählung von M und α−1 eine Nummerierung von M.
Institut für Informatik @ UIBK
Sommersemester 2017
Beispiel
Sei Σ ein endliches Alphabet. Dann ist das Wortmonoid Σ∗ :=
abzählbar. Andererseits sind die reellen Zahlen nicht abzählbar.
GM (IFI)
Übersicht
S
n>0 Σ
n
Diskrete Mathematik
143/1
Diskrete Wahrscheinlichkeitstheorie
Inhalte der Lehrveranstaltung
Beispiel
Beweismethoden
deduktive Beweise, Beweise von Mengeninklusionen, Kontraposition,
Widerspruchsbeweise, vollständige Induktion, wohlfundierte Induktion,
strukturelle Induktion, Gegenbeispiele
Gegeben seien die ersten 15 Primzahlen in aufsteigender Reihenfolge und
wir suchen die durchschnittliche Anzahl der notwendigen Vergleiche, um
eine gegebene Zahl zu finden, wenn wir binäre Suche verwenden.
19
Relationen, Ordnungen und Funktionen
7
Äquivalenzrelationen, partielle Ordnungen, Wörter, asymptotisches Wachstum von Funktionen
3
37
S
13
S
29
43
S
Graphentheorie
gerichtete Graphen, ungerichtete Graphen
2
Zähl- und Zahlentheorie
S
Aufzählen und Nummerien von Objekten, Abzählbarkeit, Wahrscheinlichkeitstheorie, Lösen von Rekursionsformeln, Rechnen mit ganzen Zahlen,
euklidischer Algorithmus, Primzahlen, Restklassen
GM (IFI)
Diskrete Mathematik
144/1
S
5
11
U S U S
S
17
23
S
S
S
31
41
S
S
S
47
S
# der erfolgreichen Blätter = 15
GM (IFI)
Diskrete Mathematik
145/1
Diskrete Wahrscheinlichkeitstheorie
Diskrete Wahrscheinlichkeitstheorie
Beispiel (cont’d)
Definition
• eine Teilmenge E ⊆ S wird Ereignis genannt
• Angenommen die gesuchten Zahlen sind gleichverteilt: die
Wahrscheinlichkeit dass wir nach Primzahl p suchen ist
1
15
• die Wahrscheinlichkeit eines Ereignisses E ist wie folgt definiert
• Nun zählen jeden Konten als einen Vergleich, summieren die Anzahl
P(E ) :=
der gesamten Vergleiche und dividieren durch 15
X
P(x)
x∈E
8∗4+4∗3+2∗2+1
49
=
≈ 3, 27
15
15
Lemma
Seien A und B Ereignisse, dann gilt:
Also brauchen wir im Durchschnitt 3, 27 Vergleiche
P(A ∪ B) = P(A) + P(B) − P(A ∩ B)
Definition
P(∼A) = 1 − P(A)
wobei ∼A die Komplementärmenge von A
• der Ergebnisraum beschreibt die Menge aller möglichen Ergebnisse
Beispiel
• eine Wahrscheinlichkeitsverteilung auf einem Ergebnisraumes S ist
eine Abbildung
Angenommen wir werfen eine (faire) Münze zweimal, dann beschreibt
S = {KK , KZ , ZK , ZZ } den Ergebnisraum und E = {KZ , ZK } dass
genau einmal Kopf gewürfelt wird; es gilt P(E ) = ( 12 )( 21 ) + ( 12 )( 12 ) = 12
P : S → [0, 1]
sodass
P
x∈S
P(x) = 1
GM (IFI)
Diskrete Mathematik
146/1
Diskrete Wahrscheinlichkeitstheorie
GM (IFI)
Diskrete Mathematik
147/1
Diskrete Wahrscheinlichkeitstheorie
Definition
Beispiel (Satz von Bayes)
Wenn A und B Ereignisse sind und P(B) 6= 0, dann ist die bedingte
Wahrscheinlichkeit von A unter der Vorausetzung B wie folgt definiert:
Angenommen FCW gewinnt 75% aller Spiele bei gutem Wetter und 50%
bei schlechten Wetter; außerdem gelte, dass im Mai 2/3 schöne Tage
gegen 1/3 schlechte stehen. Was ist die Wahrscheinlichkeit für schlechtes
Wetter, wenn wir im Mai lesen der FCW hat gewonnen? Ereignisse W
(win), L (loose), B (bad), G (good).
P(A | B) :=
P(A ∩ B)
P(B)
Wir suchen P(B | W ) =
Lemma
A und B Ereignisse, dann: P(A ∩ B) = P(A) · P(B | A) = P(B) · P(A | B)
P(B | W ) =
2% der Studenten der UIBK studieren Informatik (Ereignis A) und 1%
studiert Mathematik (Ereignis B); außerdem studiert 0.1% beides, also
GM (IFI)
P(A ∩ B)
0.001
=
= 0.1
P(B)
0.01
P(B | A) =
Diskrete Mathematik
P(A ∩ B)
= 0.05
P(A)
148/1
und wissen P(W | G ) = 34 ,
P(W | B) = 12 , P(G ) =
= 13 ; es gilt W = (G ∩ W ) ∪ (B ∩ W ),
also P(W ) = P(G ∩ W ) + P(B ∩ W ) und somit:
Beispiel
P(A | B) =
P(B∩W )
P(W )
2
,
3 P(B)
GM (IFI)
P(B ∩ W )
P(B ∩ W )
=
P(W )
P(G ∩ W ) + P(B ∩ W )
P(W | B) P(B)
=
P(W | G ) P(G ) + P(W | B) P(B)
( 1 )( 1 )
1
= 3 22 31 1 =
4
( 4 )( 3 ) + ( 2 )( 3 )
Diskrete Mathematik
149/1
Diskrete Wahrscheinlichkeitstheorie
Diskrete Wahrscheinlichkeitstheorie
Satz
Beispiel (Bernoulliexperiment)
Sei S ein Ergebnisraum und sei {H1 , . . . Hn } eine Partition von S; E ein
Ereignis mit P(E ) 6= 0; dann gilt für i = 1, . . . , n:
• Wir betrachten n Münzwürfe mit einer Münze und berechnen die
Wahrscheinlichkeit mit der die Münze genau k-mal Kopf zeigt, wobei
die Münzwürfe unabhängig sind
P(Hi ∩ E )
P(Hi | E ) =
P(H1 ∩ E ) + · · · + P(Hn ∩ E )
=
• Zunächst betrachten wir die Wahrscheinlichkeit, dass die ersten k
Würfe Kopf zeigen und die restlichen Würfe Zahl
P(Hi ) P(E | Hi )
P(H1 ) P(E | H1 ) + · · · + P(Hn ) P(E | Hn )
• Bezeichne Ai das Ereignis, dass beim iten Wurf Kopf gewürfelt wird
• Wir nennen P(Hi ) auch a priori Wahrscheinlichkeit von Hi
und nehmen an, dass die Münze mit Wahrscheinlichkeit p Kopf zeigt,
dann gilt
• Und P(Hi | E ) heißt a posteriori Wahrscheinlichkeit von Hi ,
P(A1 ) · · · P(Ak ) · P(∼Ak+1 ) · · · P(∼An ) = p k (1 − p)n−k
gegeben E
• Somit ist die Wahrscheinlickeit genau k-mal Kopf zu würfeln wir
folgt gegegeben:
Definition
n k
p (1 − p)n−k
k
Ereignisse A und B sind unabhängig, wenn P(A ∩ B) = P(A) P(B)
GM (IFI)
Diskrete Mathematik
150/1
Diskrete Wahrscheinlichkeitstheorie
GM (IFI)
Diskrete Mathematik
151/1
Diskrete Wahrscheinlichkeitstheorie
Definition
Definition
Ein Bernoulliexperiment ist ein Experiment mit genau zwei möglichen
Ausgängen (Erfolg bzw. Misserfolg)
Bezeichne V : S → R eine Wertefunktion für den Ergebnisraum
S = {x1 , . . . , xn }; der Erwartungswert von V ist wie folgt definiert:
E(V ) := V (x1 ) P(x1 ) + · · · + V (xn ) P(xn )
Lemma
1
Die Wertefunktion V wird auch als Zufallsvariable bezeichnet
Die Wahrscheinlichkeit des k-maligen Erfolges bei einem n-fach
wiederholten Bernoulliexperiment ist:
n k
b(k; n; p) :=
p (1 − p)n−k
k
Beispiel
Angenommen wir suchen ein Element X in einem Array der Länge n
wobei P(“Erfolg”) = p
2
Die Wahrscheinlichkeitsverteilung b(k; n; p) für festes n und p heißt
Binomialverteilung; beachte
n
n X
X
n k
b(k; n; p) =
p (1 − p)n−k = (p + (1 − p))n = 1
k
k=0
GM (IFI)
k=0
Diskrete Mathematik
152/1
i := n ;
w h i l e i > 0 and X 6= L[i] do
i := i − 1
od
Gesucht: die durchschnittliche Zahl der Vergleiche X 6= L[i]; bezeichne Ii
das Ergebnis L[i] = X (1 6 i 6 n) und In+1 das Ergebnis X 6∈ L
GM (IFI)
Diskrete Mathematik
153/1
Diskrete Wahrscheinlichkeitstheorie
Diskrete Wahrscheinlichkeitstheorie
Beispiel (cont’d)
Definition
• der Ergebnisraum S = {I1 , I2 , . . . , In+1 }
• die Wertefunktion V : S → N bezeichnet die Anzahl der Vergleiche:
(
n − i + 1 falls I = Ii und 1 6 i 6 n
V (I ) :=
n
sonst
• Schließlich bezeichne q die Wahrscheinlichkeit, dass X ∈ L, dann gilt
P(Ii ) =
q
n
Eine Markowkette ist eine endliche Abfolge von Zuständen, sodass jeder
Zustandswechsel nur von dem vorherigen Zustand und einer
vorausgesetzten Wahrscheinlichkeitsverteilung abhängt
Beispiel
Wir betrachen zwei Zustände, bezeichnet mit 0 und 1; die
Wahrscheinlichkeiten der Zustandswechsel werden durch eine
Übergangsmatrix ausgedrückt
0.1 0.9
0.6 0.4
• die Wahrscheinlichkeit etwa eines Überganges von Zustand 0 nach
Zustand 1 ist also 90%
(1 6 i 6 n) und P(In+1 ) = 1 − q
• die Durchschnittskomplexität Avg : N → N kann nun mittels des
Erwartungswertes von V berechnet werden:
q
q
Avg(n) = E(V ) = (n + 1 − 1) + · · · + (n − n + 1) + (1 − q)n
n
n
n+1
q (n + 1)n
=
+ (1 − q)n = q(
) + (1 − q)n
n
2
2
• Ähnlich kann die Durchschnittskomplexität der Suche nach einer der
• Wahrscheinlichkeiten nach n Schritten können durch n-faches
Potenzieren der Übergangsmatrix P berechnet werden
ersten 15 Primzahlen in einer Liste berechnen werden; im
Durchschnitt brauche ich 8 Vergleiche
GM (IFI)
Diskrete Mathematik
154/1
Diskrete Wahrscheinlichkeitstheorie
Diskrete Mathematik
Definition
• Sei P eine Übergangsmatrix. Dann sind die Wahrscheinlichkeiten
Pn
• Für eine Folge f : N → R heißt die Potenzreihe
gegeben
F (x) :=
• Diese Eigenschaft heißt Markoweigenschaft oder auch
∞
X
f (n) · x n
n=0
Gedächtnislosigkeit
die erzeugende Funktion von f
• Die Methode der erzeugenden Funktionen versucht, aus den
Satz (Markowketten)
Rekursionsformeln für f (n) Gleichungen für F (x) herzuleiten und
diese mit algebraischen oder analytischen Mitteln zu lösen
Sei P eine Übergangsmatrix einer Markowkette, sodass für eine Potenz P 0
gilt, dass P 0 keine Nulleinträge besitzt, dan gilt:
1
Es existiert ein eindeutiger Wahrscheinlichkeitsvektor ~v , sodass
~v P = ~v und ~v enthält keine Nulleinträge
2
Bei wachsendem n nähert sich die Potenz P n der Matrix an, die den
Vektor ~v als Eintrag in jeder Zeile hat
3
Bezeichne ~v0 die initial Wahrscheinlichkeitsverteilung der Zustände.
Dann nähert sich der Vektor ~v0 P n dem Vektor ~v an
GM (IFI)
155/1
Lösen von Rekursionsformeln
Definition
nach n Schritten durch
GM (IFI)
Diskrete Mathematik
Beispiel
156/1
Die Fibonacci-Zahlen sind rekursiv definiert durch


falls n = 0
0
f (n) = 1
falls n = 1


f (n − 1) + f (n − 2) falls n > 2.
GM (IFI)
Diskrete Mathematik
157/1
Lösen von Rekursionsformeln
Lösen von Rekursionsformeln
Beispiel (cont’d)
Beispiel (cont’d)
Für die erzeugende Funktion F (x) folgt aus obiger Rekursion die
Gleichung
∞
∞
X
X
F (x) =
f (n)x n = f (0) + f (1)x +
(f (n − 1) + f (n − 2)) x n
Weiters gilt, dass Reihen konvergieren, konkret gilt für die geometrische
Reihe (für q < 1)
X
1
qn =
1−q
n=0
n>0
n=2
2
= x + x · F (x) + x · F (x)
Einsetzen der geometrischen Reihe
Konvergenzannahmen liefert
und durch Partialbruchzerlegung
1
x
F (x) =
=√
2
1−x −x
5
1
1−
√
1+ 5
2
−
·x
1−
√
1− 5
2
GM (IFI)
√
1+ 5
2 )
· (x +
·x
√
1− 5
2 ))
Diskrete Mathematik
158/1
Lösen von Rekursionsformeln
GM (IFI)
=
1
1−x
unter optimistischen
Diskrete Mathematik
159/1
Lösen von Rekursionsformeln
Beispiel
Beispiel (cont’d)
Die Menge der binären Bäume über der Menge M wird als formale
Sprache mit Hilfe der Klammern „ ( “ und „ ) “ induktiv definiert:
Für die erzeugende Funktion F (x) folgt
1
Die leere Zeichenkette ist ein binärer Baum
2
Wenn x ∈ M und L, R binäre Bäume sind, dann ist (LxR) ein
binärer Baum mit Knoten x
F (x) =
f (n)x n = 1 +
∞
n−1
X
X
n=1
!
f (k) · f (n − 1 − k) x n
k=0
= 1 + x · F (x) · F (x)
also F (x)2 −
1
x
· F (x) +
1
x
=0
F (x)2 −
Äquivalenzklassen binärer Bäume mit n Knoten läßt sich wie folgt
berechnen:
(
1
n=0
f (n) = Pn−1
k=0 f (k) · f (n − 1 − k) n > 0
Diskrete Mathematik
∞
X
n=0
Wir nennen binäre Bäume strukturell gleich, wenn sie durch
Umbezeichnen der Elemente von M ineinander übergehen. Also sind
((a)b(c)) und ((c)a(b)) gleich, nicht aber ((a)b(c)) und (a(b(c)));
strukturelle Gleichheit ist eine Äquivalenzrelation. Die Zahl der
GM (IFI)
n
"∞
1 X
F (x) = √
5 n=0
(NB: Die Lösungsformel für ax 2 + bx + c = 0 lautet
√
−b ± b 2 − 4ac
x1,2 =
2a
folglich gilt: 1 − x − x 2 = (−x −
n>0 x
√ !n #
√ !n
∞
X
1+ 5
1
−
5
xn −
xn
2
2
n=0
P∞
n
und da per Definition F (x) = n=0 f (n)x liefert ein
Koeffizientenvergleich:
"
√ !n
√ !n #
1
1+ 5
1− 5
f (n) = √
−
2
2
5
!
1
P
1
1
· F (x) + = 0
x
x
Lösen der quadratischen Gleichung gibt
√
1 ± 1 − 4x
F (x) =
2x
160/1
GM (IFI)
Diskrete Mathematik
161/1
Lösen von Rekursionsformeln
Lösen von Rekursionsformeln
Beispiel (Divide-and-Conquer-Algorithmen)
Beispiel (cont’d)
Beachte, dass die Definition des Bionomialkoeffizienten direkt auf
r ∈ R erweiterbar ist, also gilt mit der Binomialreihe
√
r
n
für
Somit erhält man
F (x) =
1−
• Instanzen der Größe n > m hingegen zerlegt der Algorithmus in a
Teilinstanzen mit Größen bn/bc und dn/be; löst diese rekursiv und
setzt Teillösungen zusammen
∞ 1
∞
X
X
1
2 2n − 2 n
n
2
2
1 − 4x = (1 − 4x) =
(−4x) = 1 −
x
n
n n−1
n=0
• Algorithmus löst Instanzen bis zur Größe m direkt
• Zeit zum Aufteilen der Instanz und zum Zusammenfügen der
n=1
Lösungen betrage f (n)
• Gesamtzeit sei T (n), wobei wir annehmen T (n + 1) > T (n)
√
∞
X
1 − 4x
2n n
1
=
x
2x
n+1 n
• Dann folgt
a · T (bn/bc) + f (n) 6 T (n) 6 a · T (dn/be) + f (n)
n=0
Koeffizientenvergleich liefert
• speziell für n = m · b k wird k-mal geteilt, sodass es für r := logb a
1
2n
f (n) =
n+1 n
GM (IFI)
gilt: es gibt ak = (b r )k = (b k )r = m−r · nr Basisinstanzen
• Lösung der Basisinstanzen kostet Θ(nr ) an Aufwand
Diskrete Mathematik
162/1
Lösen von Rekursionsformeln
GM (IFI)
163/1
Lösen von Rekursionsformeln
Satz (Master-Theorem)
Beispiel (cont’d)
(1) Wenn f ∈ O(ns ) für eine reelle Zahl s mit s < r := logb a , dann ist
• wir definieren
(
a · T − (bn/bc) + f (n)
T (n) :=
T (n)
(
a · T + (dn/be) + f (n)
T + (n) :=
T (n)
−
falls n > m
falls n 6 m
T (n) ∈ Θ(nr ) .
(2) Wenn f ∈ Θ(nr ) , dann ist
falls n > m
falls n 6 m
T (n) ∈ Θ(nr · log n) .
• dann gilt für all n: T − (n) 6 T (n) 6 T + (n), sodass für die Analyse
die Funktionen T ± (n) an Stelle von T (n) verwendet werden können
(3) Wenn eine reelle Zahl c mit c < 1 und eine natürliche Zahl k
existieren, sodass
a · f (dn/be) 6 c · f (n)
• für n = m · b k ist der Aufwand der Lösung der Basisfälle durch
für alle n mit n > k , dann ist f ∈ Ω(ns ) für eine reelle Zahl s mit
s > r und
T (n) ∈ Θ(f ) .
Θ(nlogb a ) gegegeben
• Berücksichtigung des Aufwandes für das Aufteilen und
Zusammensetzen, erlaubt die asymptotische Analyse von T ± (n)
GM (IFI)
Diskrete Mathematik
Diskrete Mathematik
164/1
GM (IFI)
Diskrete Mathematik
165/1
Lösen von Rekursionsformeln
Beispiel (Merge Sort)
Betrachte Merge Sort:
merge : : Ord a => [ a ] −> [ a ] −> [ a ]
merge x s [ ] = x s
merge [ ] y s = y s
merge ( x : x s ) ( y : y s )
| ( x <= y ) = x : ( merge x s ( y : y s ) )
| o t h e r w i s e = y : ( merge ( x : x s ) y s )
mergesort
mergesort
mergesort
mergesort
: : Ord a => [ a ] −> [ a ]
[] = []
[x] = [x]
x s = merge ( m e r g e s o r t ( f s t h a l f x s ) )
( mergesort ( s n d h a l f xs ))
Wegen a = b = 2 und f ∈ Θ(n) gibt das Master-Theorem die
Laufzeitabschätzung T (n) ∈ Θ(n · log n), da gilt r := logb a = 1 und
somit f (n) ∈ Θ(nr ) (zweiter Fall)
GM (IFI)
Diskrete Mathematik
166/1
Herunterladen