DS-FAQ Zusammenstellung aller DVP-Fragen Beispiele Erklärungen Tipps Tabellen Version 1.0 5. April 2001 F. Deißenböck A. Freyschmidt http://www.deissenboeck.de/faqs Inhaltsverzeichnis 1 Allgemeines 1.1 Was und warum . . . . . . 1.1.1 Was? . . . . . . . . . 1.1.2 Warum? . . . . . . . 1.2 Ein bißchen Lernpsychologie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3 3 3 3 3 2 Fragen zu Diskrete Strukturen I 2.0 Mathematische Grundprinzipien 2.1 Kombinatorik . . . . . . . . . . . 2.2 Graphentheorie . . . . . . . . . . 2.3 Algorithmen und Rekursionen . . 2.4 Algebraische Strukturen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5 5 7 8 10 13 3 Fragen zu Diskrete Strukturen II 3.1 Endliche Wahrscheinlichkeitsräume . . 3.2 Unendliche Wahrscheinlichkeitsräume 3.3 Stochastik allgemein . . . . . . . . . . 3.4 Stochastische Prozesse . . . . . . . . . 3.5 Induktive Statistik . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19 19 21 22 28 30 4 Tips&Tricks 4.1 Tips zu den verschiedenen Aufgabentypen . . . . . . . 4.2 Rechnen mit Summen . . . . . . . . . . . . . . . . . . 4.2.1 Allgemeines . . . . . . . . . . . . . . . . . . . . 4.2.2 Schreibweisen . . . . . . . . . . . . . . . . . . . 4.2.3 Gesetze . . . . . . . . . . . . . . . . . . . . . . 4.3 Lösen von Rekursionen . . . . . . . . . . . . . . . . . . 4.3.1 Lösen linearer Rekursionsgleichungen 1. und 2. 4.3.2 Erzeugendenfunktionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Grades . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33 33 33 33 33 34 34 34 36 A Tabellen A.1 Algebraische Strukturen . . . . . . . A.2 Endliche Summen . . . . . . . . . . A.3 Unendliche Summen . . . . . . . . . A.4 Erzeugendenfunktionen . . . . . . . A.5 Verteilungen . . . . . . . . . . . . . . A.5.1 Bernoulli-Verteilung . . . . . A.5.2 Binomialverteilung . . . . . . A.5.3 Geometrische Verteilung . . . A.5.4 Poisson-Verteilung . . . . . . A.5.5 Pascal-Verteilung . . . . . . . A.5.6 Hypergeometrische Verteilung A.5.7 Normalverteilung . . . . . . . A.5.8 Gleichverteilung . . . . . . . A.5.9 Exponentialverteilung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41 41 44 44 45 46 46 46 47 48 49 49 50 51 51 Literaturverzeichnis DS-FAQ v1.0 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53 2 Kapitel 1 Allgemeines 1.1 1.1.1 Was und warum Was. . . . . . ist das alles? Diese Zusammenfassung gliedert sich in drei Teile. Die Kapitel 2 und 3 sind eine Zusammenfassung der am häufigsten gestellten Fragen aus den DS-DVP-Protokollen. Diese haben wir selbst beantwortet, was aber meistens bedeutet, daß wir die Antwort aus dem Skript abgeschrieben haben. Bei manchen Fragen sind kleine Erläuterungen oder Beispiele dabei. Kapitel 4 gibt erst mal Tipps zu verschiedene Aufgabentypen. Das sind einfach Dinge die uns beim berechnen der Übungsblätter und Klausuren aufgefallen sind. Dann sind hier nochmal die wichtigsten Rechenregeln für Summen zusammengefasst, wobei man aber auch unbedingt einen Blick in [3] werfen sollte. Auf den letzten Teil des Tipps-Kapitels sind wir besonders stolz, da er einen, wir finden, klaren und verständlichen Weg aufzeigt, wie man Rekursionen zu Leibe rücken kann. Der Anhang enthält Tabellen, die man andauernd braucht. Die verschiedenen algebraischen Strukturen, endliche und unendliche Summen, Erzeugendenfunktionen und die Verteilungen. Ganz am Ende befindet sich noch ein kommentiertes Literaturverzeichnis. 1.1.2 Warum? Diese Zusammenfassung entstand in der Zeit, in der wir versucht haben, den DS1-Schein und die DS-DVP zu bestehen (das dauerte bei uns immerhin ein Jahr). In dieser Zeit haben wir immer wieder von neuen alle Kapitel lernen müssen und waren somit gezwungen uns mit einer Thematik auseinander zu setzen, die zuerst absolut hoffnungslos aus sah. Nach dem wir jetzt aber ein Jahr lang gekämpft haben können wir aber behaupten, daß wir doch das meiste verstanden haben. Auf jeden Fall so, daß wir die Prüfung bestehen können (der Alex hat das sogar schon bewiesen). Na ja, auf jeden Fall haben wir diese Zusammenfassung am Anfang eigentlich nur für uns erstellt, um einen Überblick zu bekommen und uns das alles zu merken. Um uns zwingen sauber zu arbeiten haben wir aber schon von Anfang an für eine fiktives Publikum geschrieben. Dann kam uns natürlich der Gedanke, daß vielleicht auch andere Leute etwas damit anfangen könnten. Deshalb haben wir es dann noch ein bißchen ordentlicher gemacht und hier ist das Ergebnis. Wir müssen wohl eigentlich nicht erwähnen, daß wir keine Garantie für die Richtigkeit des Inhalts übernehmen. Bevor irgendwelche Copyright-Beschwerden kommen möchten wir nochmal daraufhin weisen, daß die Fragen zum Großteil aus den Protokollen abgeschrieben wurden und die Antworten dazu hauptsächlich aus den Skripten von Frau Steger [1] und [2]. Die Aufgaben stammen aus den Skripten oder den Übungsblättern von Frau Steger und Herrn Mayer. Es sind aber auch ein paar Sachen dabei, die wir uns selber überlegt haben, aber uns ging es vor allem darum, das vorhandene Material in dieser Form zusammenzustellen. 1.2 Ein bißchen Lernpsychologie Da unser Nebenfach ”Psychologie” heißt hier eine kurze Liste von Tipps, die recht hilfreich sind. Wir bitte zu beachten, daß dies keine ”DOs and DONTs”-Liste ist, sondern einfach nur Anregungen geben soll. • Wichtig ist es, das Stoffgebiet von Anfang an sauber zu gliedern. D.h. Ähnliches in Zusammenhang zu setzen und unterschiedliche Dinge klar voneinander zu trennen. Am besten eignet sich dafür eine Übersichtsgrafik über alle Stoffgebiete in der man mit Pfeilen und Gruppierungen die Zusammenhänge klar herausarbeitet. Ein Beispiel befindet sich in [11, S.2]. DS-FAQ v1.0 3 1.2. Ein bißchen Lernpsychologie • Man sollte versuchen das Wissen, das man erwirbt durch möglichst viele Verknüpfungen zu festigen. Das kann zu einen bedeuten, daß man es mit ähnlichen Inhalten verknüpft (z.B. Markovkette → stationäre Verteilung → Eigenwerte → linear Algebra) oder auch mit fachfremden Inhalten. So kann man z.B. wenn man etwas über Markovketten liest erst mal auf [12] die Biographie von Herrn Markov lesen. Wer z.B. über Kurt Gödel gelesen hat, daß er aus Angst vergiftet zu werden, nichts mehr gegessen hat bis er verhungert ist, wird Wissen, was mit Gödel zu tun hat beim nächsten mal bestimmt schneller parat haben. • Regelmäßige Pausen sind wichtig, damit sich das neue Wissen setzen kann. • Eine ausreichend lange Tiefschlafphase (ca. 8h) ist ebenfalls sehr wichtig. Sonst merkt man sich deutlich weniger. • Beim Lösen von komplizierten Problemen treten oft Set-Effekte auf. Man verrennt sich und kommt einfach nicht weiter. Am besten das Problem für eine halbe Stunde ruhen lassen und es dann nochmal probieren. • Wenn es irgendwie geht (prädestiniert sind Graphen) sollte man versuchen das Problem zu visualisieren. Ein mit Urnen und Bällen vollgeschmiertes Blatt hat schon oft weiter geholfen. • Wir mußten leider feststellen, daß es in DS oft Probleme gibt, bei denen man mit kreativen Problemlösen nirgendwo hin kommt. In solchen fällen sollte man ruhig in das andere Extrem gehen und das Problem zu Tode formalisieren. Das fängt natürlich mit der Aufgabenstellung an. Wer öfters an den Aufgaben rumrechnet, merkt automatisch, wo das unerlässlich ist. • Man sollte sich bewußt sein, daß Wissen das man gerade lernt, zuvor gelerntes Wissen hemmen kann. Das gilt insbesondere wenn die Themen sehr ähnlich sind. Also, ein bißchen zwischen den Themen springen schadet nichts. • Wir finden, daß gemeinsames lernen (2 oder 3 Leute) deutlich effektiver ist als alleine lernen. Wichtig dabei ist, daß man den Vorteil der Gruppe auch wirklich nutzt. Wenn man z.B. an einer komplizierten Aufgabe sitzt ist auf jedem Fall gut, die Aufgabenstellung gemeinsam zu besprechen, damit sich jeder auch wirklich klar ist, um was es da geht. Dann kann ruhig jeder alleine vor sich hinrechnen. Aber der Schluß ist das wichtigste. Falls eine Lösung gefunden wurde sollte diese ausführlich diskutiert werden (stimmt das?, Paßt das mit unseren bisherigen Vorstellungen zusammen?, was können wir daraus schließen?). Falls keine gefunden wurde und man einen leichten Schimmer hat wieso man nichts gefunden hat, muß das genauso diskutiert werden. • Es ist unumgänglich das Faktenwissen, das man gelernt hat auch exzessiv an den Aufgaben zu testen. Da erlebt man meist böse Überraschungen. • Die beste Art zu lernen, dürfte wohl sein, so eine Zusammenfassung zu schreiben, da man sich hier zwingen muß sein Wissen kommunizierbar zu machen und dabei gehen einem einige Lücken auf. • Wen das alles genauer interessiert, der sollte sich [9] oder [10] anschauen. DS-FAQ v1.0 4 Kapitel 2 Fragen zu Diskrete Strukturen I 2.0 Mathematische Grundprinzipien 2.0.1 Was ist das kartesische Produkt zweier Mengen? Das kartesische Produkt der Menge A mit der Menge B besteht aus allen Paaren (a, b) mit a ∈ A und b ∈ B. Bei einem Paar kommt es auf die Reihenfolge an, es gilt: (a, b) = (b, a), falls a = b Man spricht von geordneten Paaren. Das kartesische Produkt von A und B bezeichnet man mit A × B. Es ist also A × B := {(a, b)|a ∈ A und b ∈ B} Für A = ∅ oder B = ∅ gilt A × B = ∅. Es gilt A × B = B × A, falls A = B und A × B = ∅ Für endliche Mengen A und B gilt: |A × B| = |A| · |B| Beispiel: Sei A = Z3 = {0, 1, 2} dann kann das kartesische Produkt A × A so dargestellt werden: (0, 0) (1, 0) (2, 0) (0, 1) (1, 1) (2, 1) (0, 2) (1, 2) (2, 2) Auf diese Darstellung kommen wir noch mal bei den Relationen (2.0.2) zurück. 2.0.2 Was ist eine Relation? Eine Relation zwischen zwei Mengen A und B ist gegeben durch eine Teilmenge R ⊆ A × B. Man sagt es besteht eine Relation zwischen a ∈ A und b ∈ B genau dann wenn (a, b) ∈ R. Eine weitere Schreibweise für (a, b) ∈ R ist aRb. Genau diese Schreibweise verwendet man, wenn man z.B. schreibt a > b, a = b, oder a ≤ b. Diese drei Relationen sind in den folgenden Abbildungen grafisch dargestellt. Die hinterlegten Elemente bilden jeweils die Teilmenge des kartesischen Produkts, die die Relation beschreibt. > (0, 0) (0, 1) (0, 2) (1, 0) (1, 1) (1, 2) (2, 0) (2, 1) (2, 2) = (0, 0) (0, 1) (0, 2) (1, 0) (1, 1) (1, 2) (2, 0) (2, 1) (2, 2) ≤ (0, 0) (0, 1) (0, 2) (1, 0) (1, 1) (1, 2) (2, 0) (2, 1) (2, 2) Ist R eine Relation zwischen A und B dann nennt man die Menge V (R) = {a ∈ A|es gibt ein b ∈ B mit (a, b) ∈ R} DS-FAQ v1.0 5 2.0. Mathematische Grundprinzipien den Vorbereich von R und N (R) = {b ∈ B|es gibt ein a ∈ A mit (a, b) ∈ R} den Nachbereich von R . Ist V (R) = A, dann heißt R linkstotal, ist N (R) = B, dann heißt R rechtstotal. Eine Relation R zwischen A und B heißt linkseindeutig, wenn aus a1 Rb und a2 RB stets a1 = a2 folgt; sie heißt rechtseindeutig wenn aus aRb1 und aRb2 stets b1 = b2 folgt. Eine Abbildung oder Funktion (2.0.4) ist eine linkstotale, rechtseindeutige Relation. Eine Relation R ⊆ A × A heißt: • • • • reflexiv, wenn für alle a ∈ A gilt, daß (a, a) ∈ R symmetrisch, wenn für alle a, b ∈ A gilt: (a, b) ∈ R ⇒ (b, a) ∈ R antisymmetrisch, wenn für alle a, b ∈ A gilt: (a, b) ∈ R ∧ (b, a) ∈ R ⇒ a = b transitiv, wenn für alle a, b, c ∈ A gilt (a, b) ∈ R ∧ (b, c) ∈ R ⇒ (a, c) ∈ R Relationen die reflexiv, symmetrisch und transitiv sind heißen Äquivalenzrelationen. Relationen die reflexiv oder antireflex, antisymmetrisch und transitiv sind heißen Ordnungsrelationen. Beispiel: Eine triviale Äquivalenzrelation ist die Gleichheit, für eine Menge A gilt: • für alle a ∈ A gilt: a = a ⇒ reflexiv • für alle a, b ∈ A gilt: a = b ⇒ b = a ⇒ symmetrisch • für alle a, b, c ∈ A gilt a = b ∧ b = c ⇒ a = c ⇒ transitiv 2.0.3 Was sind die Landau-Symbole? Symbol O(g) Definition O(g) := {f | ∃C∃n0 ∀n ≥ n0 : |f (n)| ≤ C|g(n)|} Ω(g) Ω(g) := {f | ∃C∃n0 ∀n ≥ n0 : |f (n)| ≥ C|g(n)|} Θ(g) Θ(g) := O(g) ∩ Ω(g) o(g) ω(g) o(g) := {f | ∀C∃n0 ∀n ≥ n0 : |f (n) < C|g(n)|} ω(g) := {f | ∀C∃n0 ∀n ≥ n0 : |f (n)| > C|g(n)|} Beschreibung f wächst bis auf einen Konstanten Faktor C ab n0 nicht schneller als g f wächst bis auf einen Konstanten Faktor C ab n0 nicht langsamer als g f wächst bis auf einen Konstanten Faktor C ab n0 genau so schnell wie g f wächst echt langsamer als g f wächst echt schneller als g 2.0.4 Was ist eine Abbildung Eine linkstotale, rechtseindeutige Relation R zwischen zwei Mengen A und B nennt man Abbildung. Das bedeutet, daß jedes Element in A auf genau ein Element in B abgebildet wird. Es können aber zwei unterschiedliche Elemente a, b ∈ A auf das selbe Elemente c ∈ B abgebildet werden. Handelt es sich bei den Elementen der beiden Mengen um Zahlen, so spricht man von einer Funktion. Üblicherweise bezeichnet man das einzige Element in B, das mit einem Element a ∈ A in Relation steht mit f (a). f (a) nennt man Bild von a. a bezeichnet man als das Urbild. Eine Funktion f beschreibt man in dem man die Regel angibt, nach der für eine Element a ∈ A sein Bild f (a) berechnet wird. Man verwendet dafür die Schreibweise: f: A a →B → f (a) Das Urbild eines Elements ist definiert als f −1 (b) := {a ∈ A|f (a) = b}. Eine Abbildung f : A → B heißt: DS-FAQ v1.0 6 2.1. Kombinatorik Bezeichnung injektiv Erklärung wenn alle Elemente aus A unterschiedliche Bilder haben, wenn also für b ∈ B gilt: Beispiel Gegenbeispiel A B A B A B A B A B A B |f −1 (b)| ≤ 1 surjektiv wenn jedes Element aus B ein Bild von mindestens einem Element aus A ist, d.h. wenn für alle b ∈ B gilt: |f −1 (b)| ≥ 1 bijektiv wenn die Abbildung sowohl injektiv als auch surjektiv ist. Wenn f bijektiv ist gilt: |f −1 (b)| = 1 2.0.5 Bitte schreiben Sie die Stirling-Formel zum Abschätzen von n! auf. n! = 2.1 n n √ 1 1 +O 2πn 1+ e 12n n2 Kombinatorik 2.1.1 Was beschreiben die Stirlingzahlen zweiter Art und wie sind sie definiert? Die Anzahl der k-Partitionen (k-elementige, disjunkte Teilmengen) einer n-elementigen Teilmenge ist durch die Stirlingzahlen zweiter Art Sn,k gegeben, wobei gilt: wenn n = 0, k = 0 1 0 wenn n = 0 oder k = 0 aber nicht beide Sn,k = Sn−1,k−1 + kSn−1,k sonst 2.1.2 Sei Σ∗ = {a, b, c}∗ . Wie viele Möglichkeiten gibt es, ein 2-stelliges Wort aus Σ∗ zu generieren? Wie viele Möglichkeiten gibt es allgemein? Es gibt 32 Möglichkeiten, allgemein gibt es k n = |Σ|n Möglichkeiten. 2.1.3 Wie viele Möglichkeiten gibt es nun, wenn keine Buchstabe mehrmals vorkommen darf? Es gibt 32 Möglichkeiten, allgemein gibt es k n = |Σ|n Möglichkeiten. 2.1.4 Was beschreiben die Sterling-Zahlen erster Art und wie sind sie definiert? Die Anzahl der Permutation von n Elementen mit genau k Zyklen ist durch die Stirlingzahlen erster Art sn,k gegeben, wobei gilt: wenn k > n oder k = 0 0 1 wenn k = n sn,k = sn−1,k−1 + (n − 1) · sn−1,k sonst 2.1.5 Schreiben Sie die Tabelle für das Bälle-Urnen-Modell auf ;). DS-FAQ v1.0 7 2.2. Graphentheorie |N | = n, |R| = r N unterscheidbar R unterscheidbar N nicht unterscheidbar R unterscheidbar N unterscheidbar R nicht unterscheidbar N nicht unterscheidbar R nicht unterscheidbar 2.2 beliebig injektiv surjektiv bijektiv rn rn · [r ≥ n] r! · Sn,r n! · [r = n] r+n−1 r n−1 r−1 [r = n] Sn,k [r ≥ n] Sn,r [r = n] Pn,k [r ≥ n] Pn,r [r = n] n r k=1 r k=1 n Graphentheorie 2.2.1 Was ist ein Baum? Ein Baum ist ein zusammenhängender, kreisfreier Graph. Es gelten folgende Aussagen: • ein Baum ist kantenminimal zusammenhängend, d.h. wenn man eine Kante weg nimmt ist er nicht mehr zusammenhängend • ein Baum ist kantenmaximal kreisfrei, d.h. wenn man eine Kante hinzufügt, enthält er einen Kreis • |E| = |V | − 1 • Jeder Baum T = (V, E) (|V | ≥ 2) enthält mindestens zwei Blätter • Sei T = (V, E) ein Baum, v ∈ V ein beliebiger Knoten und T1 , . . . , Tk die Komponenten von T [V \ {v}]. Dann sind die Komponenten T1 , . . . , Tk Bäume und deg(v) = k 2.2.2 Was ist eine Wald? Ein Wald ist ein Graph dessen Komponenten Bäume sind. 2.2.3 Was sind spannende Bäume und mit welchen Algorithmen kann man sie erzeugen? Sei G = (VG , EG ) ein Graph. Ein Graph T = (VT , ET ) heißt spannender Baum in G falls gilt 1. T ist ein Baum 2. VT = VG und ET ⊆ EG Spannende Bäume können mit Tiefen- oder Breitensuche gefunden werden. 2.2.4 Wie kann man die Anzahl verschiedener Bäume auf n Knoten zählen. Welche Voraussetzungen müssen erfüllt sein? Falls die Knoten markiert sind, ist die Anzahl der Bäume auf n Knoten nn−2 (Satz von Cayley, 1889). 2.2.5 Was ist ein Graph? Ein Graph G ist ein Tupel (V, E), wobei V eine (endliche) Menge von Knoten ist und E ⊆ von Kanten ist. V 2 eine Menge 2.2.6 Wann ist ein Graph zusammenhängend? Ein Graph G heißt zusammenhängend, genau dann wenn für jedes Paar von Knoten u und v ein u − v-Pfad in G existiert. Es gilt • Ein zusammenhängender Graph G = (V, E) muß mindestens |E| = |V | − 1 Kanten enthalten • jeder Graph für den |E| > |V 2|−1 gilt, ist zusammenhängend 2.2.7 Wie kann man die Anzahl der Zusammenhangskomponenten eines Graphen bestimmen? DS-FAQ v1.0 8 2.2. Graphentheorie Mit einer modifizierten Form der Breitensuche. 2.2.8 Welche Arten von Graphen kennen Sie? • zusammenhängende • planare • Bäume und Wälder • bipartite • gerichtete • vollständige 2.2.9 Wie ist ein bipartiter Graph definiert? Die Knotenmenge eines bipartiten Graphen G = (A B, E) setzt sich aus zwei disjunkten Teilmengen A und B zusammen. Für jede Kante e gilt, daß der eine Endpunkt in A und der andere in B liegen muß. 2.2.10 Was ist ein Matching? Eine Kantenmenge M ⊆ E heißt Matching in dem Graphen G = (V, E), falls kein Knoten des Graphen in mehr als einer Kante aus M vorkommt, d.h. wenn e∩f =∅ für alle e, f ∈ M mit e = f 2.2.11 Was ist ein perfektes Matching? Ein Matching heißt perfekt, wenn |M | = wird. |V | 2 , wenn also jeder Knoten durch genau eine Kante aus M überdeckt 2.2.12 Was ist ein eulerscher Kreis und welche Voraussetzungen muß ein Graph haben, damit es einen solchen gibt? Ein Eulerkreis ist ein geschlossener Weg durch einen Graphen G = (V, E), wobei jede Kante des Graphen genau einmal durchlaufen wird. Ein Graph G = (V, E) besitzt genau dann einen Eulerkreis, wenn der Grad aller Knoten gerade ist. 2.2.13 Was sind Zusammenhangskomponenten? k Sei i=1 Vi eine Partition von V so daß zwei Knoten u und v genau dann durch einen Pfad verbunden sind, wenn sie im selben Teil der Partition liegen. Dann heißen die Subgraphen G[Vi ] Komponenten von G. 2.2.14 Beschreiben Sie Breitensuche und Tiefensuche. Mit Breiten- und Tiefensuche kann man einen Graphen durchlaufen und damit einen spannenden Baum finden. Wir möchten hier nicht die genaue Algorithmen angeben (die stehen in [1]), sondern am Beispiel beschreiben wie sie funktionieren. Für die folgenden Betrachtungen verwenden wir diesen Graph. DS-FAQ v1.0 9 2.3. Algorithmen und Rekursionen Breitensuche Bei der Breitensuche wird der Graph, wie der Name schon sagt in der Breite durchlaufen. Das sieht dann so aus. Man fängt bei einem Startknoten an und besucht erst mal alle Nachbarn dieses Knotens. Wenn alle besucht wurden geht man zu einem dieser Nachbarknoten und wiederholt das Spiel dort. D.h. man besucht von dort aus alle noch nicht besuchten Nachbarknoten. Wenn man das erledigt hat geht man wieder eine Ebene höher und macht beim nächsten Knoten weiter. Am besten dürfte das wohl ein Beispiel erklären. Der folgende Graph zeigt das Ergebnis der Breitensuche auf unserem Graphen. An den Stellen wo der Algorithmus den nächsten Knoten nicht deterministisch beschreibt, haben wir immer den kleinsten verwendet. Gestartet wurde in Knoten 1. Tiefensuche Auch die Tiefensuche tut genau das, was ihr Name sagt. Wir fangen bei einem Startknoten an und besuchen einen Nachbarn. Jetzt gehen wir aber nicht zurück, sondern gehen von hier aus gleich weiter zum nächsten unbesuchten Knoten. Das machen wir so lange bis wir entweder fertig sind oder es nicht weiter geht. Dann gehen wir so lange zurück, bis wir an einem Knoten sind, der noch unbesuchte Nachbarn hat. Dort machen wir weiter. Auch hier sollte das Beispiel zeigen, wie es geht. Wir haben wieder in Knoten 1 gestartet. 1 6 2 4 5 3 7 8 10 9 Hier haben wir den entstandenen Spannbaum mal optisch als Baum aufbereitet und man sieht, er ist ziemlich breit. Daß die Tiefensuche ihrem Namen alle Ehre macht, sieht man am entstandenen Spannbaum, er ist zu einer Kette entartet. Das er hier so breit aussieht, liegt nur am Layout, eigentlich reiht er alle Knoten von oben nach unten auf. Tiefer geht es also nicht mehr. 1 2 3 2.3 1 4 9 7 2 3 5 6 10 8 4 7 9 6 8 5 10 Algorithmen und Rekursionen 2.3.1 Erklären Sie den Unterschied zwischen dynamischer Programmierung und Divide&Conquer. Bei Divide&Conquer wird ein Problem in mehrere Teilprobleme zerlegt und diese einzeln berechnet, die Gesamtlösung wird aus den Teillösungen zusammengesetzt. Dynamische Programmierung wird angewandt, wenn die Teilprobleme nicht unabhängig sind, es werden Zwischenergebnisse gespeichert, damit diese nicht mehrfach berechnet werden müssen. Beispiele für Divide&Conquer • Mergesort • Quicksort DS-FAQ v1.0 10 2.3. Algorithmen und Rekursionen Beispiele für dynamische Programmierung • Berechnung von Binomialkoeffizienten • Knapsack • CYK-Algorithmus • Floyd-Warshall-Algorithmus 2.3.2 Erklären Sie das Prinzip der Greedy-Algorithmen. Ein Greedy-Algorithmus wählt in jedem Schritt das lokale Optimum. Dadurch kann unter Umständen das globale Optimum bestimmt werden. Beispiele • Kruskal (minimale Spannbäume) 2.3.3 Erklären Sie bitte das Master-Theorem. Das Master-Theorem beschreibt das Laufzeitverhalten eines Algorithmus der das Divide&Conquer verfahren anwendet, und bei dem ein Problem gelöst wird, indem es in α Teilproblem aufgeteilt wird. Die Teilprobleme können sich überlappen — im Master-Theorem wird dieser Tatsache Rechnung getragen, indem angenommen wird, daß die Teilprobleme die Größe n/β haben, wobei n die Größe des ursprünglichen Problems ist. Im Theorem beschreibt die Funktion f (n) die Funktion mit der die Lösung des ursprünglichen Problems aus den Lösungen der Teilprobleme berechnet wird. Wie man sieht hängt die Laufzeit des Divide&ConquerVerfahrens hauptsächlich von der Laufzeit dieser Funktion ab. Seien α ≥ 1 und β > 1 zwei Konstanten und sei f (n) eine nichtnegative Funktion und sei T (n) definiert durch die Rekursionsgleichung n T (n) = αT + f (n) β wobei nβ sowohl als nβ als auch als nβ gelesen werden kann, dann ist log α Θ n β wenn f (n) = O nlogβ α−ε für ein konstantes ε > 0, Θ nlogβ α log n wenn f (n) = Θ nlogβ α T (n) = Θ(f (n)) wenn f(n) = Ω nlogβ α+ε für ein konstantes ε > 0 und αf nβ ≤ cf (n) für ein konstantes 0 < c < 1 2.3.4 Für welche Rekursionsgleichungen existieren Lösungsformeln? Für homogene und inhomogene lineare Rekursionsgleichungen ersten Grades und für homogene lineare Rekursionsgleichungen zweiten Grades. siehe (4.3). 2.3.5 Was ist eine formale Potenzreihe? Um eine Folge der Form (an )n≥0 = a0 , a1 , . . . , ak , . . . besser greifbar zu machen wird eine neue Schreibweise für die Folgen eingeführt. Man multipliziert das Folgeglied ak mit xk und addiert die einzelnen Folgeglieder: a0 + a1 x + a2 x2 + . . . + ak xk + . . . Wenn jetzt noch die Summenschreibweise verwendet wird, kann man die Folge (an )n≥0 als an xn A(x) := n≥0 DS-FAQ v1.0 11 2.3. Algorithmen und Rekursionen schreiben. Das k-te Folgeglied ak wird als [xk ]A(x) = [xk ] an xn := ak n≥0 geschrieben. Wir betrachten die Summen nicht als Reihen sondern einfach als andere Schreibweise für Folgen und beschäftigen uns auch nicht mit dem Konvergenzverhalten. Wir sprechen von formalen Potenzreihen. 2.3.6 Wie sieht das Schema zum Lösen von Rekursionsgleichungen aus? siehe (4.3). 2.3.7 Zeigen Sie das auflösen einer Rekursion am Beispiel der Fibonacci-Zahlen. siehe (4.3). 2.3.8 Wie kann man das Knapsack-Problem a) mit einem Greedy-Algorithmus und b) mit dynamischer Programmierung lösen a) Der Greedy-Algorithmus nimmt in jedem Schritt den Gegenstand mit dem besten Profit-GewichtVerhältnis pi /wi . Dies führt im allgemeinen nicht zu einer optimalen Lösung. b) Angenommen wir haben einen Rucksack der höchstens M =17kg wiegen darf und die folgenden N =5 verschiedenen Elemente, die in den Rucksack gepackt werden können. Element Gewicht Wert 1 3 4 2 4 5 3 7 10 4 8 11 5 9 13 Der folgende Algorithmus (in JAVA) löst das Problem. Dieser Algorithmus stammt aus [5]. /* Felder: weight[] val[] cost[] : : : best[] : Variablen: N : M : Gewichte der Gegenstände Werte der Gegenstände cost[i] ist der optimale Werte der mit einem Rucksack mit Fassungsvermögen i erzielt werden kann (am Anfang mit 0 initialisiert best[i] ist das letzte Element, das hinzugefügt wurde um dieses Maximum zu erreichen Anzahl verschiedener Element (im Beispiel: N=5) Kapazität des Rucksacks (im Beispiel: M=17) */ public static void knapsack(){ for(int j=1;j<=N;j++){ for(int i=1;i<=M;i++){ if(i-weight[j]>=0) if (cost[i]<(cost[i-weight[j]]+val[j])){ cost[i]=cost[i-weight[j]]+val[j]; best[i]=j; } } } } Wie funktioniert dieser Algorithmus? Zuerst berechnen wir für alle Größen des Rucksacks (≤17kg) den maximalen Wert, wenn nur Elemente vom Typ 1 verwendet werden, danach den maximalen Wert wenn nur Elemente vom Typ 1 und 2 verwendet werden usw. Die Lösung reduziert sich auf eine einfache Berechnung von cost[i]. Nehmen wir an, daß ein Element j für den Rucksack gewählt wird; dann wäre der beste Gesamtwert, der erzielt werden könnte val[j] (für das Element) plus cost[i-weight[i]] (um den Rest des Rucksacks aufzufüllen). Wenn dieser DS-FAQ v1.0 12 2.4. Algebraische Strukturen Wert den besten übersteigt, der ohne ein Element j erreicht werden kann, aktualisieren wir cost[i] und best[i]; andernfalls lassen wir die Größen unverändert. Die Tabelle zeigt den Ablauf des Algorithmus’. Das erste Zeilenpaar zeigt den maximalen Wert (den Inhalt der Felder cost[i] und best[i]), wenn nur Elemente vom Typ 1 benutzt werden; das zweite Zeilenpaar zeigt den maximalen Wert, wenn Elemente vom Typ 1 und Typ 2 benutzt werden, usw. Der höchste, Wert der mit einem Rucksack der Größe 17 erreicht werden kann ist 24. Der tatsächliche Inhalt des optimalen Rucksacks kann mit Hilfe des Feldes best[] berechnet werden. Per Definition ist best[M] in ihm enthalten, und der restliche Inhalt ist der gleiche wie im optimalen Rucksack der Größe M-weight[best[M]]. Daher ist best[M-weight[best[M]]] im Rucksack enthalten, usw. Für unser Beispiel ist best[17]=3. Ein Element vom Typ 3 hat Gewicht 7, deshalb finden wir das nächste Element mit best[M-7]=best[10]=3. Wieder Typ 3, also finden wir jetzt bei best[10-7]=best[3]=1 ein Element vom Typ 1. Also besteht die optimale Packung aus zwei Element vom Typ 3 und einem Element vom Typ 1, die laut obiger Tabelle zusammen 24 wert sind. j=1 j=2 j=3 j=4 j=5 2.4 k cost[k] best[k] cost[k] best[k] cost[k] best[k] cost[k] best[k] cost[k] best[k] 1 0 2 0 0 0 0 0 0 0 0 0 3 4 1 4 1 4 1 4 1 4 1 4 4 1 5 2 5 2 5 2 5 2 5 4 1 5 2 5 2 5 2 5 2 6 8 1 8 1 8 1 8 1 8 1 7 8 1 9 2 10 3 10 3 10 3 8 8 1 10 2 10 2 11 4 11 4 9 12 1 12 1 12 1 12 1 13 5 10 12 1 13 2 14 3 14 3 14 3 11 12 1 14 2 15 3 15 3 15 3 12 16 1 16 1 16 1 16 1 17 5 13 16 1 17 2 18 3 18 3 18 3 14 16 1 18 2 20 3 20 3 20 3 15 20 1 20 1 20 1 21 4 21 4 16 20 1 21 2 22 3 22 3 23 5 17 20 1 22 2 24 3 24 3 24 3 Algebraische Strukturen 2.4.1 Was ist eine Boolesche Algebra? Eine Algebra A = S, ⊕, , ¬ mit zwei zweistelligen Operatoren ⊕ und und einem einstelligen Operator ¬ heißt Boolesche Algebra, falls B1. S, ⊕ ein abelsches Monoid mit neutralem Element 0 ∈ S ist, B2. S, ein abelsches Monoid mit neutralem Element 1 ∈ S ist und B3. für den Operator ¬ gilt: a ⊕ (¬a) = 1 für alle a ∈ S und a (¬a) = 0 für alle a ∈ S B4. das Distributivgesetz gilt, d.h. a (b ⊕ c) = (a b) ⊕ (a c) für alle a, b, c ∈ S und a ⊕ (b c) = (a ⊕ b) (a ⊕ c) für alle a, b, c ∈ S 2.4.2 Was ist eine Homomorphismus? = S, Φ zwei Algebren mit der selben Signatur. Dann heißt eine Abbildung h : S → S Seien A = S, Φ und A falls für alle einander entsprechende Operatoren f ∈ Φ und f ∈ Φ gilt: ein Homomorphismus von A nach A, f und f sind mit h vertauschbar,d.h. f h(a1 ), . . . , h(am ) = h f (a1 , . . . , am ) für alle a1 , . . . , am ∈ S wobei m die Stelligkeit von f (und damit auch die von f ) bezeichnet. Graphisch kann der Homomorphismus so dargestellt werden: f S m −−−−→ h S h f Sm −−−−→ S Man sieht, daß man zum gleichen Ergebnis kommt, egal ob man oben“ oder unten“ rum läuft. ” ” DS-FAQ v1.0 13 2.4. Algebraische Strukturen 2.4.3 Was ist ein Atom? Informell ist ein Atom das (oder die) zweit-kleinste(n) Element(e) einer Booleschen Algebra. So ist das Atom der True/False-Algebra True und die Atome der Potenzmengenalgebra sind die 1-elementigen Teilmengen. Formal: Sei A = S, ⊕, , ¬ eine Boolesche Algebra. Ein Element a heißt Atom, falls a = 0 und b a =⇒ b = a für alle b ∈ S \ {0} Es gilt: 1. a Atom =⇒ [a b = a oder a b = 0] für alle b ∈ S 2. a und b Atome mit a = b =⇒ ab=0 3. zu jedem Element b ∈ S \ {0} gibt es ein Atom a mit a b. 2.4.4 Nennen Sie mir den Darstellungssatz der Booleschen Algebra? Sei S, ⊕, , ¬ eine endliche Boolesche Algebra. Dann läßt sich jedes Element x ∈ S, x = 0 in eindeutiger Weise als ⊕-Summe von Atomen schreiben: a x= a∈S a Atom ax=0 2.4.5 Wie mächtig ist eine Boolesche Algebra mit n Atomen? Eine Algebra mit n Atomen enthält 2n Elemente. 2.4.6 Was ist eine Algebra? Eine Algebra besteht aus einer Trägermenge S und einer Folge Φ von Operationen auf S. Dabei gilt: Jeder Operator ist eine Abbildung f : Sm → S der Stelligkeit m für ein m ∈ N. Zweistellige Operatoren werden auch Verknüpfungen genannt. 2.4.7 Was ist der Unterschied zwischen einem Ring und einem Körper? Beim Ring bildet S \ {0}, ein Monoid beim Körper eine abelsche Gruppe. 2.4.8 Was ist ein Monoid? Eine Algebra A = S, ◦ mit einem zweistelligen Operator ◦ heißt Monoid, falls M1. ◦ assoziativ ist und M2. A ein neutrales Element e ∈ S besitzt. Für e gilt: e ◦ x = x ◦ e = x für alle x ∈ S (e ist eindeutig) 2.4.9 Geben Sie ein Beispiel für ein nicht abelsches Monoid an. Sei Σ ein endliches Alphabet und Σ∗ die Menge aller Worte über Σ. Bezeichnen wir mit ◦ die Konkatenation von zwei Worten, so ist Σ∗ , ◦ ein nicht abelsches Monoid. Das neutrale Element ist das leere Wort ε. Beispiel: für das Alphabet Σ = {ε, a, b} gilt: ◦ ε a b ε ε a b a a aa ab b b ba bb 2.4.10 Wie kann man Algebren ineinander überführen? DS-FAQ v1.0 14 2.4. Algebraische Strukturen Mit Hilfe von Homomorphismen (siehe 2.4.2). 2.4.11 Was ist ein Isomorphismus? Wenn h ein Homomorphismus(2.4.2) ist und h bijektiv(2.0.2) ist, so nennt man h einen Isomorphismus. 2.4.12 Nennen Sie Beispiele von Booleschen Algebren. • True/False-Algebra, True ist das Atom • Potenzmengenalgebra, die 1-elementigen Teilmengen sind die Atome 2.4.13 Beweisen Sie (a ◦ b)−1 = b−1 ◦ a−1 . Mit den Gesetzen der Gruppe (2.4.17) gilt: e X G2 a ◦ a−1 = (a ◦ b) ◦ (a ◦ b)−1 = (a ◦ b) ◦ (b−1 ◦ a−1 ) G1 a ◦ (b ◦ b−1 ) ◦a−1 = a ◦ a−1 = e = = G2 G2 =e X Wobei an der Stelle = die Aussage, die es zu beweisen gilt, verwendet wird. Man sieht, das es auch im Beispiel Z, + funktioniert, sei a = 5 und b = 3 0 G2 5 + −5 = (5 + 3) + −(5 + 3) = (5 + 3) + (−3 + −5) G1 5 + (3 + −3) + −5 = 5 + −5 = 0 = = X G2 G2 2.4.14 Was ist ein Körper? Eine Algebra A = S, ⊕, mit zwei zweistelligen Operatoren ⊕ und heißt Körper, falls K1. S, ⊕ eine abelsche Gruppe mit neutralem Element 0 ∈ S ist, K2. S \ {0}, eine abelsche Gruppe mit neutralem Element 1 ∈ S ist und K3. a (b ⊕ c) = (a b) ⊕ (a c) für alle a, b, c ∈ S = R, + an und zeichnen das kommutierende 2.4.15 Geben Sie einen Isomorphismus von A = R+ , · nach A Diagramm. Da log(x · y) = log x + log y ist folgende Funktion eine Isomorphismus: h : R+ → R x → log x Das Diagramm sieht so aus: • −−−−→ Rm=2 + log x R+ log x Rm=2 −−−−→ R + 2.4.16 Was ist eine Halbgruppe? Eine Algebra A = S, ◦ mit einem zweistelligen Operator ◦ heißt Halbgruppe, falls ◦ assoziativ ist. Es gilt a ◦ (b ◦ c) = (a ◦ b) ◦ c für alle a, b, c ∈ S 2.4.17 Was ist eine Gruppe? Eine Algebra A = S, ◦ mit einem zweistelligen Operator ◦ heißt Gruppe, falls DS-FAQ v1.0 15 2.4. Algebraische Strukturen G1. ◦ assoziativ ist und G2. A ein neutrales Element e ∈ S besitzt. Für e gilt: e ◦ x = x ◦ e = x für alle x ∈ S (e ist eindeutig) G3. es zu jedem Element a ∈ S ein Inverses a−1 gibt. Für a−1 gilt: a−1 ◦ a = a ◦ a−1 = e 2.4.18 Was ist eine Untergruppe? Eine Unteralgebra A einer Gruppe G heißt Untergruppe, wenn sie selbst wieder eine Gruppe ist. 2.4.19 Was muß gelten wenn B, · eine Untergruppe von A, · ist? Die Kardinalität von B teilt die Kardinalität von A. |A| | |B| 2.4.20 Was ist eine Nebenklasse? Sei H eine Untergruppe einer Gruppe G und sei b ein beliebiges Element in G. Dann heißt: H ◦b= h◦b|h∈H eine rechte Nebenklasse von H in G und b◦H = b◦h|h∈H eine linke Nebenklasse von H in G. Es gilt: • H ◦ h = H für alle h ∈ H. • für b, c ∈ G sind die Nebenklassen H ◦ b und H ◦ c entweder identisch oder disjunkt. • |H ◦ b| = |H| für alle b ∈ G. • Sei H Untergruppe von G, dann bildet die Menge der rechten (linken) Nebenklassen von H eine Partition (disjunkte Zerteilung) von G. • Die Anzahl verschiedener Nebenklassen von H in G heißt der Index von H in G und wird abgekürzt mit indG (H) oder auch kurz ind(h). • Sei G eine endliche Gruppe und H eine Untergruppe in G, dann gilt |G| = |H| · ind(H). Also teilt die Kardinalität von H die von G. 2.4.21 Zeigen Sie, daß alle Nebenklassen von H in G eine disjunkte Zerlegung von G bilden. Sei G eine Gruppe und H eine Untergruppe von G. Wir zeigen zuerst daß für b, c ∈ H gilt, daß H ◦ b und H ◦ c entweder identisch oder disjunkt sind. Seien b, c ∈ G mit H ◦ b ∩ H ◦ c = ∅ (d.h. H ◦ b und H ◦ c sind nicht disjunkt), etwa h1 ◦ b = h2 ◦ c (h1 , h2 ∈ H) Dann ist c = h−1 2 ◦ h1 ◦ b H ◦ c = H ◦ h−1 2 ◦ h1 ◦ b = H ◦ b =H da H◦h=H Jetzt wissen wir, daß die Nebenklassen entweder identisch oder disjunkt sind und müssen nur noch zeigen, daß sie ganz G überdecken. Wegen e ∈ H und H ◦ b ⊆ G für alle b ∈ G, ist klar daß G⊆ H ◦b⊆G b∈G Damit haben wir gezeigt, daß die Nebenklassen von H eine disjunkte Zerlegung von G bilden. DS-FAQ v1.0 16 2.4. Algebraische Strukturen 2.4.22 Wie ist die Ordnung eines Elementes definiert? Sei G eine Gruppe. Die Ordnung ord(a) eines Elements a ∈ G ist das minimale r ∈ N, so daß ar = e Falls kein solches r existiert sei ord(a) := ∞ Es gilt: • Sei G eine endliche Gruppe, dann hat auch jedes Element in G endliche Ordnung. • Sei G eine Gruppe und a ∈ G ein Element mit endlicher Ordnung ord(a). Dann gilt ak = e ⇐⇒ ord(a) | k • Sei G eine abelsche Gruppe und a und b zwei Elemente in G deren Ordnungen teilerfremd sind, so gilt: ord(a ◦ b) = ord(a) · ord(b) • Sei G eine endliche abelsche Gruppe und a ein Element mit maximaler Ordnung ord(a) = max{ord(y) | y ∈ G}. Dann teilt die Ordnung eines jeden Elements die Ordnung von a: ord(b) | ord(a) für alle b ∈ G • Sei G eine endliche Gruppe, so teilt die Ordnung eines jeden Elements die Kardinalität der Gruppe. 2.4.23 Was ist eine Permutationsgruppe? Die Permutationen einer Menge M bilden bezüglich der Verkettung eine Gruppe. Für M = {1, 2, . . . , n} heißt diese die symmetrische Gruppe vom Grad n; sie wird mit Sn bezeichnet. Jede Untergruppe von Sn heißt eine Permutationsgruppe vom Grad n. 2.4.24 Was ist eine zyklische Gruppe? Eine Gruppe G heißt zyklisch, wenn es ein Element b, so daß G = {bi | i ∈ Z}. Ein solches Element b nennt man auch erzeugendes Element oder Generator von G. Beispiel: : Z, +, Zn , +n sind zyklische Gruppen 2.4.25 Was ist eine multiplikative Gruppe? Ist sie zyklisch? In jedem Körper K ist die multiplikative Gruppe K ∗ = K \ {0} zyklisch. 2.4.26 Was sind Restklassen? Man definiert für a, b ∈ Z und m ∈ N a≡b (mod m) ⇐⇒ m | a − b D.h. a ist kongruent zu b modulo m genau dann, wenn m ein Teiler von a − b ist. Dies Kongruenzrelation ist eine Äquivalenzrelation (2.0.2) in Z; die zugehörigen Äquivalenzklassen sind die Restklassen modulo m. Die 4er Restklassen (modulo 4) z.B. sind [0] [1] [2] [1] DS-FAQ v1.0 = = = = {. . . , −8, −4, 0, 4, 8, . . .} {. . . , −7, −3, 1, 5, 9, . . .} {. . . , −6, −2, 2, 6, 10, . . .} {. . . , −5, −1, 3, 7, 11, . . .} 4er 4er 4er 4er Rest Rest Rest Rest 0 1 2 4 17 2.4. Algebraische Strukturen Diese Definition kann auch genauso auf die, bei der Konstruktion von Körper beschriebenen Polynome [1, S.110] angewandt werden. Zwei Polynome f (x) und g(x) sind genau dann kongruent modulo π(x), wenn ihre Differenz durch π(x) teilbar ist. Die von f (x) erzeugte Restklasse modulo π(x) bezeichnet man mit [f (x)]π [f (x)]π = {g(x) ∈ K[x] | π(x) teilt f (x) − g(x)} Die Restklassen haben folgende Eigenschaften: • Sind f1 (x) und f2 (x) zwei verschiedene Polynome mit grad(f1 ), grad(f2 ) < grad(π), so gilt [f1 (x)]π ∩ [f2 (x)]π = ∅ • Ist f (x) eine Polynom mit grad(f ) ≥ grad(π), so gibt es ein Polynom f (x) mit [f (x)]π = [f (x)]π und grad(f ) < grad(π). • Insbesondere gilt also, daß es genau |K|grad(π) viele verschiedene Restklassen gibt und diese paarweise disjunkt sind. Die Menge dieser verschiedenen Restklassen bezeichnen wir mit K[x]/π(x). Formal: K[x]/π(x) := {[f (x)]π | f (x) ∈ K[x], grad(f ) < grad(π)} 2.4.27 Gibt es einen Körper mit 4 Elementen? Ja. 4 ist eine Primzahlpotenz, daher gibt es den Körper GF (pk ). Es gibt aber noch andere. Man setzt K = {0, 1, a, b} und definiert Addition und Multiplikation wie folgt: ⊕ 0 1 a b 0 0 1 a b 1 1 0 b a a a b 0 1 b b a 1 0 DS-FAQ v1.0 0 1 a b 0 0 0 0 0 1 a b 0 0 0 1 a b a b 1 b 1 a 18 Kapitel 3 Fragen zu Diskrete Strukturen II 3.1 Endliche Wahrscheinlichkeitsräume 3.1.1 Was ist die Bernoulli-Verteilung? Eine Zufallsvariable X ist bernoulliverteilt, wenn es nur die Ausfälle 1 (Treffer) oder 0 (kein Treffer) gibt, p gibt die Erfolgswahrscheinlichkeit an. Eine Zufallsvariable mit X mit WX = {0, 1} und der Dichte p für x = 1 fX (x) = 1 − p =: q für x = 0 heißt bernoulliverteilt. Es gilt E[X] = p und Var[X] = pq 3.1.2 Erklären Sie die Poisson-Verteilung. Die Poisson-Verteilung besitzt den Wertebereich WX = N0 und hat die Dichte Pr [X = i] = fX (i) = e−λ λi für i ∈ N0 i! Es gilt E[X] = λ und Var[X] = λ Die Poisson-Verteilung tritt immer dann auf, wenn wir über einen festen Zeitraum zählen, wie oft ein bestimmtes Ereignis eintritt. Dabei müssen folgende Voraussetzungen erfüllt sein: • Es treten nie zwei Ereignisse gleichzeitig auf. • Die Wahrscheinlichkeit, daß ein Ereignis in dem sehr kleinen Zeitintervall δt auftritt, ist ungefähr λδt. • Die Anzahl der Ereignisse in einem festen Zeitintervall hängt nur von der Länge des Intervalls, nicht aber von der Lage auf der Zeitachse (d.h. nicht von einer absoluten Zeit). • Wenn man zwei disjunkte Zeitintervalle betrachtet, so sind die Anzahlen der Ereignisse in diesen Zeiträumen voneinander unabhängig. Beispiel: Wie groß ist die Wahrscheinlichkeit, daß bei 100-maligem Drehen des Roulette-Rads höchstens zweimal der Ausfall 0 erscheint? Die Zufallsvariable X := Anzahl der Ausfälle 0 bei 100-maligem Drehen des Rades hat den Erwartungswert E[X] = λ = 100 · Pr [X ≤ 2] = = 1 37 . Daraus ergibt sich 2 e−λ λi e−λ λ0 e−λ λ1 e−λ λ2 + + = i! 0! 1! 2! i=0 2 ! 100 100 1 100 1+ + e− 37 37 2 37 = = 0, 492962 . . . DS-FAQ v1.0 19 3.1. Endliche Wahrscheinlichkeitsräume Die gesuchte Wahrscheinlichkeit beträgt also etwa 49,3%. 3.1.3 Was ist die Binomialverteilung? Ist eine Zufallsvariable X := X1 + X2 + . . . + Xn als Summe von n unabhängigen Bernoulli-verteilten Zufallsvariablen mit gleicher Erfolgswahrscheinlichkeit p definiert, dann heißt X binomialverteilt. Es gilt WX = {0, . . . , n} und die Dichte ist n x n−x Pr [X = x] = fX (x) = B(x; n, p) = p q x mit q := 1 − p. Für die Verteilung gilt: Pr [X ≤ x] = x B(i; n, p) i=0 Es gilt E[X] = np und Var[X] = npq Die Abbildung zeigt die Dichte der Verteilung B(x; 10, 0.4). 0,30 B(x; 10, 0.4) 0,25 0,20 0,15 0,10 0,05 0,00 0 2 4 6 8 10 3.1.4 Was ist die geometrische Verteilung? Die geometrische Verteilung tritt dann auf, wenn wir ein Bernoulli-Experiment solange wiederholen, bis es erfolgreich ist. Wenn ein einzelner Versuch mit Wahrscheinlichkeit p gelingt, so ist die Anzahl der Versuche bis zum ersten Erfolg geometrisch verteilt. Wir erhalten die folgende Dichte: fX (i) = pq i−1 für i ∈ N Für Erwartungswert und Varianz ergibt sich: E[X] = 1 p und Var[X] = q p2 Beispiel: Bei einem Rechnernetz stehe eine Leitung mit Wahrscheinlichkeit 0.8 zur Verfügung. Dann sind im 1 = 1.25 Versuche erforderlich, um eine Nachricht erfolgreich zu übertragen. Durchschnitt 0.8 3.1.5 Welchen Zusammenhang gibt es zwischen der Poisson- und der Binomialverteilung? Für große n und kleine p läßt sich eine Binomialverteilung durch eine Poisson-Verteilung approximieren: n x (np)x −np Pr [X = x] = p (1 − p)n−x ≈ e x x! DS-FAQ v1.0 20 3.2. Unendliche Wahrscheinlichkeitsräume 3.2 Unendliche Wahrscheinlichkeitsräume 3.2.1 Erklären Sie die Exponentialverteilung. Eine Zufallsvariable X heißt exponentialverteilt mit dem Parameter λ, wenn sie die Dichte λ · e−λx falls x ≥ 0 f (x) = Pr [X = x] = 0 sonst hat. Für die entsprechende Verteilungsfunktion gilt (falls x ≥ 0) " x x λ · e−λt dt = [−e−λt]0 = 1 − e−λx F (x) = Pr [X ≤ x] = 0 Für x < 0 gilt selbstverständlich F (x) = 0. Es gilt: E[X] = 1 λ und Var[X] = 1 λ2 Außerdem gilt folgender Satz: Sei X eine exponentialverteilte Zufallsvariable mit dem Parameter λ. Für a > 0 ist die Zufallsvariable Y := aX wieder exponentialverteilt mit dem Parameter λa . Eine exponentialverteilte Zufallsvariable ist gedächtnislos, siehe dazu 3.3.7. Beispiel: Die Lebensdauer T eines elektrischen Bauteils sei exponentialverteilt mit dem Erwartungswert E[X] = 500h. Die Wahrscheinlichkeit, daß das Bauteil zwischen den Zeitpunkten 400 und 600 ausfällt, lautet Pr [400 ≤ T ≤ 600] 600 400 = F (400) − F (600) = 1 − e− 500 − 1 + e− 500 = e−0.8 − e−1.2 = 0.148. Die Wahrscheinlichkeit, daß die Lebensdauer mindestens 500h beträgt, lautet 500 Pr [T ≥ 500] = 1 − Pr [T ≤ 500] = e− 500 = e−1 = 0.368. 3.2.2 Erklären Sie die Normalverteilung. Die Normalverteilung spielt vor allem in der Statistik eine große Rolle. Immer wenn man Größen betrachtet, die um einen bestimmten Werte schwanken, so kann man das meist gut mit einer Normalverteilung modellieren. Eine Zufallsvariable X mit Wertebereich WX = R heißt normalverteilt mit den Parametern µ ∈ R und σ ∈ R, wenn sie die Dichte # $ 1 (x − µ)2 f (x) = Pr [X = x] = √ · exp − =: φ(x; µ, σ) 2σ 2 2πσ hat. In Zeichen schreiben wir X ∼ N (µ, σ 2 ). N (0, 1) heißt Standardnormalverteilung. Die Verteilungsfunktion zu N (µ, σ 2 ) lautet 1 · F (X) = Pr [X ≤ x] = √ 2πσ # $ (t − µ)2 exp − dt =: Φ(x; µ, σ) 2σ 2 −∞ " x Es gilt: E[X] = µ und Var[X] = σ 2 3.2.3 Wie kann man eine beliebige N (µ, σ 2 )-verteilte Zufallsvariable durch eine N (0, 1)-verteile darstellen? DS-FAQ v1.0 21 3.3. Stochastik allgemein Sei X eine N (µ, σ 2 )-verteilte Zufallsvariable. Die für beliebige a ∈ R \ {0} und b ∈ R definierte Zufallsvariable Y = aX + b ist N (aµ + b, a2 σ 2 )-verteilt. Dies ermöglicht es, eine beliebige N (µ, σ 2 )-verteilte Zufallsvariable X durch die Transformation Y = X−µ σ in eine N (0, 1)-verteilte Zufallsvariable zu überführen. Die Funktionen φ und Φ ohne Angabe der Parameter µ und σ entsprechen der Dichte und Verteilung von N (0, 1). Damit können wir das Ergebnis a < X ≤ b“ ” durch # $ a−µ b−µ b−µ a−µ <Y ≤ Pr [a < X ≤ b] = Pr =Φ −Φ σ σ σ σ berechnen. Y heißt dann normiert. 3.2.4 Was besagt der zentrale Grenzwertsatz? Die Zufallsvariablen X1 , . . . , Xn haben jeweils die selbe Verteilung und sind voneinander unabhängig. Den Erwartungswert dieser Verteilung bezeichnen wir mit µ und die Varianz mit σ 2 . Die Zufallsvariablen Yn werden definiert durch Yn := X1 + . . . + Xn (n ≥ 1). Dann sind die Zufallsvariablen Zn := Yn − nµ √ σ n asymptotisch standardnormalverteilt, also Zn ∼ N (0, 1) für n → ∞. Anders formuliert heißt das, daß die Variablen Yn die Verteilung N (nµ, nσ 2 ) haben. Der zentrale Grenzwertsatz hat folgenden intuitive Konsequenz: Wenn eine Zufallsgröße durch lineare Kombination vieler einzelner Zufallsgrößen entsteht, so erhält man Näherungsweise eine Normalverteilung. Das erklärt auch, warum die Normalverteilung bei natürlichen Phänomenen, wie z.B. der Körpergröße von Menschen, so oft auftritt. 3.2.5 Was ist die Gleichverteilung? Eine besonders einfache stetige Verteilung ist die Gleichverteilung auf dem Intervall [a, b]. Sie ist definiert durch 1 für x ∈ [a, b] b−a f (x) = Pr [X = x] = 0 sonst Die Verteilungsfunktion lautet: " F (x) = Pr [{t ∈ R : t ≤ x}] = 0 x f (t) = −∞ Es gilt: E[X] = 3.3 a+b 2 und Var[X] = x−a b−a 1 für x < a für a ≤ x ≤ b für x > b (a − b)2 12 Stochastik allgemein 3.3.1 Was ist ein Wahrscheinlichkeitsraum? Ein endlicher Wahrscheinlichkeitsraum ist bestimmt durch eine endliche Ergebnismenge Ω = {ω1 , . . . , ωn } von Elementarereignissen. Jedem Elementarereignis ωi ist eine (Elementar-) Wahrscheinlichkeit Pr [ωi ] zugeordnet. Für diese Wahrscheinlichkeiten gilt Pr [ω] = 1 ω∈Ω Eine Menge E ⊂ Ω heißt Ereignis. Die Wahrscheinlichkeit Pr [E] dieses Ereignisses ist definiert durch Pr [ω] Pr [E] = ω∈E DS-FAQ v1.0 22 3.3. Stochastik allgemein 3.3.2 Was ist ein Ereignis? Siehe 3.3.1. 3.3.3 Erklären Sie bedingte und unbedingte Wahrscheinlichkeit. Zusätzliche Informationen beeinflussen die Wahrscheinlichkeit eines Ereignisses. Dies wird formal durch die bedingte Wahrscheinlichkeit gefaßt. A und B seien Ereignisse mit Pr [B] > 0. Die bedingte Wahrscheinlichkeit Pr [A|B] von A gegeben B ist definiert durch Pr [A ∩ B] Pr [A|B] = Pr [B] Man verwendet auch folgende Form Pr [A ∩ B] = Pr [B|A] · Pr [A] = Pr [A|B] · Pr [B] Anschaulich bedeutet dies: Um auszurechnen wie wahrscheinlich es ist, daß A und B gleichzeitig eintreten, genügt es die Wahrscheinlichkeiten zu multiplizieren, daß zuerst A allein eintritt und dann B unter der Bedingung, daß A bereits eingetreten ist. Unbedingte Ereignisse sind unabhängig, siehe dazu (3.3.16). 3.3.4 Wie lautet der Satz von der totalen Wahrscheinlichkeit? Die Ereignisse A1 , . . . , An bilden eine disjunkte Zerlegung von Ω, d.h. sie sind paarweise unvereinbar und es gilt A1 ∪ . . . ∪ An = Ω. Dann folgt n Pr [B|Ai ] · Pr [Ai ] (3.1) Pr [B] = i=1 Beispiel: Gegeben seien drei Urnen. Urne 1 enthält eine weiße und eine schwarze Murmel, Urne 2 eine schwarze und vier weiße Murmel und Urne 3 enthält je drei weiße und schwarze Murmeln. Ein Würfel wird geworfen. Falls 1, 2 oder 3 Augen erscheinen wird Urne 1 gewählt, bei Ausgang 4 wird Urne 2 gewählt und 5 oder 6 wird Urne 3 gewählt. Nun wird aus der ausgewählten Urne eine Murmel gezogen. Sei A das Ereignis, daß die gezogene Murmel weiß ist. Bestimmen Sie Pr [A]. Wir kennen folgenden Wahrscheinlichkeiten, wobei Ui das Ereignis ist, daß Urne i gewählt wurde. 1 2 1 Pr [A|U1 ] = 2 Pr [U1 ] = 1 6 4 Pr [A|U2 ] = 5 Pr [U2 ] = 1 3 1 Pr [A|U3 ] = 2 Pr [U3 ] = Jetzt brauchen wir nur noch in (3.1) einsetzen. 3 Pr [A] = Pr [A|Ui ] · Pr [Ui ] i=1 = Pr [A|U1 ] · Pr [U1 ] + Pr [A|U2 ] · Pr [U2 ] + Pr [A|U3 ] · Pr [U3 ] 1 1 4 1 1 1 · + · + · = 2 2 5 6 2 3 11 = 20 3.3.5 Wie lautet der Satz von Bayes? Die Ereignisse A1 , . . . , An bilden eine disjunkte Zerlegung von Ω. Ferner sei B ein Ereignis mit Pr [B] > 0. Dann gilt für ein beliebiges i Pr [Ai |B] = DS-FAQ v1.0 Pr [B|Ai ] · Pr [Ai ] Pr [Ai ∩ B] = n Pr [B] j=1 Pr [B|Aj ] · Pr [Aj ] 23 3.3. Stochastik allgemein Bemerkung: Aus dem Satz der totalen Wahrscheinlichkeit (3.3.4) und der Definition der bedingten Wahrscheinlichkeit (3.3.3) ergibt sich, daß nicht nur die beiden Brüche gleich sind sondern das gilt: Pr [Ai ∩ B] = Pr [B|Ai ] · Pr [Ai ] n Pr [B] = Pr [B|Aj ] · Pr [Aj ] j=1 Beispiel: Wir setzen hier das Beispiel von (3.3.4) fort und fragen wie groß ist Pr [U2 |A]? Jetzt müssen wir die bedingten Wahrscheinlichkeiten ”umdrehen” und genau das erledigt der Satz von Bayes. Pr [U2 |A] Pr [A|U2 ] · Pr [U2 ] Pr [U2 ∩ A] = Pr [A] Pr [A] 4 1 5 · 6 = = 11 20 8 33 = 3.3.6 Wie lautet die Siebformel für zwei Ereignisse A und B? Die Siebformel lautet für zwei endliche Mengen A und B lautet: |A ∪ B| = |A| + |B| − |A ∩ B|. entsprechend berechnet sich die Wahrscheinlichkeit der Ereignisse: Pr [A ∪ B] = Pr [A] + Pr [B] − Pr [A ∩ B] . Zum Verständnis die Abbildung für die Siebformel mit drei Mengen: |A ∪ B ∪ C| = |A| + |B| + |C| − |A ∩ B| − |A ∩ C| − |B ∩ C| + |A ∩ B ∩ C| A B A B C A A C B C B C 3.3.7 Schreiben Sie formal die Definition der Gedächtnislosigkeit auf. Für eine exponentialverteilte Zufallsvariable X mit Parameter λ gilt (x, y) > 0 Pr [X > x + y | X > y] = Pr [X > y] Andersherum gilt auch, daß eine gedächtnislose Zufallsvariable zwangsläufig exponentialverteilt ist. 3.3.8 Was sind Dichte und Verteilung? Wenn man WX als Ergebnismenge interpretiert und die Zahlen xi mit den Wahrscheinlichkeiten pi als Elementarereignisse auffaßt, so erhält man den zugrunde liegenden Wahrscheinlichkeitsraum der Zufallsvariablen X. Die Zuordnung von Wahrscheinlichkeiten zu Elementarereignissen fX : WX xi DS-FAQ v1.0 → [0, 1] → pi 24 3.3. Stochastik allgemein nennt man Dichte(funktion) von X. Ferner heißt die Funktion FX : R → [0, 1] x → Pr [X ≤ x] = pi i: xi ≤x Verteilung(sfunktion) von X. 3.3.9 Wie hängen Dichte- und Verteilungsfunktion zusammen? Im diskreten ist die Verteilungsfunktion die Summe über die Dichtefunktion und im kontinuierlichen das Integral über die Dichtefunktion. 3.3.10 Wie ist der Erwartungswert im a) diskreten Fall und b) kontinuierlichen Fall definiert? a) E[X] = x · Pr [X = x] = n xi · pi i=1 x∈WX b) " E[X] = ∞ −∞ t · fX (t) dt 3.3.11 Wie ist die Varianz im a) diskreten Fall und b) kontinuierlichen Fall definiert? a) Var[X] = E[(X − E[X])2 ] = E[X 2 ] − E[X]2 = n (xi − E[X])2 · pi i=1 b) " Var[X] = E[(X − E[X])2 ] = E[X 2 ] − E[X]2 = ∞ −∞ (t − E[X])2 · fX (t) dt 3.3.12 Was ist der Erwartungswert? Bei der Untersuchung einer Zufallsvariablen ist es interessant zu wissen, welches Ergebnis man im Mittel“ ” erwarten kann. Man nimmt an das man das Experiment hinreichend oft wiederholt und das das arithmetische Mittel der Werte, die die Zufallsvariable annimmt, gegen einen festen Wert konvergiert. Diesen Wert bezeichnet man als Erwartungswert. Zur Berechnung siehe 3.3.10. 3.3.13 Was ist die Varianz Die Varianz gibt die zu erwartende Abweichung vom Erwartungswert an. Ein naheliegende Lösung wäre E[|X − E[X]|] zu verwenden. Wegen der unhandlichen Betragsfunktion verwendet man die quadratische Abweichung vom Erwartungswert: E[(X − E[X])2 ] 3.3.14 Was ist die Standardabweichung? Die Standardabweichung bezeichnet die Größe: σ := % Var[X] 3.3.15 Wie lautet die Ungleichung von Chebyshew Sei X eine Zufallsvariable und t ∈ R+ . Dann gilt ' & % 1 Pr |X − E[X]| ≥ t Var[X] ≤ 2 t oder alternativ Pr [|X − E[X]| ≥ t] ≤ DS-FAQ v1.0 Var[X] t2 25 3.3. Stochastik allgemein 3.3.16 Wie ist Unabhängigkeit definiert? Zwei Ereignisse A und B sind unabhängig, falls gilt Pr [A ∩ B] = Pr [A] · Pr [B] Mit (3.3.3) kann das umgeformt werden zu: Pr [A] = Pr [A ∩ B] = Pr [A|B] , falls Pr [B] = 0 Pr [B] Die Zufallsvariablen X1 , . . . , Xn heißen unabhängig, wenn für alle xi ∈ WXi mit i = 1, . . . , n gilt Pr [X1 = x1 , . . . , Xn = xn ] = Pr [X1 = x1 ] · . . . · Pr [Xn = xn ] 3.3.17 Warum ist Unabhängigkeit von Vorteil? Bei unabhängigen Zufallsvariablen gelten Gesetze die bei abhängigen Zufallsvariablen nicht gelten: • für unabhängige Zufallsvariablen X, Y gilt: E[X · Y ] = E[X] · E[Y ] • für unabhängige Zufallsvariablen X1 , . . . , Xn und X := X1 + . . . + Xn gilt: Var[X] = Var[X1 ] + . . . + Var[Xn ] 3.3.18 Wodurch werden den Elementarereignissen Wahrscheinlichkeiten zugeordnet? Durch die Dichtefunktion. 3.3.19 Was sind Zufallsvariablen? Eine Zufallsvariable ist mathematisch gesehen eine Abbildung, sie ordnet jedem Ausgang eines Experiments eine Zahl zu. Ist Ω die Menge der möglichen Ausgänge eines Experiments, so ist eine Zufallsvariable eine Abbildung X : Ω → R. X(Ω) ist der Wertebereich von X: WX := X(Ω) = {x ∈ R | ∃ ω ∈ Ω mit X(ω) = x} Eine Zufallsvariable heißt diskret, wenn ihr Wertebereich WX endlich (oder abzählbar unendlich) ist. 3.3.20 Was ist die relative Häufigkeit Wenn ein Versuch n mal wiederholt wird gibt Z die relative Häufigkeit von A an: Z= Anzahl der Versuche, bei denen A aufgetreten ist Anzahl aller Versuche (n) 3.3.21 Erklären sie das Gesetz der großen Zahlen. Gegeben sei eine Zufallsvariable X. Ferner seien ε, δ > 0 beliebig aber fest. Setzt man N := Var[X] = const, εδ 2 dann gilt für alle n ≥ N : Sind X1 , . . . , Xn unabhängige Zufallsvariablen mit derselben Verteilung wie X und setzt man Z := DS-FAQ v1.0 X1 + . . . + X n n 26 3.3. Stochastik allgemein so gilt Pr [|Z − E[Z]| ≥ δ] ≤ ε Für den Beweis wird die Chebyshew-Ungleichung verwendet. Anschaulich bedeutet dies: Wenn wir ein Zufallsexperiment genügend oft wiederholen und das arithmetische Mittel Z aller Werte berechnen, welche die Zufallsvariablen Xi dabei annehmen, so gilt: Z liegt mit beliebig hoher Wahrscheinlichkeit 1 − ε in einem beliebig kleinen Sicherheitsstreifen [E[X] − δ, E[X] + δ] um den Erwartungswert E[X]. 3.3.22 Welchen Zusammenhang gibt es zwischen der Poisson- und der Exponentialverteilung? Wenn man Ereignisse zählt, wobei der zeitliche Abstand zweier Ereignisse exponentialverteilt ist, so ist die Anzahl der Ereignisse Poisson-Verteilt. Es gilt auch die Gegenrichtung, ist die Anzahl der Ereignisse Poisson-Verteilt, so ist der Abstand der Ereignisse exponentialverteilt. 3.3.23 Beweisen Sie E[a · X + b] = a · E[X] + b. E[a · X + b] = n (a · xi + b) · pi = a · i=1 n xi · pi +b i=1 =E[X] n pi = aE[X] + b i=1 =1 3.3.24 Beweisen Sie Var[X + b] = Var[X]. Var[X + b] = E[(X + b)2 ] − E[X + b]2 = E[X 2 + 2Xb + b2 ] − (E[X] + b)2 1 = E[X 2 ] + E[2Xb] + E[b2 ] − E[X]2 + 2bE[X] + b2 2 = E[X 2 ] + 2bE[X] + b2 − E[X]2 − 2bE[X] − b2 = E[X 2 ] − E[X]2 = Var[X] Wobei wir an Stelle 1 die Linearität der Erwartungswerte ausgenutzt haben. An der Stelle 2 machen wir uns den Satz von (3.3.23) zu Nutze. Außerdem ist noch zu erwähnen, daß E[b2 ] = b2 gilt, da b eine Konstante ist. Dieses Ergebnis sollte eigentlich auch nicht Verwundern, da die Varianz ja die Abweichung vom Erwartungswert angibt. Durch das b wird der Erwartungswert aber nur verschoben, die Abweichung darf sich dadurch nicht ändern. 3.3.25 Beweisen Sie Var[a · X + b] = a2 · Var[X]. Wie wissen bereits daß Var[X + b] = Var[X] und zeigen nur noch Var[a · X] = a2 · Var[X]. Var[a · X] = E[(aX)2 ] − E[aX]2 = a2 E[X 2 ] − (aE[X])2 = = a2 E[X 2 ] − a2 E[X]2 = a2 (E[X 2 ] − E[X]2 ) = a2 Var[X] 3.3.26 Beweisen Sie, daß für unabhängige Zufallsvariablen X, Y gilt E[X · Y ] = E[X] · E[Y ] Mit WX = x1 , . . . , xn und WY = y1 , . . . , yn gilt: E[X · Y ] n m = i=1 j=1 n n i=1 j=1 xi · Pr [X = xi ] = DS-FAQ v1.0 xi ji · Pr [X = xi , Y = yi ] Unabh. n m = xi ji · Pr [X = xi ] · Pr [Y = yj ] i=1 j=1 yj · Pr [Y = yj ] = E[X] · E[Y ] 27 3.4. Stochastische Prozesse 3.3.27 Beweisen Sie die Linearität der Erwartungswerte. E[X + Y ] = X(ω) + Y (ω) · Pr [ω] ω∈Wx = X(ω) · Pr [ω] + ω∈Wx Y (ω) · Pr [ω] ω∈Wx = E[X] + E[Y ] 3.3.28 Beweisen Sie, daß für unabhängige Zufallsvariablen X, Y gilt: Var[X + Y ] = Var[X] + Var[Y ]. Var[X + Y ] = E[(X + Y )2 ] − E[X + Y ]2 = E[X 2 + 2XY + Y 2 ] − E[X]2 + 2E[X]E[Y ] + E[Y ]2 = E[X 2 ] + E[2XY ] + E[Y 2 ] − E[X]2 + 2E[X]E[Y ] + E[Y ]2 1 = E[X 2 ] + 2E[X]E[Y ] + E[Y 2 ] − E[X]2 + 2E[X]E[Y ] + E[Y ]2 = E[X 2 ] − E[X]2 + E[Y 2 ] − E[Y ]2 = Var[X] + Var[Y ] Wobei wir an der Stelle 1 die Unabhängigkeit ausgenutzt haben, in dem wir die Erwartungswerte multiplizieren. 3.4 Stochastische Prozesse 3.4.1 Was sind Markovketten? Eine (endliche) Markovkette (mit diskreter Zeit) über der Zustandsmenge S = {0, . . . , n − 1} besteht aus einer unendlichen Familie von Zufallsvariablen Xt (t ∈ N0 ) mit Wertemenge S sowie einer Startverteilung q0 mit q0T ∈ Rn≥0 . Die Komponenten von q0 addieren sich zu Eins. Die Werte pij := Pr [Xt+1 = j | Xt = i] = const sind von t unabhängig und definieren die Zustandsübergangsmatrix P = (pij )0≤i,j≤n . Ferner gilt für jede Indexmenge I ⊂ {0, . . . , t − 1} und beliebige Zustände i, j, sk (k ∈ I) Pr [Xt+1 = j | Xt = i, ∀k ∈ I : Xk = sk ] = Pr [Xt+1 = j | Xt = i] = pij (∗) Wenn man S = N0 zuläßt, so spricht man von einer unendlichen Markovkette. Die Bedingung (∗) heißt Markov-Bedingung und kann anschaulich so geschrieben werden: pij = Pr [Kette ist jetzt in Zustand j — Kette war einen Schritt davor in Zustand i] = Pr [Kette ist jetzt in Zustand j — Kette war einen Schritt davor in Zustand i + zusätzliche Information] D.h.: Wenn wir den Zustand i zum Zeitpunkt t kennen, dann hängt die Übergangswahrscheinlichkeit zum Folgezustand j nur von i und j ab. Die Vergangenheit (Zustände zu Zeitpunkten < t) der Markov-Kette spielen hierbei keine Rolle. 3.4.2 Was ist eine stationäre Verteilung? P sei die Zustandsübergangsmatrix einer Markov-Kette. Einen Wahrscheinlichkeitsvektor π mit π = π · P nennen wir stationäre Verteilung der Markovkette. 3.4.3 Gibt es für alle Markovketten eine stationäre Verteilung? Für endliche, irreduzible, aperiodische Markovketten existiert der Grenzwert lim qt =: π t→∞ π ist zugleich die eindeutige stationäre Verteilung der Kette, d.h. der einzige Vektor mit π = π · P und i∈S πi = 1 DS-FAQ v1.0 28 3.4. Stochastische Prozesse 3.4.4 Was heißt aperiodisch? Ein Zustand heißt aperiodisch, wenn er die Periode T = 1 hat. Eine Markovkette, in der alle Zustände aperiodisch sind, heißt aperiodisch. 3.4.5 Erzählen sie etwas zum Gambler’s Ruin Problem. Beim Gambler’s Ruin Problem spielen zwei Spieler A und B um eine gewissen Geldbetrag M , wobei A a Geldeinheiten und B (M − a) Geldeinheiten zu Beginn des Spiels besitzt. Wenn man davon ausgeht, daß A ein Spiel mit Wahrscheinlichkeit p und B mit 1 − p gewinnt, so kann man Berechnung darüber anstellen, ob A B in den Ruin treiben (oder umgekehrt) wird und wie lang das voraussichtlich dauern wird. 3.4.6 Was versteht man unter einem Birth-Death-Prozeß? Ein Birth-Death-Prozeß ist eine kontinuierliche Markovkette mit einem Übergangsdiagramm der folgenden Form. 0 1 3 2 3.4.7 Wie berechnet man die stationäre Verteilung eines Birth-Death-Prozesses? Zuerst muß man π0 berechnen: π0 = 1+ 1 (k−1 k≥1 damit läßt sich dann πk bestimmen πk = π 0 · k−1 ) i=0 λi i=0 µi+1 λi µi+1 3.4.8 Was versteht man unter einer Warteschlange? Eine Warteschlange ist eine Sonderform eines Birth-Death-Prozesses (3.4.6) bei der alle Ankunftsraten µ und Abbarbeitungsraten λ gleich sind und somit die Verkehrsdichte ρ konstant ist. Warteschlange werden mit einer Kennung, die aus zwei Buchstaben und einer Zahl (z.B. M/M/1-Warteschlange) besteht klassifiziert. Dabei gibt die Zahl die Anzahl der Server (Telefone, Kassen,. . . ) an. Die beiden Buchstaben stehen für die Verteilung der Ankunfts- und Abbarbeitungsrate, möglich sind z.B. M für die Exponentialverteilung (memoryless), D für eine feste Dauer (deterministic) oder G für eine beliebige Verteilung (general). 3.4.9 M/M/1-Warteschlange: Für was steht die Zufallsvariable N und was ist ihr Erwartungswert? Die Zufallsvariable N beschreibt die derzeit im System befindlichen Jobs (die Wartenden + den der gerade bearbeitet wird). Für den Erwartungswert definieren wir zuerst ρ = λ/µ als Verkehrsdichte. Der Erwartungswert und Varianz von N sind dann ρ ρ E[N ] = Var[N ] = 1−ρ (1 − ρ)2 Dadurch wird klar, daß das System divergiert, wenn ρ gegen 1 geht. 3.4.10 Was kann man mit der Formel von Little berechnen? Oft interessiert einen bei Warteschlangen die Antwortzeit R, also die Gesamtverweildauer im System. Die Formel von Little besagt, daß E[N ] = λ · E[R] womit sich E[R] einfach berechnen läßt E[R] = DS-FAQ v1.0 E[N ] ρ = λ λ(1 − ρ) 29 3.5. Induktive Statistik 3.5 Induktive Statistik 3.5.1 Wofür benutzt man Schätzer? Eine Schätzvariable (oder Schätzer) benutzt man um einen Parameter einer Verteilung oder z.B. den Erwartungswert zu schätzen. Ein Schätzer ist eine Zufallsvariable, die sich aus mehreren Stichprobenvariablen (siehe 3.5.2) zusammensetzt. 3.5.2 Was ist das Grundprinzip der Statistik? Das Grundprinzip der induktiven Statistik ist es, viele Kopien (n) eines Zufallsexperiments auszuführen um Schlüsse auf die Gesetzmäßigkeit des einzelnen Experiments ziehen zu können. Die n Messungen heißen Stichprobe und die Variablen Xi nennt man Stichprobenvariablen. 3.5.3 Was ist die Idee beim Maximum-Likelihood-Prinzip? @ = (X1 , . . . , Xn ). Bei diesen handelt es sich Angenommen wir haben einen Vektor von Stichprobenvariablen X um Kopien der Zufallsvariable X mit der Dichte f (x; θ). Genau diesen Parameter θ der Verteilung wollen wir nun Schätzen. Der Ausdruck n ) f (x; θ) L(@x; θ) := i=1 entspricht der Wahrscheinlichkeit den Vektor @x zu erhalten wenn wir den Parameter mit dem Wert θ belegen. Jetzt wollen wir natürlich, daß dieser Wert maximal wird, wir wollen ja, daß es möglichst wahrscheinlich ist, daß unsere Vektor als Ergebnis rauskommt. Wie man im Beispiel sieht, ist es, um das Maximum zu bestimmen, oft nützlich das Produkt zu logarithmieren, um das Produkt zu zerschlagen. Beispiel: Wir haben einen Stichprobenvektor @x und nehmen an, daß er geometrisch verteilt ist. Setzen also ein n ) L(@x; θ) = (1 − p)xi −1 p i=1 Wir wollen, um den Parameter p zu schätzen das Maximum bestimmen, also logarithmieren wir erst mal (vorher ziehen wir noch p aus dem Produkt. n ) L(@x; θ) = (1 − p)xi −1 p = pn i=1 ln L(@x; θ) = ln pn n ) (1 − p)xi −1 i=1 n ) ! (1 − p)xi −1 i=1 = n ln p + ln(1 − p) = n ln p + ln(1 − p) n i=1 n n = n ln p + (xi − 1) ln(1 − p) i=1 xi − 1 = n ln p + ln(1 − p) n xi − ln(1 − p) i=1 xi − ln(1 − p)n = n ln p + ln(1 − p) i=1 n n 1 i=1 xi − n ln(1 − p) i=1 n Das arithmetische Mittel ist definiert als X= i=1 xi n daher ist die Summe, die bei uns auftaucht gleich n xi = nX i=1 So jetzt wird nach p abgeleitet n ln p + ln(1 − p)nX − ln(1 − p)n = nX n n − + p 1−p 1−p Auf den Hauptnenner bringen. . . n − npX (1 − p)n − npX + pn = p(1 − p) 1−p DS-FAQ v1.0 30 3.5. Induktive Statistik . . . und Nullstelle bestimmen n − npX 1−p n − npX = 0 = 0 npX pX = n = 1 1 p = X Wir haben als Maximum-Likelihood-Schätzer für den Parameter p der geometrischen Verteilung den Kehrwert des arithmetischen Mittels gefunden. 3.5.4 Was für Schätzer gibt es? Z.b. das arithmetische Mittel oder Maximum-Likelihood-Schätzer. 3.5.5 Gibt es noch andere Ansätze als Schätzer? Ja. Bei Konfidenzintervallen verwendet man zwei Schätzvariablen und kann damit die Güte der Schätzung bestimmen. Dadurch kann man erkennen, wie viele Stichproben nötigen sind, um den gesuchten Parameter mit einer bestimmten Fehlerwahrscheinlichkeit zu bestimmen. 3.5.6 Was sollte für eine Schätzvariable gelten? Der Schätzer sollte erwartungstreu sein. Gegeben sie eine Zufallsvariable X mit der Verteilung f (x; θ). Eine Schätzvariable U für den Parameter θ der Verteilung von X heißt erwartungstreu wenn gilt E[U ] = θ 3.5.7 Was ist ein Test? Ein Test ist ein Verfahren, um bestimmte Behauptungen (Hypothese) über Parameter zu testen. Die zu testende Behauptung bezeichnen wir mit H0 und nennen sie Nullhypothese. Beim Testen von Hypothesen können zwei Arten von Fehlern auftreten: Fehler 1. Art Fehler 2. Art : : H0 gilt und wird irrtümlich abgelehnt H0 gilt nicht und wird irrtümlich angenommen 3.5.8 Wie läuft ein Test ab? Ein Test läuft in vier Schritten ab 1. Um einen Test auswählen zu können, muß mal als erstes Annahmen über die Verteilung, (Un-)Abhängigkeit,usw. machen. 2. Im zweiten Schritt wird die Nullhypothese formuliert, also die Aussage, die überprüft werden soll. 3. Jetzt muß ein passendes Testverfahren ausgewählt werden. Das hängt von verschiedenen Parametern ab, z.B. der Anzahl der Stichproben, Bekanntheit der Varianz(en). Ein solcher Test enthält normalerweise die folgenden Angaben: 1. Der Test umfaßt eine Testgröße, eine Zufallsvariable, über die der Annahmebereich definiert ist. 2. Außerdem enthält der Test noch einen Ablehnungsbereich. 4. Im letzten Schritt wird der Test durchgeführt. Dazu wird der Wert der Testgröße berechnet und dann überprüft, ob er sich im Ablehnungsbereich befindet. Falls nicht, kann die Nullhypothese angenommen werden. 3.5.9 Wie hängen die Gebiete Statistik und Stochastik zusammen? Mit der Statistik kann man unbekannte Parameter näherungsweise bestimmen. Mit diesen Parameter kann man dann mit den Methoden der Stochastik allgemeine Aussagen machen. DS-FAQ v1.0 31 3.5. Induktive Statistik 3.5.10 Geben Sie einen Schätzwert für den Erwartungswert an. Ein erwartungstreuer Schätzer für den Erwartungswert ist das arithmetische Mittel X. 3.5.11 Geben Sie einen Schätzwert für die Varianz an. Ein Schätzwert für die Varianz ist: DS-FAQ v1.0 k 1 (Xi − X)2 n − 1 i=1 32 Kapitel 4 Tips&Tricks 4.1 Tips zu den verschiedenen Aufgabentypen Das ist eine kleine Zusammenstellung von Tips die verschiedenen Aufgabentypen. Kombinatorik • Wenn es sich bei einer Aufgabe um Menschen handelt, sind diese ziemlich sicher unterscheidbar. • Immer versuchen, das Problem in das Balls&Bins-Schema zu übertragen, damit kommt man meistens recht weit. Uns ist aufgefallen, daß es meistens falsch ist, wenn man sich etwas mit ”gesundem Menschenverstand” überlegt. Graphen • Wenn man an einer Aufgabe rumprobiert immer dran denken, daß der Graph nicht unbedingt zusammenhängend sein muß (außer es steht so da). Stochastik • An die Linearität des Erwartungswerts denken und versuchen Indikatorvariablen zu verwenden. Stochastische Prozesse • Bei einfachen Markovketten ist die Hitting-Time oft über die geometrische Verteilung zu berechnen. • Warteschlangen sind eigentlich das einfachste in diesem Kapitel, da muß man nur in die Formeln einsetzen. Statistik • Beim Maximum-Likelihood-Prinzip auf keinen Fall von schrecklich aussehenden Termen schocken lassen, das fliegt beim Ableiten eh alles raus. 4.2 4.2.1 Rechnen mit Summen Allgemeines Eine genaue Beschreibung zum Rechnen mit Summen befindet sich [3], wir haben hier nur mal die wichtigsten Regeln, die man unbedingt beherrschen sollte zusammengefaßt. 4.2.2 Schreibweisen ∞ ist gleichbedeutend mit n=0 n≥0 bedeutet zum Beispiel K = {1, 3} → k∈K k =1+3 k∈K o aj bk = ( u≤j,k≤o DS-FAQ v1.0 n=u an xn )( o bn xn ) n=u 33 4.3. Lösen von Rekursionen 4.2.3 Gesetze Distributivgesetz cak = c k∈K n ak k∈K n cai = c i=0 ai i=0 Assoziativgesetz (ak + bk ) = ak + k∈K n k∈K n (ai + bi ) = bk k∈K n ai + i=0 i=0 bi i=0 Produkt ak bm k∈K m∈M ∞ ∞ n ( an x )( bn xn n=0 n=0 = ( ak )( k∈K ∞ n = ( bm ) m∈M ak bn−k )xn n=0 k=0 Verschiebung nach links a0 xm + a1 xm+1 + ... = xm an xn n≥0 Verschiebung nach rechts am + am+1 x + ... = 4.3 n≥0 an xn − a0 − a1 x − ... − am−1 xm−1 xm Lösen von Rekursionen Auch hier gilt, daß [3] eine sehr gute Erklärung über das Lösen von Rekursionsgleichungen enthält. Für uns ist wichtig, daß wir erstmal unterscheiden, ob wir zur Lösung der Rekursion eine der Formel benutzen können, oder ob wir die Lösung mit Erzeugendenfunktionen probieren müssen. 4.3.1 Lösen linearer Rekursionsgleichungen 1. und 2. Grades Wenn die Rekursionsgleichung linear, ersten Grades (homogen oder inhomogen) oder linear, homogen zweiten Grades ist, existieren Formeln zur Lösung dieser Rekursionsgleichung. In dieses muß eigentlich nur eingesetzt werden und man kann die Lösung ablesen. Das Beispiel unter den Formeln zeigt wie es geht. Formeln 1. Homogene, lineare Rekursionsgleichungen 1. Grades Eine Rekursionsgleichung der Form hat die Lösung x0 = b0 xn = axn−1 xn = b0 an 2. Inhomogene, lineare Rekursionsgleichungen 1. Grades DS-FAQ v1.0 34 4.3. Lösen von Rekursionen Eine Rekursionsgleichung der Form x0 xn hat die Lösung xn = = b0 = axn−1 + b1 n −1 b0 an + b1 aa−1 b0 + nb1 wenn a = 1 wenn a = 1 3. Homogene, lineare Rekursionsgleichungen 2. Grades Eine Rekursionsgleichung habe die Form x0 = c0 x1 xn = c1 = a1 xn−1 + a2 xn−2 weiter seien α und β die Lösungen der Gleichung t2 − a1 t − a2 = 0 und seien c1 −c0 β wenn α = β α−β A := c1 −c0 α wenn α = β α und B := Dann gilt xn = c1 −c0 α α−β c0 wenn α = β wenn α = β. Aαn − Bβ n (An + B)αn wenn α = β wenn α = β Beispiel (Fibonacci-Zahlen) Die Rekursionsgleichung für die Fibonacci-Zahlen lautet: F0 F1 Fn+2 = 0 = 1 = Fn+1 + Fn für alle n ≥ 0 Los geht’s: Schritt 1 Typ und Koeffizienten bestimmen. Es handelt sich um eine lineare, homogene Rekursionsgleichung 2. Grades und wir können die Formel von (4.3.1) benutzen. c0 = F0 = 0 c1 xn = = ⇓ F1 = 1 xn−2 + xn−1 für alle n ≥ 2 a1 = 1 und a2 = 1 Schritt 2 die Gleichung t2 − a1 t − a2 = 0 lösen um α und β zu bestimmen. 0 = t2 − t − 1 √ √ 1± 5 1± 1+4 t1,2 = = 2 √2 1+ 5 α = 2√ 1− 5 β = 2 DS-FAQ v1.0 35 4.3. Lösen von Rekursionen Schritt 3 A und B bestimmen Es gilt α = β, deshalb ist A= 1 c1 − c0 β =√ α−β 5 B= 1 c1 − c0 α =√ α−β 5 und Schritt 4 Lösung aus Formel ablesen xn Fn 4.3.2 = Aαn − Bβ n ⇓ √ !n 1+ 5 1 1 = √ −√ 2 5 5 √ !n 1− 5 2 Erzeugendenfunktionen Falls keine der Lösungsformel anwendbar ist, kann die Rekursion mit Erzeugendenfunktionen gelöst werden, wir stellen hier ein allgemeines Schema zum Lösen von Rekursion anhand von zwei Beispielen dar. Für das genauere Verständnis des Prinzips der Erzeugendenfunktionen siehe [1] oder [3]. Vorgehensweise Zum Lösen von Rekursionen führen wir hier das im Concrete Mathematics [3, S.337] beschriebene Verfahren vor, da wir der Meinung sind, daß es sehr flexibel und einfach zu verstehen (oder zumindest einfach anzuwenden) ist. In den Klausuren und Übungsblättern ist uns noch keine Rekursion untergekommen, die damit nicht lösbar war. Zum Lösen der Rekursion gn verwenden wir Erzeugendenfunktionen und gehen nach folgendem klarem Schema vor. Bestimmte Punkte die hier noch nicht verstanden werden, werden sicher in den Beispielen klar. 1. Zuerst wird die Rekursion so hingeschrieben, so daß sie für alle Werte n ∈ N gültig ist, wobei wir annehmen, daß g−1 = g−2 = · · · = 0. Das heißt, wir versuchen die Startwerte mit in die Rekursionsgleichung einzubauen. 2. Wir multiplizieren beide Seiten der Gleichung mit z n und summieren über alle n. Das ergibt auf der linken Seite die Summe n≥0 gn z n , die die Erzeugendenfunktion von G(z) ist. Die rechte Seite behandeln wir so, daß wir Ausdrücke erhalten, in denen G(z) vorkommt. Terme der rechten Seite, die kein gn enthalten lesen wir aus der Tabelle ab. 3. Wir lösen die entstandene Gleichung und erhalten eine geschlossene Form für G(z). 4. Wir schreiben G(z) als formale Potenzreihe und können die Koeffizienten für z n ablesen; das ist die geschlossene Form von gn . Beispiel 1 (der ”kleine Gauss” als Rekursion) Gegeben sei folgende Rekursionsgleichung g0 = 0 gn = gn−1 + n (4.1) für n > 0 (4.2) Diese wollen wir jetzt anhand unseres Schemas lösen. Schritt 1 Wir testen erstmal ob die Gleichung (4.2) für alle Werte, also auch die Startwerte, gilt. gn g0 = gn−1 + n = g−1 + 0 = 0 + 0 = 0 g1 = g0 + 1 = 0 + 1 = 1 .. . (4.3) Da laut (4.1) g0 = 0 sein soll, ist (4.3) korrekt, für die anderen muß es sowieso passen. Wir müssen also nicht in Aktion treten und es geht weiter. DS-FAQ v1.0 36 4.3. Lösen von Rekursionen Schritt 2 Wir multiplizieren beide Seiten der Gleichung (4.2) mit z n und summieren über alle n. Das ergibt gn z n = gn−1 z n + nz n = n≥0 n≥0 n≥0 = gn z n+1 n≥0 + nz n (4.4) n≥0 Wir erinnern uns das die Erzeugendenfunktion von gn G(z) = n≥0 gn z n ist und versuchen deshalb alle Terme die ein gn enthalten entsprechend hinzubiegen. gn z n + nz n = G(z) = z n≥0 = zG(z) + n≥0 nz n n≥0 Jetzt müssen wir noch den Term ohne gn in der Tabelle der Erzeugendenfunktionen (A.4) nachschauen. Allerdings haben wir ein Problem, wir finden diesen Term dort nicht. Aber wir geben natürlich nicht auf und formen die Gleichung (4.2) einfach ein bißchen um (das ist immer einen Versuch wert, wenn man keine passende Erzeugendenfunktion findet). (4.5) gn = gn−1 + (n + 1) − 1 0 Mit der Gleichung (4.5) durchlaufen wir jetzt nochmal das ganze Prozedere von Schritt 2. gn z n = gn−1 z n + (n + 1)z n − 1 · zn n≥0 n≥0 G(z) = zG(z) + n≥0 n (n + 1)z − n≥0 n≥0 1 · zn n≥0 Diesmal können wir die Terme ohne gn in der Tabelle der Erzeugendenfunktionen (A.4) nachschauen und erhalten G(z) = zG(z) + 1 1 − 2 (1 − z) 1−z (4.6) Womit wir auch schon zu Schritt 3 übergehen können. Schritt 3 Wir lösen die Gleichung (4.6) nach G(z) auf. G(z) = zG(z) + G(z) − zG(z) = G(z)(1 − z) = G(z) = 1 − (1 − z) z = zG(z) + (1 − z)2 (1 − z)2 z (1 − z)2 z (1 − z)2 z (1 − z)3 (4.7) Wir wissen also, daß z/(1 − z)3 die geschlossene Form von G(z) ist. Schritt 4 Damit wir die Koeffizienten ablesen können, müssen wir hier eine Partitialbruchzerlegung machen. G(z) = z B A C + = + (1 − z)3 1−z (1 − z)2 (1 − z)3 mit Hauptnenner multiplizieren ergibt z = (1 − z)2 A + (1 − z)B + C jetzt wird aufgelöst und nach Potenzen geordnet DS-FAQ v1.0 z z = (1 − 2z + z 2 )A + B − Bz + C = A − 2zA + z 2 A + B − Bz + C z = Az 2 + (−2A − B)z + (A + B + C) 37 4.3. Lösen von Rekursionen Koeffizientenvergleich: A = 0 −2A − B = 1 =⇒ B = −1 A+B+C = 0 =⇒ C = 1 Diese Koeffizienten setzen wir jetzt ein und erhalten G(z) = 1 1 − (1 − z)3 (1 − z)2 Nun können wir wieder in der Tabelle (A.4) nachschauen und erhalten 2+n 2+n G(z) = − (n + 1) = −n−1 n n (4.8) (4.9) Die Gleichung (4.9) ist nun die geschlossen Form für gn . Wir wissen aber, daß eigentlich der ”kleine Gauss” rauskommen soll, deshalb verschönern wir das Ergebnis noch ein bißchen. 2+n (n + 2)2 (2 + n)! −n−1= −n−1 −n−1 = n 2! · n! 2 (n + 2)2 − 2n − 2 (n + 2)(n + 1) − 2n − 2 = = 2 2 n2 + n n2 + 2n + n + 2 − 2n − 2 = = 2 2 n(n + 1) = (4.10) 2 Beispiel 2 Gegeben sei folgende Rekursionsgleichung g0 g1 = 0 = 1 (4.11) (4.12) gn = 2gn−1 − gn−1 + 2 für n ≥ 2 (4.13) Diese wollen wir jetzt anhand unseres Schemas lösen. Schritt 1 Wir testen erstmal ob die Gleichung (4.13) für alle Werte, also auch die Startwerte, gilt. g0 = 2g−1 − g−2 + 2 = 2 · 0 − 0 + 2 = 2 Das ist schon mal falsch, da ja laut (4.11) 0 rauskommen soll. Das heißt wir müssen korrigieren. Dabei sollten wir kurz eine vielleicht unbekannte Schreibweise, die Iverson convention einführen. Bei der Iverson convention wird eine Aussage in eckigen Klammern geschrieben, falls diese True ist, erhält die Klammer den Wert 1, ansonsten 0. Beispiele: [5 = 5] = 1 [5 = 3] = 0 [5 | 10] = 1 [5 | 12] = 0 oder [p ist prim] = 1 0 falls p Primzahl sonst Dies können wir jetzt benutzen, um unsere Rekursionsgleichung auszugleichen. Da wir ja wollen, daß g0 = 0 und nicht 2 ist, ziehen wir im Fall n = 0 einfach zwei 1er ab gn = 2gn−1 − gn−1 + 2 − 2[n = 0] (4.14) Wenn wir jetzt g0 berechnen Pakt es. g0 = 2g−1 − g−2 + 2 − 2[0 = 0] = 2 · 0 − 0 + 2 − 2 · 1 = 0 DS-FAQ v1.0 38 4.3. Lösen von Rekursionen Es zeigt sich, daß die Gleichung (4.14) aber immer noch bei dem anderen Startwert g1 = 1 versagt g1 = 2g0 − g−1 + 2 − 2[1 = 0] = 2 · 0 − 0 + 2 − 2 · 0 = 2 = 1 Also müssen wir im Fall n = 1 auch noch eins abziehen und erhalten damit die korrekte Rekursionsgleichung gn = 2gn−1 − gn−1 + 2 − 2[n = 0] − [n = 1] (4.15) die jetzt bei beiden Startwerten den korrekten Wert berechnet g0 g1 = 2g−1 − g−2 + 2 − 2[0 = 0] − [0 = 1] = 2 · 0 − 0 + 2 − 2 · 1 − 0 = 0 = 2g0 − g−1 + 2 − 2[1 = 0] − [1 = 1] = 2 · 0 − 0 + 2 − 2 · 0 − 1 = 1 So jetzt kann es endlich losgehen Schritt 2 Wir multiplizieren beide Seiten der Gleichung (4.15) mit z n und summieren über alle n. Das ergibt gn z n = 2gn−1 z n − gn−2 z n + 2 · zn − 2[n = 0]z n − [n = 1]z n = n≥0 n≥0 n≥0 = 2 gn z n+1 n≥0 − n≥0 gn z n+2 +2 n≥0 n≥0 n z −2 n≥0 n≥0 n [n = 0]z − n≥0 [n = 1]z n (4.16) n≥0 Wir erinnern uns das die Erzeugendenfunktion von gn G(z) = n≥0 gn z n ist und versuchen deshalb alle Terme die ein gn enthalten entsprechend hinzubiegen. gn z n − z 2 gn z n + 2 zn − 2 [n = 0]z n − [n = 1]z n G(z) = 2z n≥0 n≥0 = 2zG(z) − z G(z) + 2 2 n≥0 n z −2 n≥0 n≥0 n [n = 0]z − n≥0 n≥0 [n = 1]z n n≥0 Jetzt müssen wir noch den Term ohne gn in der Tabelle der Erzeugendenfunktionen (A.4) nachschauen (und finden diesmal auch alle). 2 G(z) = 2zG(z) − z 2 G(z) + −2−z (4.17) 1−z Womit wir auch schon zu Schritt 3 übergehen können. Schritt 3 Wir lösen die Gleichung (4.17) nach G(z) auf. G(z) = 2zG(z) − z 2 G(z) + G(z) − 2zG(z) + z 2 G(z) = G(z)(1 − 2z + z 2 ) = G(z)(1 − z)2 = G(z) = 2 −2−z 1−z 2 −2−z 1−z 2 − 2(1 − z) − z(1 − z) 1−z z2 + z 1−z z2 + z (1 − z)3 (4.18) Wir wissen also, daß (4.18) die geschlossene Form von G(z) ist. Schritt 4 Damit wir die Koeffizienten ablesen können, müssen wir wieder eine Partitialbruchzerlegung machen. G(z) = z2 + z B A C + = + (1 − z)3 1−z (1 − z)2 (1 − z)3 mit Hauptnenner multiplizieren ergibt z = (1 − z)2 A + (1 − z)B + C DS-FAQ v1.0 39 4.3. Lösen von Rekursionen jetzt wird aufgelöst und nach Potenzen geordnet z2 + z z2 + z z2 + z = (1 − 2z + z 2 )A + B − Bz + C = A − 2zA + z 2 A + B − Bz + C = Az 2 + (−2A − B)z + (A + B + C) Koeffizientenvergleich: A = 1 −2A − B = 1 =⇒ B = −3 A+B+C = 0 =⇒ C = 2 Diese Koeffizienten setzen wir jetzt ein und erhalten G(z) = 1 3 2 − + 2 (1 − z) (1 − z) (1 − z)3 Nun können wir wieder in der Tabelle (A.4) nachschauen und erhalten 2+n G(z) = 1 − 3(n + 1) + 2 n (4.19) (4.20) Die Gleichung (4.20) ist nun die geschlossen Form für gn . Wir können aber wieder noch ein bißchen verschönern. 2+n (n + 2)(n + 1) 1 − 3(n + 1) + 2 6 = 1 − 3n − 3 + 2 n 2 = −3n − 2 + (n + 2)(n + 1) = −3n − 2 + n2 + n + 2n + 2 = n2 DS-FAQ v1.0 (4.21) 40 Anhang A Tabellen A.1 Algebraische Strukturen A.1.1 Halbgruppe Eine Algebra A = S, ◦ mit einem zweistelligen Operator ◦ heißt Halbgruppe, falls ◦ assoziativ ist. Es gilt a ◦ (b ◦ c) = (a ◦ b) ◦ c für alle a, b, c ∈ S Beispiele • die ganzen Zahlen Z mit Addition • die natürlichen Zahlen N mit Addition Gegenbeispiel • eine Algebra mit einer nicht assoziativen Verknüpfung ist ◦ a b a b b b a b Hier ist (a ◦ b) ◦ a = a ◦ a = b während a ◦ (b ◦ a) = a ◦ b = a ist. A.1.2 Monoid Eine Algebra A = S, ◦ mit einem zweistelligen Operator ◦ heißt Monoid, falls M1. ◦ assoziativ ist und M2. A ein neutrales Element e ∈ S besitzt. Für e gilt: e ◦ x = x ◦ e = x für alle x ∈ S (e ist eindeutig) Beispiele • die reellen Zahlen R mit Addition, neutrales Element ist 0 • die reellen Zahlen R mit Multiplikation, neutrales Element ist 1 Gegenbeispiel • N, + ist eine Halbgruppe aber kein Monoid, da es kein neutrales Element gibt A.1.3 Gruppe Eine Algebra A = S, ◦ mit einem zweistelligen Operator ◦ heißt Gruppe, falls G1. ◦ assoziativ ist und G2. A ein neutrales Element e ∈ S besitzt. Für e gilt: e ◦ x = x ◦ e = x für alle x ∈ S (e ist eindeutig) G3. es zu jedem Element a ∈ S ein Inverses a−1 gibt. Für a−1 gilt: a−1 ◦ a = a ◦ a−1 = e Beispiele • die ganzen Zahlen Z mit Addition • Zn , +n mit Addition modulo n Gegenbeispiel DS-FAQ v1.0 41 A.1. Algebraische Strukturen • N0 , + ist eine Monoid aber keine Gruppe, da nur die Null ein Inverses hat A.1.4 abelsch Eine Halbgruppe (ein Monoid, eine Gruppe) heißt abelsch falls ◦ kommutativ ist. Es gilt a ◦ b = b ◦ a für alle a, b ∈ S Beispiel • die reellen Zahlen R mit Addition sind eine abelsche Gruppe Gegenbeispiel • Sei Σ ein endliches Alphabet und Σ∗ die Menge aller Worte über Σ. Bezeichnen wir mit ◦ die Konkatenation von zwei Worten, so ist Σ∗ , ◦ ein nicht abelsches Monoid. Das neutrale Element ist das leere Wort ε. Beispiel: für das Alphabet Σ = {ε, a, b} gilt: ◦ ε ε ε a a b b a a aa ba b b ab bb A.1.5 Ring Eine Algebra A = S, ⊕, mit zwei zweistelligen Operatoren ⊕ und heißt Ring, falls R1. S, ⊕ eine abelsche Gruppe mit neutralem Element 0 ∈ S ist, R2. S \ {0}, ein Monoid mit neutralem Element 1 ∈ S ist und R3. a (b ⊕ c) = (a b) ⊕ (a c) (b ⊕ c) a = (b a) ⊕ (c a) (⊕ und sind distributiv) für alle a, b, c ∈ S für alle a, b, c ∈ S Beispiel • die ganzen Zahlen mit Addition und Multiplikation • der Zn , +n , ·n mit Addition modulo n und Multiplikation modulo n A.1.6 Körper Eine Algebra A = S, ⊕, mit zwei zweistelligen Operatoren ⊕ und heißt Körper, falls K1. S, ⊕ eine abelsche Gruppe mit neutralem Element 0 ∈ S ist, K2. S \ {0}, eine abelsche Gruppe mit neutralem Element 1 ∈ S ist und K3. a (b ⊕ c) = (a b) ⊕ (a c) für alle a, b, c ∈ S Beispiel • die reellen Zahlen mit Addition und Multiplikation • der Zn , +n , ·n mit Addition modulo n und Multiplikation modulo n, falls n eine Primzahl ist • das GF (pk ), wobei p Primzahl ist Gegenbeispiel • der Zn , +n , ·n mit Addition modulo n und Multiplikation modulo n ist ein kein Körper wenn n keine Primzahl ist, sondern ein Ring, da bezüglich der Multiplikation nicht jedes Element ein Inverses hat • die natürlichen Zahlen sind kein Körper, da die Addition kein neutrales Element hat und die Element weder für die Addition noch für die Multiplikation ein Inverses haben. A.1.7 Boolesche Algebra Eine Algebra A = S, ⊕, , ¬ mit zwei zweistelligen Operatoren ⊕ und und einem einstelligen Operator ¬ heißt Boolesche Algebra, falls B1. S, ⊕ ein abelsches Monoid mit neutralem Element 0 ∈ S ist, B2. S, ein abelsches Monoid mit neutralem Element 1 ∈ S ist und B3. für den Operator ¬ gilt: a ⊕ (¬a) = 1 für alle a ∈ S und a (¬a) = 0 für alle a ∈ S DS-FAQ v1.0 42 A.1. Algebraische Strukturen B4. das Distributivgesetz gilt, d.h. a (b ⊕ c) = (a b) ⊕ (a c) a ⊕ (b c) = (a ⊕ b) (a ⊕ c) für alle a, b, c ∈ S und für alle a, b, c ∈ S Beispiele • die True/False Algebra • die Potenzmengenalgebra DS-FAQ v1.0 43 A.2. Endliche Summen A.2 Endliche Summen n axi = a i=0 n i = i=0 n n n i=0 i n(n + 1) 2 (kleiner Gauss) = n(n + 1)(2n + 1) 6 i3 = n2 (n + 1)2 4 i=0 an−i bi n n i i=0 n 2 n i i=0 n r + i i i=0 n i k i=0 n n i i i=0 n n i2 i i=0 n r s i n−i i=0 A.3 (x = 1) i2 i=0 n 1 − xn+1 1−x = (a + b)n (Binomische Formel) = 2n = 2n n r+n+1 n n+1 = k+1 = = n2n−1 = (n2 + n)2n−2 = r+s n (Vandermonde) Unendliche Summen ∞ 1 k! i=0 ∞ = a 1−x ixi = x (1 − x)2 xi i = −ln(1 − x) axi i=0 ∞ i=1 ∞ i=1 ∞ −kx e i=0 DS-FAQ v1.0 = e = 1 1 − e−x (−1 < x < 1) (−1 < x < 1) (−1 ≤ x ≤ 1) (x > 0) 44 A.4. Erzeugendenfunktionen A.4 Erzeugendenfunktionen Notation Wenn G(z) = n≥0 gn z n eine Erzeugendenfunktion ist wird mit [z n ]G(z) = [z n ] n≥0 gn z n der Koeffizient von gk bezeichnet. Zum Beispiel 1 (n + 1)z n → gn = [z n ]G(z) = G(z) = (1 − z)2 n≥0 Die Formeln Das ist die wichtigste Formel aus ihr lassen sich die meisten anderen ableiten. m + n a [z n ] apn z n = n (1 − pz)m+1 (A.1) n≥0 1 · zn = 1 1−z (−1)n z n = 1 1+z (n + 1)z n = 1 (1 − z)2 = 1 (1 − z)c = 1 1 − cz = (1 + z)c 1 · z 2n = 1 1 − z2 1 zn n = [z n ] (1, 1, 1, . . .) n≥0 [z n ] (1, −1, 1, −1, . . .) n≥0 [z n ] (1, 2, 3, . . .) n≥0 m+1 m+2 1, , ,... m m 1, c, c2 , c3 , . . . [z n ] c + n − 1 zn n n≥0 [z n ] cn z n n≥0 c c 1, , ,... 2 3 c [z ] zn n n n≥0 [z n ] (1, 0, 1, 0, . . .) n≥0 1 1 1 0, 1, , , , . . . 2 3 4 1 1 1 0, 1, − , , − , . . . 2 3 4 [z n ] n≥0 1 1 1 1 ,... 0, 1, , , , 2 6 24 120 [z n ] (−1)n+1 zn n ln 1 1−z = ln(1 + z) n≥0 [z n ] = ez n≥0 Die Formel für die Iverson convention (1, 0, 0, 0, . . .) 1 zn n! [z n ] [n = 0]z n = 1 n≥0 (. . . , 0, 0, 1, 0, 0 . . .) [z n ] [n = m]z n = zm n≥0 DS-FAQ v1.0 45 A.5. Verteilungen A.5 Verteilungen Hier sind noch mal alle Verteilungen für den schnellen Überblick zusammengefaßt. Außerdem gibts zu jeder Verteilung ein Beispiel. Diese Beispiele stammen teilweise aus [8]. A.5.1 Bernoulli-Verteilung Ein einzelner Versuch, wobei die Zufallsvariable den Wert 1 bei Erfolg und 0 bei Mißerfolg annimmt. Wahrscheinlichkeitsraum Wx = {0, 1} Dichtefunktion fX (x) = Pr [X = x] = Verteilungsfunktion p q =1−p falls X = 1 falls X = 0 Uninteressant, weil hier nur ein einzelner Versuch beobachtet wird. Erwartungswert und Varianz E[X] Var[X] = p = pq Verbindung zu anderen Verteilungen Die Bernoulli-Verteilung ist grundlegend für die Binomialverteilung, Geometrische Verteilung und Pascal-Verteilung. Wichtig ist, dass es sich hier nur um einzelnen Versuch handelt. Beispiele • Münzwurf Pr [“Kopf“] = fX (1) = 1 2 • Würfel Pr [“kein 6-er“] = fX (0) = A.5.2 5 6 Binomialverteilung Eine binomialverteilte Zufallsvariable X mit den Parametern n und p beschreibt in einer Serie von n unabhängigen Bernoulliversuchen die Anzahl derjenigen Experimente, bei denen das Ereignis A eintritt. Wahrscheinlichkeitsraum WX = {0, ..., n} Dichtefunktion n x n−x fX (x) = Pr [X = x] = p q x Verteilungsfunktion FX (x) = Pr [X ≤ x] = x n i=0 i pi q n−i Erwartungswert und Varianz E[X] Var[X] = np = npq Verbindung zu anderen Verteilungen Die Binomialverteilung kann sowohl von der Poisson- als auch von der Normalverteilung angenähert werden. Die geometrische und die Pascal-Verteilung sind Spezialfälle der Binomialverteilung. DS-FAQ v1.0 46 A.5. Verteilungen Beispiele • Würfel Pr [“genau 4 6-er bei genau 10 Würfen] = fX (4) = 10 4 4 6 1 5 6 6 • Klausur mit 20 Fragen. Zum Bestehen müssen 10 Fragen richtig sein. Pr [X ≥ 10] = 1 − FX (9) = 1− 9 i 20−i 20 1 3 i 4 4 i 20−i 20 1 3 i 4 4 i=0 20 = i=10 A.5.3 Geometrische Verteilung Eine Zufallsvariable X, die die Anzahl der unabhängigen Bernoulliversuche beschreibt, bis das Ereignis A das erste mal auftritt, heißt geometrisch verteilt. Wahrscheinlichkeitsraum WX = {1, 2, ...} Dichtefunktion fX (x) = Pr [X = x] = q x−1 p Verteilungsfunktion FX (x) = Pr [X ≤ x] = x q i−1 p i=1 Erwartungswert und Varianz E[X] = Var[X] = 1 p q p2 Verbindung zu anderen Verteilungen Bei der geometrischen Verteilung handelt es sich wie bei der Binomialverteilung um mehrere unabhängige bernoulliverteilte Zufallsvariablen. Beispiele • Würfel 1 Pr [“Erste 6 nach genau 5 Versuchen “] = fX (5) = • Roulette 1 4 5 1 6 6 i−1 6 36 1 Pr [“Erste 0 nach höchstens 6 Versuchen “] = FX (5) = 37 37 i=1 • Roulette 2 i−1 99 36 1 Pr [“mindestens 100 Versuche bis zur ersten 0 “] = 1 − FX (99) = 1 − 37 37 i=1 DS-FAQ v1.0 47 A.5. Verteilungen Hier kommt uns zur Berechnung ein kleiner Trick zu gute. Pr [X ≥ n] = 1 − Pr [X < n] = 1 − Pr [X ≤ n − 1] = 1 − FX (n − 1) = 1− n−1 q i−1 p=1−p i=1 p q n−1 q i−1 i=1 n−1 =1−p ! n−1 n−1 i=1 qn q p −q 0 q i=1 i=0 n p 1 − qn 1 − q p p 1 −1 =1− − = 1− q 1−q q p q 1 − qn 1−q q qn − − = 1− =1− q q q q = 1− qi = 1 − = q n−1 Also gilt: Pr [X ≥ n] = q n−1 (A.2) An der Stelle 1 haben wir die Summe aus der Tabelle auf Seite 44 abgelesen. Das können wir jetzt wunderbar benutzen: 99 36 Pr [“mindestens 100 Versuche bis zur ersten 0 “] = Pr [X ≥ 100] = 37 Aus (A.2) wird auch schön ersichtlich, daß lim Pr [X ≥ n] = 0 n→∞ A.5.4 Poisson-Verteilung Die Poisson-Verteilung tritt immer dann auf, wenn wir über einen festen Zeitraum zählen, wie oft ein bestimmtes Ereignis eintritt. Dabei müssen folgende Voraussetzungen erfüllt sein: • Es treten nie zwei Ereignisse gleichzeitig auf. • Die Wahrscheinlichkeit, daß ein Ereignis in dem sehr kleinen Zeitintervall δt auftritt, ist ungefähr λδt. • Die Anzahl der Ereignisse in einem festen Zeitintervall hängt nur von der Länge des Intervalls, nicht aber von der Lage auf der Zeitachse (d.h. nicht von einer absoluten Zeit). • Wenn man zwei disjunkte Zeitintervalle betrachtet, so sind die Anzahlen der Ereignisse in diesen Zeiträumen voneinander unabhängig. Wahrscheinlichkeitsraum WX = {0, 1, 2, . . .} Dichtefunktion fX (x) = P r[X = x] = Verteilungsfunktion FX (x) = P r[X ≤ x] = e−λ λx x! x e−λ λi i=0 x! Erwartungswert und Varianz E[X] = λ Var[X] = λ Verbindung zu anderen Verteilungen Näherung für die Binomialverteilung. Wenn die Anzahl der Ereignisse poisson-verteilt ist, sind die Abstände zwischen den Ereignissen exponentialverteilt. DS-FAQ v1.0 48 A.5. Verteilungen Beispiele • Gozilla Ein Rechenzentrum wird im Mittel 10−4 pro Jahr von Gozilla zerstört. Wie wahrscheinlich ist es, daß die Riesenechse mehr als zwei mal in einem Jahr zuschlägt? Da bei der Poisson-Verteilung gilt, daß λ = E[X] und wir den Erwartungswert wissen, können wir λ sehr einfach bestimmen: λ = E[X] = 10−4 . Für die gesuchte Wahrscheinlichkeit gilt: Pr [X ≥ 2] = 1 − Pr [X = 0] − Pr [X = 1] ≈ 5 · 10−9 • Roulette Die Zufallsvariable X := “Anzahl der Ausfälle 0 bei 100-maligem Drehen des Rades“ hat den Erwartungswert E[X] = λ = 100 · Pr [X ≤ 2] = = 1 37 . Daraus ergibt sich 2 e−λ λi e−λ λ0 e−λ λ1 e−λ λ2 + + = i! 0! 1! 2! i=0 2 ! 100 100 1 100 1+ + e− 37 37 2 37 = = 0, 492962 . . . Die gesuchte Wahrscheinlichkeit beträgt also etwa 49,3%. A.5.5 Pascal-Verteilung Eine Zufallsvariable X, die die Anzahl der unabhängigen Bernoulliversuche beschreibt, bis das Ereignis A das r-te mal auftritt, heißt pascal-verteilt. Wahrscheinlichkeitsraum WX = {1, 2, 3, . . .} Dichtefunktion fX (x) = Pr [X = x] = Verteilungsfunktion FX (x) = Pr [X ≤ x] = x − 1 r x−r p q r−1 x i−1 i=1 r−1 pr q i−r Erwartungswert und Varianz E[X] = Var[X] = r p rq p2 Verbindung zu anderen Verteilungen Bei der Pascal-Verteilung handelt es sich wie bei der Binomialverteilung um mehrere unabhängige bernoulliverteilte Zufallsvariablen. Beispiel • Würfel A.5.6 9 3 7 p q Pr [“der dritte 6-er nach genau 10 Würfen“] = fX (10) = 2 Hypergeometrische Verteilung Gegeben sei eine Urne mit T Bällen. Davon sind R rot und der Rest (T − R) weiß. Die Zufallsvariable beschreibt die Anzahl der roten Bällen beim ziehen von n Bällen aus der Urne an. DS-FAQ v1.0 49 A.5. Verteilungen Wahrscheinlichkeitsraum WX = {max(0, n − T + R), . . . , min(n, R)} RT −R Dichtefunktion fX (x) = Pr [X = x] = x Tn−x n Verteilungsfunktion x FX (x) = Pr [X ≤ x] = RT −R i max(0,n−T +R) Tn−i n Erwartungswert und Varianz E[X] = Var[X] = nR T n(T − n) R T − R T −1 T T Beispiel • Urne 5 Pr [”3 rote Bälle bei fünfmaligen Ziehen aus Urne mit T = 10, R = 5”] = A.5.7 3 5 105−3 5 Normalverteilung Diese Verteilung spielt vor allem in der Statistik eine große Rolle. Wenn man Größen betrachtet, die um einen Wert schwanken, so kann man dies meist gut durch die Normalverteilung modellieren. Wahrscheinlichkeitsraum WX = R Dichtefunktion fX (x) = Pr [X = x] = # $ (x − µ)2 1 √ exp − := φ(x; µ, σ) 2σ 2 σ 2π Verteilungsfunktion FX (x) = Pr [X ≤ x] = 1 √ σ 2π # $ (t − µ)2 exp − dt := Φ(x; µ, σ) 2σ 2 −∞ " x Erwartungswert und Varianz E[X] Var[X] Verbindung zu anderen Verteilungen Verteilungen genähert werden. = µ = σ2 Mit dem zentralen Grenzwertsatz (siehe auch 3.2.4) können beliebige Beispiel • Allgemein gilt FX (x) = Pr [X ≤ x] = Pr [a ≤ X ≤ b] = Pr [X = x] = Φ(−z) = DS-FAQ v1.0 x−µ Φ σ b−µ a−µ Φ −Φ , für a < b σ σ 0 1 − Φ(z) 50 A.5. Verteilungen • Stahlbolzen Die Zufallsvariable X, welche die Durchmesser (in mm) der von einer Maschine produzierten Stahlbolzen beschreibt, sei näherungsweise normalverteilt mit dem Erwartungswert µ = 8 und der Standardabweichung σ = 0, 2. Ein Bolzen ist unbrauchbar, falls sein Durchmesser vom Sollwert 8mm um mehr als 0,4mm abweicht. Wie hoch ist die Wahrscheinlichkeit, daß ein zufällig ausgewählter Bolzen unbrauchbar ist? Wir formalisieren die Frage Pr [|X − 8| > 0, 4] = 1 − Pr [|X − 8| ≤ 0, 4] = 1 − Pr [7, 6 ≤ X ≤ 8, 4] Wir verwenden jetzt die standardisierte Zufallsvariable Z = X−8 0,2 die N (0; 1)-verteilt ist. 8, 4 − 8 7, 6 − 8 1 − Pr [7, 6 ≤ X ≤ 8, 4] = 1 − Φ −Φ 0, 2 0, 2 = 1 − (Φ (2) − Φ (−2)) = 1 − Φ (2) − (1 − Φ (2)) = 2(1 − Φ(2)) = 0, 0455 A.5.8 Gleichverteilung Die Gleichverteilung ist eine sehr einfache Verteilung, bei der jeder ”Punkt” im Intervall [a, b] die gleiche Wahrscheinlichkeit hat. Wahrscheinlichkeitsraum WX = [a, b] Dichtefunktion fX (x) = Pr [X = x] = Verteilungsfunktion FX (x) = Pr [X ≤ x] = 1 b−a 0 0 x−a b−a 1 falls x ∈ [a, b] sonst falls x < a falls a ≤ x ≤ b falls x > b Erwartungswert und Varianz E[X] = Var[X] = a+b 2 (a − b)2 12 Beispiel • Schütze Ein miserabler Schütze schießt gleichverteilt auf das Intervall [−1, 1]. Je näher er der Null kommt, desto höher ist sein Gewinn, er bekommt 100 · (1 − |x|) Mark, wenn er x trifft. Wie hoch ist der erwartete Gewinn?. Sei g(x) = 100 · (1 − |x|) und µ(x) = 1/2 ist Die Dichte der Zufallsvariablen X, die ja gleichverteilt ist. Der erwartete Gewinn ist " 1 " 1 1 E[g(X)] = g(x) · µ(x) dx = g(x) · dx 2 −1 −1 " 1 " 1 " 1 1 100(1 − x) · dx = 100 1 dx − 100 x dx = 2 2 −1 0 0 = 100 − 50 = 50 A.5.9 Exponentialverteilung Ist die Lebensdauer X eines Elements exponentialverteilt, so hat sie folgende Eigenschaft: Falls das Element bis zu einem Zeitpunkt t nicht ausgefallen ist, so besitzt die restliche Lebensdauer die gleiche Verteilung, wie die eines neuen Elements. Es findet keine Alterung statt (Gedächtnislosigkeit). DS-FAQ v1.0 51 A.5. Verteilungen Wahrscheinlichkeitsraum WX = R+ 0 Dichtefunktion fX (x) = Pr [X = x] = Verteilungsfunktion FX (x) = Pr [X ≤ x] = λe−λx 0 1 − e−λx 0 falls x ≥ 0 sonst falls x ≥ 0 sonst Erwartungswert und Varianz Verbindung zu anderen Verteilungen Anzahl der Ereignisse poisson-verteilt. E[X] = Var[X] = 1 λ 1 λ2 Sind die Abstände zwischen Ereignissen exponentialverteilt, so ist die Beispiel • Atome 1 = Ein Atom hat eine mittlere Lebensdauer von 3.03 Jahren. Daher ist λ = E[X] (Zerfalls-)Rate bezeichnet. 1 3.03 . λ wird hier oft als • Bauteile Die Lebensdauer T eines elektrischen Bauteils sei exponentialverteilt mit der Lebensdauer E[X] = 500h. Die Wahrscheinlichkeit, daß das Bauteil zwischen den Zeitpunkten 400 und 600 ausfällt, lautet # $ # $ 600 400 − 1 + exp − Pr [400 ≤ T ≤ 600] = FX (600) − FX (400) = 1 − exp − 500 500 = e−0,8 − e−1,2 = 0, 148 Die Wahrscheinlichkeit, daß die Lebensdauer mindestens 500h beträgt lautet # $ 500 Pr [T ≥ 500] = 1 − Pr [T ≤ 500] = exp − = e−1 = 0, 368 500 DS-FAQ v1.0 52 Literaturverzeichnis [1] Steger, A. und M. Raab: Skriptum zur Vorlesung Diskrete Strukturen I. TU München, 1999 Das Original-Skript zur Vorlesung ”Diskrete Strukturen 1”. Sehr gut gegliedert, vollständig und meist verständlich, aber nicht immer ausführlich genug. Unverzichtbar. [2] Steger, A. und T. Schickinger: Skriptum zur Vorlesung Diskrete Strukturen II. TU München, 2000 Das Original-Skript zur Vorlesung ”Diskrete Strukturen 2”. Es gilt dasselbe wie für [1]. Ebenfalls unverzichtbar. [3] Graham, R.L., D.E. Knuth und O. Patashnik: Concrete Mathematics. Addison Wesley Publishing Company, Reading, MA, 1989 Das ”Concrete Mathematics” deckt vor allem den Teil Rekursion und Summen sehr gut ab und ist recht verständlich. Wer ein bisschen tiefer gehen will, ist hier gut bedient. [4] Duden Rechnen und Mathematik. Dudenverlag, Mannheim 2000 Der Mathe-Duden weiß auf fast alle Fragen schnell, übersichtlich und verständlich Antwort. Ohne den geht es nicht. [5] Sedgewick, R.: Algorithmen. Addison Wesley (Deutschland), 1991 Verständliche Erklärung von Standardalgorithmen. Geht nicht sehr in die Tiefe der Laufzeitanalyse. [6] Gordon, H.: Discrete Probability. Springer-Verlag, 1997 Sehr verständliche Erklärung zu Stochastik (nur diskrete Wahrscheinlichkeitsräume) und Markovketten (ebenfalls nur diskret). [7] Aigner, M.: Diskrete Mathematik. Vieweg, 1993 Gar nicht erst reinschauen, nicht mal das Aufschlagen lohnt. Auch einer der Spezialisten mit Übungsaufgaben ohne Lösungen. [8] Bosch, K.: Training Wahrscheinlichkeitsrechnung und Statistik: 12./13. Schuljahr. Klett, 1990 Haben wir benutzt um wieder reinzufinden. Sehr verständlich. [9] Edelmann, W.: Lernpsychologie. Psychologie Verlags Union, Weinheim, 1996 Sehr gute Einführung in Lernpsychologie. [10] Anderson, J.R.: Kognitive Psychologie. Spektrum Akad. Verlag, Heidelberg, 1996 Komplette Einführung in die kognitive Psychologie. Gute Kapitel über Problemlösen. [11] Deißenböck, F.: Psychologie-DVP. http://www.deissenboeck.de/faqs, 2000 Faktenzusammenfassung für Psychologie-DVP. [12] MacTutor History of Mathematics. http://www-groups.dcs.st-andrews.ac.uk/∼history/ Tolle Seite mit Biographien von so ziemlich jedem Mathematiker. DS-FAQ v1.0 53 Index Abbildung, 6 bijektiv, 7, 8, 15 injektiv, 7, 8 surjektiv, 7, 8 abelsch, 42 Ablehnungsbereich, 31 Algebra, 14, 41 Annahmebereich, 31 Antwortzeit, 29 Äquivalenzrelation, 6 arithmetisches Mittel, 30, 31 assoziativ, 41 Atom, 14 Bälle-Urnen-Modell, 7 Baum, 8 Bayes, Satz von, 23 Bernoulli-Verteilung, 19, 46 Bild, 6 Binomialverteilung, 20, 46 Binomische Formel, 44 Birth-Death-Prozeß, 29 Boolesche Algebra, 13, 14, 42 Darstellungssatz, 14 Breitensuche, 9 Gesetz der großen Zahlen, 26 GF (pk ), 42 Gleichverteilung, 22, 51 Gozilla, 49 Graph, 8 bipartit, 9 kantenmaximal kreisfrei, 8 kantenminimal zusammenhängend, 8 zusammenhängend, 8 Greedy-Algorithmus, 11, 12 Gruppe, 15, 41 abelsch, 15 multiplikativ, 17 zyklisch, 17 Halbgruppe, 15, 41 Hitting-Time, 33 Homomorphismus, 13 hypergeometrische Verteilung, 49 Hypothese, 31 Inverses, 16, 41 Isomorphismus, 15 Iverson convention, 38, 45 JAVA, 12 Chebyshew-Ungleichung, 25 CYK-Algorithmus, 11 Dichte, 24, 25 Distributivgesetz, 13 Divide&Conquer, 10 dynamische Programmierung, 10 Elementarereignis, 22, 24 Ereignis, 23 erwartungstreu, 31 Erwartungswert, 25 Linearität des, 27, 28, 33 Erzeugendenfunktionen, 34, 36, 45 erzeugendes Element, 17 Exponentialverteilung, 21, 27, 29, 51 Fehler 1. Art, 31 2. Art, 31 Fibonacci-Zahlen, 12, 35 Floyd-Warshall-Algorithmus, 11 formale Potenzreihe, 11 Gambler’s Ruin Problem, 29 Gedächtnislosigkeit, 24 geometrische Verteilung, 20, 47 DS-FAQ v1.0 Körper, 14, 18, 42 kartesisches Produkt, 5 kleine Gauss, 36 Knapsack-Problem, 12 Kombinatorik, 7, 33 kommutierendes Diagramm, 15 Konfidenzintervall, 31 Kreis eulersch, 9 Landau-Symbole, 6 Little Formel von, 29 Markov-Bedingung, 28 Markovkette, 28, 33 aperiodisch, 28, 29 endlich, 28 irreduzibel, 28 Master-Theorem, 11 Matching, 9 perfekt, 9 Maximum-Likelihood-Prinzip, 30, 31, 33 Monoid, 13, 14, 41 abelsch, 13 54 Index Nebenklasse, 16 neutrales Element, 13, 14, 41 Normalverteilung, 21, 50 normiert, 22 Nullhypothese, 31 Ordnung, 17 Ordnungsrelation, 6 Partitialbruchzerlegung, 37, 39 Pascal-Verteilung, 49 Permutationsgruppe, 17 Poisson-Verteilung, 19, 27, 48 Potenzmengenalgebra, 14, 15, 43 Potenzreihe, 11 Satz von der totalen, 23 unbedingt, 23 Wahrscheinlichkeitsraum, 22 Wahrscheinlichkeitsvektor, 28 Wald, 8 Warteschlange, 29, 33 M/M/1, 29 zentraler Grenzwertsatz, 22, 50 Zufallsvariable, 26 Zusammenhangskomponenten, 8, 9 Zustandsübergangsmatrix, 28 Rekursionsgleichungen, 12, 34 linear, 11, 34 homogen, 11, 34 inhomogen, 11, 34 Relation, 5 antisymmetrisch, 6 reflexiv, 6 symmetrisch, 6 transitiv, 6 relative Häufigkeit, 26 Restklassen, 17 Ring, 14, 42 Schätzer, 30, 31 Siebformel, 24 Spannbaum, 8, 10, 11 Standardabweichung, 25 Standardnormalverteilung, 21 stationäre Verteilung, 28 Statistik, 30 Stichprobe, 30 Stichprobenvariablen, 30 Stichprobenvektor, 30 Stirling-Formel, 7 Stirlingzahlen, 7 erster Art, 7 zweiter Art, 7 stochastischer Prozeß, 28 Test, 31 Testgröße, 31 Tiefensuche, 9 True/False-Algebra, 43 Übergangsdiagramm, 29 Unabhängigkeit, 26, 28 Untergruppe, 16 Urbild, 6 Vandermonde, 44 Varianz, 25 Verkehrsdichte, 29 Verteilung, 24, 25 Wahrscheinlichkeit, 22 bedingt, 23 DS-FAQ v1.0 55