Grundlagen der Informatik Wolfgang Ertel, Frank Sausen 30. Januar 2009 Hochschule Ravensburg−Weingarten Technik | Wirtschaft | Sozialwesen Inhaltsverzeichnis 1 Was ist Informatik? 1.1 Informatik . . . . . . . . . . . . . 1.2 Computer . . . . . . . . . . . . . 1.3 Information . . . . . . . . . . . . 1.4 Teilgebiete der Informatik? . . . . 1.5 Programm, Algorithmus, Software 1.6 Betriebssysteme . . . . . . . . . . 1.7 Softwaretechnologie . . . . . . . . 1.8 Datensicherung . . . . . . . . . . 1.9 Datenschutz . . . . . . . . . . . . 1.10 Datenbanken . . . . . . . . . . . 1.11 Das Informatikstudium . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2 Geschichte der Informatik 2.1 Wichtige Quellen . . . . . . . . . . . 2.2 Zahlendarstellung . . . . . . . . . . . 2.3 Geschichte der Bauelemente . . . . . 2.4 Geschichte der Rechenmaschinen . . 2.5 Geschichte der Programmiersprachen 2.6 Geschichte des Internet . . . . . . . . 2.7 Große Informatiker . . . . . . . . . . 2.8 Frauen in der Informatik . . . . . . . 2.9 Wichtige Institute und Firmen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3 Algorithmen und Datenstrukturen – Einführung 3.1 Sortieren durch Einfügen . . . . . . . . . . . . . . 3.2 Quicksort . . . . . . . . . . . . . . . . . . . . . . 3.3 Sortieren mit Bäumen (Heapsort) . . . . . . . . . 3.4 Sortieren in linearer Zeit . . . . . . . . . . . . . . 3.5 Hashing . . . . . . . . . . . . . . . . . . . . . . . 4 Algorithmen auf Graphen 4.1 Einführung . . . . . . . . . . . . . . 4.2 Eulerkreise . . . . . . . . . . . . . . . 4.3 Datenstrukturen für Graphen . . . . 4.4 Kürzeste Wege . . . . . . . . . . . . 4.5 Das Problem des Handlungsreisenden 4.6 Planare Graphen . . . . . . . . . . . . . . . . . 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4 4 4 5 5 6 6 7 9 9 10 10 . . . . . . . . . 12 12 12 13 14 19 20 21 26 27 . . . . . 28 28 36 40 46 46 . . . . . . 50 50 52 54 55 59 66 5 Formale Sprachen und Endliche Automaten 5.1 Grundlagen . . . . . . . . . . . . . . . . . . 5.2 Grammatiken . . . . . . . . . . . . . . . . . 5.3 Reguläre Ausdrücke . . . . . . . . . . . . . . 5.4 Endliche Automaten zur Worterkennung . . 5.5 Automaten mit Ausgabe . . . . . . . . . . . 5.6 Formale Beschreibung von Automaten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68 68 70 72 73 74 75 6 Zusatzmaterial 78 6.1 Logarithmen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 78 6.2 Anwendung des Mastertheorems . . . . . . . . . . . . . . . . . . . . . . . . . . . 79 7 Übungen 7.1 Geschichte der Informatik . . . . . . . . . . 7.2 Sortieren . . . . . . . . . . . . . . . . . . . . 7.3 Graphen . . . . . . . . . . . . . . . . . . . . 7.4 Formale Sprachen und Endliche Automaten Literaturverzeichnis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80 80 80 83 84 87 3 Kapitel 1 Was ist Informatik? 1.1 Informatik Definition 1.1 Informatik ist die Wissenschaft der automatischen Verarbeitung von Informationen. (Am.: Computer Science) Verschiedene Aspekte der Informatik: • • • • 1.2 Spaß am Programmieren (Erfolgserlebnisse) Spaß an der Beherrschung der Maschine Teilweise sehr abstrakte Wissenschaft (Mathematik) Ohnmachtgefühl von Laien Computer Definition 1.2 Programmierbare Rechenmaschinen werden als Computer bezeichnet. früher wurden Menschen, die “rechnen” als Computer bezeichnet. Computer • • • • • • • machen unser Leben bequemer helfen beim Beschaffen von Informationen vereinfachen die Kommunikation können süchtig machen können zum Pseudopartner werden vernichten Arbeitsplätze schaffen Arbeitsplätze • • Wem nützt die Informatik? Wem schadet die Informatik? ⇒ Soziale Verantwortung des Informatikers! 4 1.3 Information Information: Wissen, Gegenteil von Unsicherheit. Definition 1.3 Als elementare Maßeinheit für Information dient das Bit. Eine Nachricht (z.B. ein Text od. eine Zahl) hat einen Informationsgehalt von n Bit, wenn die minimale Zahl von Ja/Nein Fragen, zur exakten Ermittlung der Information genau n ist. Ein Computer-Wort besteht z.B. aus 8, 16, 32, oder 64 Bit. Beispiel 1.1 1 0 0 1 1 0 1 0 1 · 27 + 0 · 26 + 0 · 25 + 1 · 24 + 1 · 23 + 0 · 22 + 1 · 21 + 0 · 20 = 128 + 16 + 8+ 2 = 154 1.4 Teilgebiete der Informatik? Informatik Einen guten Überblick über die verschiedenen Teilgebiete der Informatik verschafft das Wikipedia Informatik Portal. http://de.wikipedia.org/wiki/Portal:Informatik Theoretische Informatik • • • • • • • • Logik (logisch!) Berechenbarkeit (ist jedes Problem berechenbar?) Komplexität (Rechenaufwand) Formale Sprachen (Programmiersprachen) Informationstheorie (Datenübertragung) Kryptographie (Datensicherheit) Formale Spezifikation und Verifikation (Korrektheitsbeweise von Programmen) ... Technische Informatik • • • • • Hardware Rechnernetze Schaltungen Schnittstellen Peripheriegeräte Praktische Informatik Bereitstellen von Hilfsmitteln für die Arbeit mit Computern 5 • • • • • • • • • Rechnerarchitektur Betriebssysteme (DOS, Windows, Unix, . . . ) Datenbanken Künstliche Intelligenz Software-Entwicklung Datenkommunikation Prozeßsteuerung Bildverarbeitung ... Angewandte Informatik • • • • • • 1.5 Wirtschaftsinformatik Medizinische Informatik Medieninformatik (Multimedia) Kommunikationstechnik Automatisierungstechnik Künstliche Intelligenz Programm, Algorithmus, Software Definition 1.4 Algorithmus: Allgemeines Schema zur Lösung einer Klasse von Problemen. Programm: Folge von Befehlen in einer festen Programmiersprache Softwareentwicklung: • • • • • Problemanalyse Problemlösung (Algorithmierung) Programmierung (Kodierung) Test Inbetriebnahme Softwaretechnologie: Systematische Untersuchung der Softwareentwicklung und Bereitstellung von Entwicklungswerkzeugen. 1.6 Betriebssysteme 1.6.1 • • Betriebssysteme: Aufgaben Laden u. Starten von Programmen Verwalten des Hauptspeichers ◦ Schützen der Speicherbereiche von Programmen 6 ◦ • Verwaltung von Dateien ◦ ◦ • Verwaltung von Dateiattributen (Größe, Datum, Rechte) Verwaltung von Verzeichnissen Ein- und Ausgabe ◦ ◦ ◦ • Verwaltung des virtuellen Speichers (paging, swapping) Paging: Auslagern von Programmteilen Swapping: Auslagern ganzer Programme zeichenorientiert: Tastatur, Bildschirm, Drucker, serielle Schnittstelle blockorientiert: Festplatte, Diskette, CD-Rom, Streamer Verwaltung von Warteschlangen, z.B. f. Drucker Zeitgeberfunktionen: Datum, Uhrzeit, verzögerter Programmstart 1.6.2 Betriebssysteme: Bestandteile Betriebssystemkern: (Kernel) allgemeine Module f. Ein/Ausgabe, Speicherverwaltung, etc. Dienstprogramme: kopieren, löschen v. Dateien, formatieren v. Disketten, ... Bootprogramme: zum Hochfahren des Rechners benötigte Programme ladbare Treiber: z.B. f. Netzwerkanbindung, Streamer 1.7 Softwaretechnologie Kosten von Hard- und Software: Früher: 90% Hardware, 10% Software Heute: 10% Hardware, 90% Software ⇒ Informatik als Ingenieursdisziplin mit der Aufgabe der Softwareentwicklung! Definition 1.5 Beim Softwareengineering laufen folgende Prozesse parallel nebeneinander ab: Softwareentwicklung Projektmanagement Qualitätssicherung Projektverwaltung 7 1.7.1 Softwareentwicklung Wichtige Begriffe: • Softwarelebenszyklus (software life cycle) • Phasenmodell der Softwareentwicklung • Wasserfallmodell Planung Der Softwarelebenszyklus Spezifikation Entwurf Kodierung Test Betrieb Stillegung 1.7.2 Moderne Softwareentwicklung Unix-Pipe: ps | sort | lp Wichtige Schritte im Entwicklungsprozess: ps Use Cases: Typische Benutzer-Programm Interaktionen Prozeßliste sort Verteilungsmodell: Verteilung von Objekten/Prozessen auf einzelne Rechner, bzw. Teilnetze sortierte Liste lp Datenflußdiagramm: Graphische Darstellung des Datenflusses. Führt zu Schnittstellendefinitionen. druckbare Daten Drucker Ausdruck auf Papier 1.7.3 CASE: Computer Aided SW-Engineering CASE-Tools sind Werkzeuge, die den ganzen Entwicklungsprozeß unterstützen. Teile des Prozesses können dabei automatisiert werden, andere benötigen eine Interaktion des Menschen mit dem Tool. 8 1.8 Datensicherung Eine wichtige Aufgabe beim Betrieb eines Rechensystems ist die Datensicherung. Definition 1.6 Datensicherung (engl. Dump) ist das regelmäßige Speichern von Daten von der Festplatte auf einen anderen Datenträger mit dem Ziel der Rekonstruktion bei Datenverlust. klassisches Verfahren: inkrementeller Dump Level 0 Dump: 1× pro Monat wird die gesamte Platte (inklusive Betriebssystem) auf dem Magnetband gesichert. (in den ungeraden Monaten auf Band M-1, in den geraden Monaten auf Band M-2.) Level 1 Dump: 1× pro Woche werden die Benutzerdaten von der Platte auf dem Magnetband gesichert. (in den ungeraden Wochen auf Band W-1, in den geraden Wochen auf Band W-2.) Level 2 Dump: täglich werden die Benutzerdaten von der Platte auf dem Magnetband inkrementell gesichert. (in den ungeraden Wochen auf die Bänder Mo-1, . . . , Fr-1, in den geraden Wochen auf die Bänder Mo-2, . . . , Fr-2) Bemerkungen: • insgesamt werden 14 Magnetbänder für die Datensicherung benötigt! • während des Dumps sollte kein Benutzer auf dem Rechner arbeiten. • die gesicherten Medien (Bänder) sollten in einem anderen Gebäude sicher verwahrt werden. modernes Verfahren: Daten werden monatlich, wöchentlich, täglich auf je eine monatliche, eine wöchentliche, bzw. eine tägliche Festplatte (im Wechsel) gespiegelt, nach ähnlichem Verfahren wie oben. 1.9 Datenschutz Bundesdatenschutzgesetz (BGBL. 1 2003, S. 66) § 1, Abs. 1: “Zweck dieses Gesetzes ist es, den Einzelnen davor zu schützen, dass er durch den Umgang mit seinen personenbezogenen Daten in seinem Persönlichkeitsrecht beeinträchtigt wird.” Beispiel: Die Veröffentlichung von Fotos von Mitarbeitern ist nur erlaubt, wenn der Mitarbeiter freiwillig und schriftlich sein Einverständnis erklärt. 9 Eva Müller Mitarbeiterin des Monats 1.10 Datenbanken Beispiele: • • • • • Literaturdatenbank Personaldatenbank Gefahrstoffdatenbank Buchungssystem für Reisebüros/Fluggesellschaften ... Definition 1.7 Eine Datenbank ist eine systematisch strukturierte, langfristig verfügbare Sammlung von Daten einschließlich der zur sicheren und schnellen Manipulation dieser Daten erforderlichen Software. Vorteile einer Datenbank: • • • • Mehrbenutzerbetrieb möglich Unterschiedliche Sichten auf die Daten sind möglich Daten sind unabhängig von Nutzerprogrammen; Nutzung ist unabhängig von der Art der Speicherung. Vollständigkeit (Integrität) und Korrektheit (Konsistenz) werden automatisch gewährleistet. Eine Datenbank besteht aus Datenbasis: die (z.B. als Tabellen) in Dateien gespeicherten Daten. Datenbankmanagementsystem (DBMS): Programm für Aufbau, Verwaltung und Anwendung der Datenbank. Datenbanksprache: formale Sprache zur Formulierung von Benutzeranfragen an die Datenbank. (Beispiel: SQL (Structured Query Language)) 1.11 Das Informatikstudium Leonardo da Vinci: Studium ohne Hingabe schadet dem Gehirn Der Studienerfolg wird statistisch u.a. bestimmt durch folgende Variablen: Schnitt falls Abitur Schnitt − 0.5 falls FH-Reife direkt Note: Note = Schnitt − 1 falls FH-Reife auf 2. Bildungsweg Interesse (für Informatik): Ich wollte schon immer wissen, wie (intelligente Roboter, Verschlüsselung, Internet, . . . ) funktioniert (0|1) Biss (Wille): Wenn nötig arbeite ich auch am Abend und am Wochenende (0|1) SozUm: Finanziell gesichert, Wohnen vor Ort, Partnerschaft o.k. (0|1) 10 1.11.1 Entscheidungsbaum Variablenwerte für Interesse, Biss, SozUm: 1: trifft voll zu; 0: trifft nicht oder nur teilweise zu Studienerfolg: −: keine Abschluss; +: Bachelor; ++: Bachelor, sehr gut Note >3 Biss 0 Biss 0 1 + <1.5 1.5-2.5 Interesse 2.5-3 1 0 1 + Biss Interesse 0 Interesse 0 0 1 0 1 + ++ + ++ SozUm 0 1 0 1 + Biss 0 + 1.11.2 1 + Score (einfach) Score = (3 − Note) + 3 · Biss + 2 · Interesse + SozUm ++ falls Score > 3.5 + falls Score > 0 Studienerfolg = − falls sonst 11 ++ SozUm Interesse 1 1 Kapitel 2 Geschichte der Informatik 2.1 • • • • • Wichtige Quellen http://de.wikipedia.org www.computerhistory.org F. Naumann, Vom Abakus zum Internet [2] H. Matis, Die Wundermaschine[3] W. de Beauclair, Rechnen mit Maschinen – eine Bildgeschichte der Rechentechnik[4] 2.2 Zahlendarstellung Additive Zahlendarstellung: additiv (ohne Null) – 1 11 111 1111 11111 111111 1111111 11111111 ... 1111111111111111111111111111111111111111 mit Null (binär) 0 1 10 11 100 101 110 111 1000 ... 110010 additive Zahlendarstellung ist für große Zahlen nicht brauchbar! Mit n Stellen lassen sich darstellen: additiv: die Zahlen 1 . . . n binär: die Zahlen 0 . . . 2n − 1 dezimal: die Zahlen 0 . . . 10n − 1 Ziffern 0 . . . b: die Zahlen 0 . . . (b + 1)n − 1 Wieviele Stellen braucht man, um eine große Zahl z darzustellen? binär: z = 2n ⇔ allgemein: 12 n = log2 z dezimal 0 1 2 3 4 5 6 7 8 ... 50 additiv: binär: dezimal: Ziffern 0 . . . b: Zahl d. Stellen um die Zahlen 0 . . . m darzustellen m+1 ≤ log2 m + 1 ≤ log10 m + 1 ≤ logb+1 m + 1 Die Zahl der Stellen bei Stellenwertsystemen wächst nur logarithmisch mit der Größe der darzustellenden Zahl (dank der Null). 2.2.1 Geschichte der Zahlen und des Rechnens 30000 v. Chr. erste Zeichensysteme für Zahlen in Ägypten und Mesopotamien 3500 v. Chr. Zeichen auf Tontafeln in Pakistan Additive Zahldarstellung in Rom, Mexiko (Maya), China, Ägypten, Sumerer 200 v. Chr Erfindung der Null in Indien ⇒ Stellenwertsystem 0 Römische Schriftzeichen 1200 Fibonacci führt negative Zahlen ein (Schuld) 2.3 Geschichte der Bauelemente 2.3.1 Rechenlogik Elektrische Rechenmaschine braucht elektrische Schalter! Mechanik Antike bis heute Relais 1835 – 1950, J. Henry Röhre 1904 – 1970, J.A. Fleming (Engl.) Transistor 1947 – heute, Bell Labs (USA) 13 Integrierter Schaltkreis 1958, heute bis zu 1 Milliarde Transistoren auf unter 1 cm2 Pentium 4 Intel, 2000, bis 3.8 GHz Taktfrequenz, 2 CPUs auf einem Chip 2.3.2 • • • • • erste Festplatte 50 Platten, je 60 cm Durchmesser, 1200 Umdr./min pro Platte 2 × 100 Spuren mit je 500 Zeichen ⇒ pro Platte 100 kB Speicher gesamt: 5 MB Speicher 2.3.3 • • • Speichertechnologie 2005 Mehr als 4 Gigabit pro cm2 Anzahl der Spuren pro Zoll (tpi) z. B. 135.000, Köpfe fliegen 10-15 Nanometer über d. Platte (Haar ist 50.000 nm dick) 2.3.4 2.4 Speichertechnologie 1956–2008 Geschichte der Rechenmaschinen 2.4.1 • • Speichertechnologie 1956, IBM-RAMAC Kerbhölzer und Knotenschnüre Speicherung von Zahlen Additition und Subtraktion 14 2.4.2 Mechanische Rechenmaschinen (Mittelalter) Analytical Engine Abakus: +, − Pascal (1641): +, − kannt): +, −, ×, / 1. In der Programmierbarkeit einer Maschine durch Die grundlegend neuen Ideenlange bestehen:unbeSchickard (1623, Verwendung von Jacquard‘schen Lochkarten. In der Weiterverwendung von Zwischenergebnissen. („the engine eating its own tail“) 3. Der Aufteilung des Gerätes in Speicher(Store) und Rechenwerk (Mill). Zahnstangen dienten der Übertragung von Zahlenwerten zwischen Store und Mill (Rechnerbus). Bis 1948 (Speicherprogrammierbarkeit, John von Neumann) gibt es keine grundlegende Weiterentwicklung dieses Konzepts! Die ersten „modernen“ Rechner hatten eine einfachere Architektur. 2. Die Analytical Engine war ein Papiercomputer. Nur einzelne Komponenten (Teile des Rechenwerks) wurden wirklich gebaut. Leibniz (1675) +, −, ×, / Babbage (1823), Difference Babbage (1833–?), Analytical Informatikgeschichte, E. Ehses 2003 17 Engine Engine (programmierbar!) Der Abakus (ca. 2000 v.Chr. bis heute!) • • • die universale Rechenmaschine schlechthin! Datenblatt Analytical Engine(bis heute), Rußland verwendet in Griechenland, Rom, der Japan, China (bis heute) heute in Japan: Wettbewerbe Abakus Taschenrechner Speicher für rund–100 Variable zu je 30-40 Stellen. Die Analytical Engine Vorrichtung zur Wiederholung von Operationen („mechanical means have been provided for backing up or advancing the operation cards to any extend“) Stanzer für Zahlenkarten (Massenspeicher). • • • Programmierbarkeit einer Drucker. Maschine (revolutionär!) durch Verwendung von Jacquard’schen Lochkarten. Zeichengerät. Weiterverwendung von Zwischenergebnissen. (“the engine eating Setzmaschine (offline). its own tail”) Addition und Subtraction vermutlich ca. 2 sec. Multiplikation ca 1 min.und Rechenwerk (Mill). Aufteilung des Gerätes in Speicher(Store) Zahnstangen dienten der Übertragung von Zahlenwerten zwischen Store und Mill (Rechnerbus). Informatikgeschichte, E. Ehses 2003 15 18 Die Analytical Engine war ein Papiercomputer. Nur einzelne Komponenten (Teile des Rechenwerks) wurden wirklich gebaut. Bis 1948 (Speicherprogrammierbarkeit, John von Neumann) gibt es keine grundlegende Weiterentwicklung dieses Konzepts! Die ersten modernen Rechner hatten eine einfachere Architektur. Eingabeschnittstelle für Lochkarten, unterschieden nach operation cards für die Befehlseingabe, variable cards zur Eingabe von Variablen und ihrer Speicheradresse, sowie den number cards. Ausgabeschnittstelle entweder für einen Drucker oder für Lochkarten die in die Bibliothek eingereiht werden. Die Chiffriermaschine Enigma • • • • • • • 1923: Erfindung durch Arthur Scherbius zum Gebrauch für Geschäftsleute. 1925: Deutsche Wehrmacht kauft Enigmas. mehrfach geknackt (Polen) und wieder verbessert. 1939: Der Großangriff der Briten auf die Enigma in Bletchley Park. 1942: Neue Enigma mit vier Walzen ist wieder sicher und wird im U-Boot-Krieg eingesetzt. 1943: Nach fast einem Jahr wird die 4-Walzen-Enigma geknackt. Hier kam Colossus zum Einsatz. 1945: Entschlüsseln der Enigma-Codes war am Sieg der Alliierten mit beteiligt. ca. 10 000 Personen arbeiteten in drei Schichten rund um die Uhr. Zuse Z1, Z2 • • • Baujahr 1938, 1939 Bleche schieben Stifte, Relais (Z2) binär-dezimal Konvertierung, √ +, −, ×, /, , 2.4.3 Operationen: Elektrische Rechenmaschinen Zuse Z3 Der im Flugzeugbau tätige Maschinenbauer und Bauingenieur Konrad Zuse (Berlin, 1910–1985) erfand 1941 den ersten frei programmierbaren Rechner Z3. 16 • • • • • • • • Baujahr 1941 programmierbar über Lochstreifen Ausgabe über Lampenfeld Binäre Schaltlogik “RISC”-Architektur: wenige Befehle Gleitpunktarithmetik Multiplikationszeit: 3 sec. Hauptspeicher: 64 Worte à 22 Bit ASCC (MARK 1) • • • • • • • • H. Aiken will Rechner zum Lösen von DGLs erster Rechner mit konsequenter vonNeumannArchitektur Baujahr 1944, Univ. Harvard und IBM programmierbar über Lochstreifen Multiplikationszeit: 6 sec. in Betrieb bis 1959 760 000 Einzelteile 15 m lang, 2.5 m hoch Colossus • • • • • • entwickelt u.a. von Alan Turing zum Knacken von Enigma-Codes Baujahr 1943, programmierbar über Lochstreifen photoelektr. Leser (5000 Zeichen/sec.) Multiplikationszeit: 6 sec. Original 1500 Röhren Eniac (electronical numerical integrator and computer) • • • • • • Baujahr 1946, Univ. Pennsylvania, USA universell eingesetzt, in Betrieb bis 1955 Dezimalrechner, 10 Dezimalstellen Taktfrequenz 100 kHz (Addition 0,2 ms) 18000 Röhren, 1500 Relais Multiplikationszeit: 3 sec. 17 Nachbau IBM 360 • • • Baujahr 1964 Erster kommerziell erfolgreicher Großrechner MTS: Michigan Time sharing system, 1966 Control Data CDC 6600 • • • Erbaut 1964 von S. Cray 3 MIPS verteilte Architektur, 10 I/O-Prozessoren Telefunken TR 440 • • • • • Baujahr 1970 6,50 m breit Gewicht ca. 1250 Kg Taktfreq. 20 MHz, 1.2 MIPS 1,5 MB Kernspeicher mit virtueller Adressierung CPU Cray 1 • • • • • • Baujahr 1976 Vektorrechner Supercomputer für numerische Berechnungen 64 parallel arbeitende 64-Bit Prozessoren 166 Mega-FLOPS Gewicht: 2.5 Tonnen Connection Machine • • • • Baujahr 1986, D. Hillis of Thinking Machines Corp Massiv parallel: 16000 parallele Prozessoren ca. 10 Milliarden Operationen pro sec. Anwendung in der KI, u.a. Neuronale Netze 18 Lochkartenstanzer PCs Commodore Pet, Apple 2, 1977, 1 Main1977, Kassetten- board, Farbgrafik laufwerk, 4/8 kB Hauptspeicher 2.4.4 IBM PC, 1981, 4.77 Commodore 64, 1981, für 595 US$ viel billiMHz Intel 8088, MS- ger als die Konkurrenz, TV-Bildschirm, KasDOS (Microsoft disc settenlaufwerk, 64 KB RAM operating system) Zitate “I think there is a world market for about five computers.” Thomas J. Watson Jr., chairman of IBM (1943) “Where a calculator on the ENIAC is equipped with 18,000 vacuum tubes and weighs 30 tons, computers in the future may have only 1,000 vacuum tubes and perhaps weigh 1 12 tons.” Popular Mechanics (March 1949) “640 K [of computer memory] ought to be enough for anybody.” Wird Bill Gates zugeschrieben, der dies aber bestreitet. 2.5 • • Geschichte der Programmiersprachen Heute gibt es über 2500 verschiedene Programmiersprachen Siehe Aushang, bzw. www.levenez.com prozedural: Assembler, Fortran (1954), PL/1, Basic, Algol, APL, C, Pascal, Cobol, Perl, PHP, ADA funktional: Lisp (1958), Haskell, Miranda, Mathematica logisch: Prolog (1970) objektorientiert: Simula 67, Smalltalk (1969), C++, Oberon, Java, C# Fakultät in C, Prolog, Mathematica C (prozedural): 1 2 3 4 5 6 7 8 int fakultaet(int n) { int ergebnis; if (n == 1) return 1; ergebnis = n * fakultaet(n-1); return(ergebnis); } Mathematica (funktional): 19 1 2 Fac[0] := 1; Fac[n_] := n * Fac[n - 1] Prolog (logisch): 1 2 fakultaet(1,1). fakultaet(N,Res) :- N1 is N-1, fakultaet(N1,Res1), Res is N * Res1, 2.6 Geschichte des Internet • Gegründet 1962 durch die Advanced Research Projects Agency (ARPA) der USA (ARPANET). • Unter der Leitung von Bob Kahn und Vint Cerf entstehen 1973 das Transmission Control Protocol (TCP) und 1976 das IP Protokoll in Form von RFC Dokumenten. • Erstes Email-Netz 1977 an der Univ. Wisconsin. • TCP/IP wird weltweit eingeführt • Tim Berners-Lee erfindet 1989 am CERN das World Wide Web (WWW) “In the Beginning, ARPA created the ARPANET. And the ARPANET was without form and void. And darkness was upon the deep. And the spirit of ARPA moved upon the face of the network and ARPA said, ’Let there be a protocol,’ and there was a protocol. And ARPA saw that it was good. And ARPA said, ’Let there be more protocols,’ and it was so. And ARPA saw that it was good. And ARPA said, ’Let there be more networks,’ and it was so.” – Danny Cohen 2.6.1 Das Semantic Web • Neben Text und Bildern soll der Inhalt (Semantik) von Webseiten in Zukunft durch Annotationen formal beschrieben werden. • Anfrage: Wie viele Tore hat Michael Ballack im Jahre 1998 geschossen? • Google kann die Anfrage nicht beantworten. • Das Semantic Web soll das demnächst können. • Resource Description Framework (RDF) und Web Ontology Language (OWL) zur Beschreibung von Metainformation über Webseiten • Unter Verwendung von Automatischen Theorembeweisern sollen semantische Anfragen beantwortet werden. 20 2.6.2 Aktuelle Trends (2005) 2.6.3 Aktuelle Trends (2008) 2.7 Große Informatiker Blaise Pascal (Frankreich, 1623–1662) • baute als 18 jähriger für seinen Vater die erste funktionierende mechanische Rechenmaschine zur Addition sechsstelliger Zahlen. (Digitalrechner) 21 Gottfried Wilhelm Leibniz (Leipzig, 1646–1716) • • • • Philosoph, Mathematiker, Diplomat, Bibliothekar baut eine Rechenmaschine für alle vier Grundrechenarten. Gründer der Akademie der Wissenschaften in Berlin Erfindung der Dualzahlen Charles Babbage (England, 1791-1871) • • Entwickelt die Difference Engine zur Ableitung von Polynomen (1823) Entwickelt die Analytical Engine (1833) Kurt Gödel (Österreich, 1906–1978) Der Österreicher Kurt Gödel zeigt 1931 • • dass in der Prädikatenlogik erster Stufe alle wahren Aussagen herleitbar sind. In Logiken höherer Stufe hingegen gibt es wahre Aussagen, die nicht beweisbar sind. Es lassen sich also nicht alle Berechnungsaufgaben automatisieren. Zusammen mit Einstein arbeitet er auch an der Relativitätstheorie und Kosmologie. Denken Sie nach über die Aussage: ,,Ich bin nicht beweisbar” oder über ,,Die Menge aller Barbiere, die all die Menschen rasieren, die sich nicht selbst rasieren.” oder über die Menge {x|x ∈ / x}. Alan Turing (England, 1912–1954) Der Brite Alan Turing leistet u.a. folgendes • Er erfindet 1935 das bis heute universelle Berechnungsmodell, die “Turingmaschine”. • Er zeigt, dass es viele Funktionen gibt, die nicht berechenbar sind. • Er beweist das Halteproblem: Es kann kein Programm geben, das in endlicher Zeit entscheidet, ob ein beliebiges Programm auf einer Eingabe hält oder eine Endlosschleife hat. • Er definiert den Begriff der Intelligenz über den “Turing Test”. • Ende der Dreißiger Jahre macht er schon Vorschläge für lernfähige Computer. • Er ist im 2. Weltkrieg führend beteiligt an der Dechiffrierung der Enigma. • Er ist beteiligt am Bau von Colossus, dem ersten britischen Computer für die Dechiffrierung der Enigma (1944). • Er entwickelt einen Schachalgorithmus. Mangels Computer simuliert er auf Papier den Computer und benötigt so etwa 90 Minuten pro Zug. 22 Denken Sie nach über das Programm: Unmöglich(int i) if( hält(unmöglich,0)) while( TRUE ) printf(“das kann noch dauern ...”); else printf(“0”); Lesekopf Die Turingmaschine: HAL LO Z Zustand Claude Shannon (Michigan, 1916–2001) • • • • A Mathematical Theory of Communication (1948) Informationstheorie, Entropie als Informationsmaß Formale Grundlagen der Kryptographie (Konfusion und Diffusion, 1949) Entwickelt einen Schachcomputer (1960) Alonzo Church (Washington, 1903–1995) • • • Berechenbarkeit Lambda Kalkül Church’sche These: Die Turingmaschine kann alles berechnen, was wir intuitiv für berechenbar halten. John von Neumann (Polen, 1903–1957) • • • • Spieltheorie, Minimax Algorithmus (1928) Quantenmechanik, Entwicklung der Atombombe von Neuman Architektur von Rechnern (EDVAC) genial, lebenslustig, trinkfest Die vonNeumann-Architektur • • • • Zentraleinheit (CPU mit Rechen- und Steuerwerk) Speicher (Hauptspeicher) Bus (Busse) Ein/Ausgabe (I/O) ⇒ Peripheriegeräte 23 CPU Rechenwerk Steuerwerk Speicher (RAM) Datenbus Adressbus I/O Edsger Dijkstra (Rotterdem, Holland, 1930–) • Algorithmen auf Graphen • Kürzeste Wege Algorithmen • Korrektheit von Programmen Donald Knuth (Milwaukee, 1938–) • • • • Meister der Algorithmen, u.a.: Zufallszahlen, Sortieren, Suche, ... Autor der 5-bd. ,,Bibel”: The Art of Computer Programming Erfinder des Textsatzsystems TEX spielt eine selbstgebaute Orgel Zitate: ,,Computer Programming is an art form, like the creation of poetry or music.” ,,I got into compilers because I thought the most amazing thing you could do with computers was to have them write their own programs. When computing is applied to computing, that’s when computer science reaches an ultimate completeness.” Stephen A. Cook (Buffalo, New York, 1939–) • • Begründer der modernen Komplexitätstheorie NP-Vollständigkeit Leslie Lamport (New York, 1941–) • Theorie verteilter Systeme • Lamport clock: partielle Ordnung der Zeit, keine globale Zeit • Enwickler von LATEX(TEX-Macropaket) Zitat: ,,When I look back on my work, most of it seems like dumb luck – I happened to be looking at the right problem, at the right time, having the right background.” Ken Thompson, Dennis Ritchie (New Orleans, 1943–, New York, 1941–) • • 1969: Erfindung von UNIX und C (Bell Laboratories, New Jersey, später AT&T) Viele innovative Konzepte: Pipelining, verteilte Prozesse, Sockets, Timesharing und Prozesse mit Prioritäten (auch auf PCs) Nikolaus Wirth (Winterthur, Schweiz, 1934–) • • Erfinder der Programmiersprachen Pascal (1970) und Modula (1975) Erfinder der Objektorientierten Sprache Oberon (1987) 24 Bill Gates (Seattle, 1955–) • • • • • brach nach zwei Jahren sein Studium in Harvard ab. zus. mit Paul Allen Gründer von Microsoft mit d. Kauf von MS-DOS 1980 durch IBM beginnt die Erfolgsstory von Microsoft 1983 erscheint die erste Version des Betriebssystems Windows reichster Mann der Welt (fast 50 Mrd. US$) Tim Berners-Lee (London, 1955–) • • 1989 schlug Berners-Lee seinem Arbeitgeber CERN (Europäisches Kernforschungslabor) ein Projekt vor, das auf dem Prinzip des Hypertexts beruhte und den weltweiten Austausch sowie die Aktualisierung von Informationen zwischen Wissenschaftlern vereinfachen sollte.[1] entwickelte den ersten Webbrowser, baute die erste Webseite 2.7.1 Der Turing Award siehe www.acm.org/awards/taward.html ACM’s most prestigious technical award is accompanied by a prize of $ 100,000. Financial support of the Turing Award is provided by the Intel Corporation. ACM: Association of Computing Machinery 1966 1967 1968 1969 1970 1971 1972 1973 1974 1975 1976 1977 1978 1979 1980 1981 1982 1983 1984 1985 1986 1987 1988 1989 1990 1991 1992 1993 1994 1995 1996 1997 1998 1999 2000 2001 2002 A.J. Perlis Maurice V. Wilkes Richard Hamming Marvin Minsky J.H. Wilkinson John McCarthy E.W. Dijkstra Charles W. Bachman Donald E. Knuth Allen Newell, Herbert A. Simon Michael O. Rabin, Dana Scott John Backus Robert W. Floyd Kenneth E. Iverson C. Antony R. Hoare Edgar F. Codd Stephen A. Cook Ken Thompson, Dennis Ritchie Niklaus Wirth Richard M. Karp John Hopcroft, Robert Tarjan John Cocke Ivan Sutherland William (Velvel) Kahan Fernando J. Corbato Robin Milner Butler W. Lampson Juris Hartmanis, Richard Stearns Edward Feigenbaum, Raj Reddy Manuel Blum Amir Pnueli Douglas Engelbart James Gray Frederick P. Brooks Andrew Chi-Chih Yao Ole-Johan Dahl, Kristen Nygaard Ron Rivest, Adi Shamir, Leonard Adleman Compilerbau EDSAC, erster Computer mit internem Programmspeicher Kodierung, Hamming-Distanz Perzeptron, Neuronale Netze Numerik Künstliche Intelligenz, LISP Graphenalgorithmen, ALGOL Datenbanken Algorithmen, “The Art of Computer Programming”, Erfinder von TEX Künstliche Intelligenz, General Problem Solver Automaten, Alg., Nichtdeterminismus, randomisierte Alg. FORTRAN, Backus-Naur-Form Grammatik formale Methoden zur Software Entwicklung Programmiersprachen, APL Programmiersprachen Relationale Datenbanken Komplexität, NP-Vollständigkeit Betriebssystem UNIX MODULA, PASCAL, Oberon NP-Vollständigkeit Algorithmen und Datenstrukturen (Lehrbuch) Compilerbau, RISC-Computer Computergraphik Numerik, Floating Point Arithmetik Time sharing Logik, funktionale Progarmmierung: ML PC-Entwicklung (Microsoft) Komplexitätstheorie Künstliche Intelligenz, prakt. Umsetzung Komplexitätstheorie, Kryptographie Temporallogik, Programmverifikation Maus, Fenster Datenbanktechniken Rechnerarchitaktur, IBM 360 Zufallszahlen, Kryptographie Simula, OOP Public Key Kryptographie, RSA-Algorithmus 25 2003 2004 2005 2006 2007 Alan Kay Vinton G. Cerf, Robert E. Kahn Peter Naur Frances E. Allen E. Clarke, A. Emerson, J. Sifakis 2.8 Objektorientierte Programmierung, Smalltalk Vernetzung, TCP/IP Design von Programmiersprachen (Algol 60), Compilerdesign Parallele Programmierung, erste Frau mit Turing Preis! Modellprüfung Frauen in der Informatik Warum gibt es so wenige Frauen in der Informatik?1 • Intelligenztests zeigen minimale Unterschiede ausschließlich bei: ◦ ◦ • Vorstellung räumlicher Drehungen von Figuren zugunsten der Männer Sprachkompetenzen zugunsten der Frauen Es gibt keine Intelligenz und Begabungsunterschiede die die geringe Beteiligung der Frauen erklären können! Frauenanteil am Informatik-Studium (2001) Land England Italien, Frankreich, Spanien, Portugal frühere Sowjetunion Bulgarien Griechenland Indien, Malaysia, Singapur Deutschland 2.8.1 Frauenanteil [%] 35 40–50 50 60–70 59 50 8 Frauen in der Geschichte der Informatik Ada Augusta von Lovelace (1815-1852) • • • • arbeitet mit Ch. Babbage an der Analytical Engine Sie erfand Unterprogramme, Schleifen und bedingte Sprünge! publizierte unter dem Kürzel A.A.L. Mutter von vier Kindern Grace Murray Hopper (1906-1992) • • • • • beteiligt an Entwicklung von Mark 1, Mark 2, Univac 1 entwickelt 1952 einen der ersten Compiler “Debugging”: Eine tote Motte (bug) blockiert ein Relais im Rechner. Zitat: First actual case of a bug being found. Zitat: Wenn du eine gute Idee hast, dann tu es einfach, denn es ist viel einfacher sich hinterher zu entschuldigen, als vorher um Genehmigung zu bitten. Über 40 Ehrendoktorwürden und Preise 1 teilweise entnommen aus Olga Goldmann Seminar: Geschichte der Informatik, www.virtosphere.de/ schillo/teaching/WS2001/Geschichts-Seminar.html 26 Bis etwa 1960 waren viele Frauen in der Informatik tätig: • • 2.9 Beim Knacken der Enigma in Bletchley Park (England) Bei der Bedienung und Programmierung früher Rechner, u.a. Colossus (G.B.), Eniac (USA), nach dem Krieg in Deutschland Wichtige Institute und Firmen IAS: Institute for advanced studies, Princeton, New Jersey, USA MIT: Massachusettes Institute for Technology, Cambridge, Massachusetts, USA SRI: Stanford Research Institute, Palo Alto, USA Stanford University, Palo Alto, California, USA Harvard University, Cambridge, Massachusetts, USA UCB: Univ. of California, Berkeley, USA AT&T Bell Labs: New Jersey, USA 27 Kapitel 3 Algorithmen und Datenstrukturen – Einführung In diesem Kapitel werden hauptsächlich Sortieralgorithmen untersucht. Ziel ist hier aber nicht primär das Sortieren. Vielmehr wird hier an einem einfachen Beispiel die Entwicklung und Verbesserung von Algorithmen und Datenstrukturen aufgezeigt. Wichtig ist auch die mathematische Analyse der Algorithmen bezüglich Rechenzeit und Speicherplatzverbrauch. 3.1 Sortieren durch Einfügen Beispiel 3.1 7 4 4 7 4 7 3 4 3 4 1 3 8 8 8 7 5 4 3 3 3 8 7 5 5 5 5 5 8 7 1 1 1 1 1 8 Definition 3.1 Eine Liste A = (A1 , . . . , An ) heisst sortiert, wenn für alle i = 1, . . . , n − 1 gilt Ai ≤ Ai+1 . 3.1.1 Algorithmus (grob) Von links nach rechts: eine Zahl x wählen und verschieben nach links bis Ai−1 ≤ Ai = x ≤ Ai+1 erfüllt ist. For i:= 2 To n Do x:= a[i]; "füge x am richtigen Platz ein" 3.1.2 Algorithmus als PASCAL-Programm Index i: Liste A: 0 x 1 i a(i) n Program Sortieren(input,output); CONST n = 8000; TYPE index = 0..n; item = RECORD key : Integer; data : String[20] END; itemarray = ARRAY [0..n] OF item; VAR a : itemarray; Rechenzeit Procedure Ins sort(var a: itemarray); VAR i,j : index; x : item; BEGIN FOR i := 2 TO n DO BEGIN x := a[i]; a[0] := x; j := i-1; WHILE x.key < a[j].key DO BEGIN a[j+1] := a[j]; j := j-1; END; a[j+1] := x END END; worst case (Tmax (n)) (n − 1) · (I + C) (n Pn− 1) · (3M + I) i=2 i · C Pn (i − 1) · (M + I) Pi=2 n i=2 (i − 1) · (M + I) (n − 1) · (I + M ) best case (Tmin (n)) (n − 1) · (I + C) (n − 1) · (3M + I) (n − 1) · C 0 0 (n − 1) · (I + M ) Durch kopieren von a(i) auf die Variable x und auf a(0) wird die Terminierung der Schleife sichergestellt. Sollte die Zahl a(i) also kleiner als alle Elemente davor in der Liste sein und ganz nach links verschoben werden müssen würde der Schleifenindex i ohne diese Terminierung einen negativen Wert annehmen. Da die Liste aber bei a(0) aufhört, würde dies zu einem undefinierten Zustand führen. Diese Terminierung spart im Kopf der While-Schleife eine zusätzliche Bedingung ein und reduziert somit den Aufwand proportional zu n. 3.1.3 Worst - Case Rechenzeit Im Programmcode eingetragen ist für jede Programmzeile die Laufzeit. Als Parameter treten rechnerabhängigen Größen I (Increment), M (Move) und C (Compare) auf: I = Rechenzeit für eine Zähloperation M = Rechenzeit für eine Zuweisungsoperation C = Rechenzeit für eine Vergleichsoperation Diese Zeiten sind konstant, d.h. nicht von n abhängig und deshalb für die Berechnung der Komplexität unbedeutend. Für die Berechnung von exakten Laufzeiten sind sie jedoch sehr wichtig. 29 Tmax (n) = (n − 1) · (I + C + 3M + I + M + I) n X + (i · C + (i − 1) · (2M + 2I)) i=2 = (3I + 4M + C) · n − (3I + 4M + C) n n X X +C · i + 2(I + M ) · (i − 1) i=2 mit n X i=2 i= i=2 n(n + 1) n2 + n − 2 n2 n −1= = + −1 2 2 2 2 n n−1 X X n(n − 1) n2 n (i − 1) = i= = − 2 2 2 i=2 i=1 und erhalten wir a b { c z }| { 3 C Tmax (n) = (I + M + ) ·n2 + (2I + 3M + C) ·n −(3I + 4M + 2C) 2 2 = a · n2 + b · n + c }| z { z }| Wenn die Konstanten nicht interessieren, kann die Berechnung der Worst-Case Rechenzeit vereinfacht werden: (n − 1) · (I + C) (n − 1) · (3M + I) n X i·C → → → (n − 1) · c1 (n − 1) · c2 n X ( i) · c3 i=2 i=2 .. . .. . .. . Ergebnis: a · n2 + b · n + c Bestimmung von a, b und c 1.) Messe drei Zeiten für verschiedene n = n1 , n2 , n3 −→ (n1 , T1 ), (n2 , T2 ), (n3 , T3 ) T(n) T3 T2 T1 n1 n2 n3 30 n 2.) Einsetzen in Parabelgleichung: T1 = a · n21 + b · n1 + c T2 = a · n22 + b · n2 + c T3 = a · n23 + b · n3 + c 3.) Auflösen des linearen Gleichungssystems nach a, b und c (siehe Übung 2). Beispiel 3.2 Vergleich von 3 verschiedenen Komplexitäten n 10 100 1000 Alg. 1 T (n) = log n · c 1s 2s 3s Alg. 2 T (n) = c · n Alg. 3 T (n) = c · n2 Alg. 4 T (n) = c · n3 Alg. 5 T (n) = c · 2n 10 s 100 s 1000 s 100 s 10 000 s 1 000 000 s 1 000 s 1 000 000 s 1 000 000 000 s 1024 s ≈ 1030 s ≈ 10300 s Die Werte wurden mit einem c von einer Sekunde errechnet. Eine bessere Hardware würde nur dieses c verbessern und dadurch die Rechenzeit nicht wesentlich beeinflussen. Bei großen n ist die Komplexität viel ausschlaggebender als die Konstante c. 3.1.4 Best-Case Rechenzeit Ist die Liste A vorsortiert, so wird die While-Schleife nicht durchlaufen und das Programm ist viel schneller. Analog zu den Berechnungen im Worst-Case kann man auch im Best-Case die Zeiten aus der Tabelle aufaddieren und man erhält Tmin (n) = d · n + e. 3.1.5 Einschub: Asymptotik Beschreibung des asymptotischen Verhaltens von Rechenzeiten T (n) (oder Speicherplatz oder anderer Funktionen) für n → ∞. Idee: Vernachlässigung von konstanten Faktoren. Nur die Abhängigkeit von n für große n ist wichtig. 31 Definition 3.2 Seien die Funktionen f : N → R+ , g : N → R+ gegeben - R+ = {x ∈ R|x ≥ 0}. Dann schreibt man: Asymptotische obere Schranke: f (n) ≤c n→∞ g(n) f (n) = O(g(n)), wenn ∃ c ∈ R+ : lim f (n) = o(g(n)), wenn f (n) =0 n→∞ g(n) lim Asymptotische untere Schranke: f (n) ≥c n→∞ g(n) f (n) = Ω(g(n)), wenn ∃ c ∈ R+ : lim f (n) = ω(g(n)), wenn f (n) =∞ n→∞ g(n) lim Asymptotische enge (harte) Schranke: f (n) = Θ(g(n)), f (n) ≤ c2 n→∞ g(n) wenn ∃ c1 , c2 ∈ R+ : c1 ≤ lim Bedeutung von O, o, ω, Ω, Θ: f = O(g): f wächst höchstens so schnell wie g, kann aber gleich schnell wie g wachsen. f = o(g): f wächst weniger schnell als g f = Ω(g): f wächst mindestens so schnell wie g, kann aber gleich schnell wie g wachsen. f = ω(g): f wächst schneller als g f = Θ(g): f und g wachsen gleich schnell O, Ω, Θ, o, ω sind Relationen auf Funktionen, wie z.B. <, ≤ auf reellen Zahlen. Analogien: Funktionen f : N → R+ f (n) = O(g(n)) f (n) = o(g(n)) f (n) = Ω(g(n)) f (n) = ω(g(n)) f (n) = Θ(g(n)) Beispiele: 32 reelle Zahlen a≤b a<b a≥b a>b a=b f (n) = 0.001 · n2 f (n) = n5 g(n) = 1000 · n ⇒ f = O(g) und f = o(g) g(n) = 0.001 · 5n ⇒ f = O(g) und f = o(g) 33 f (n) = 10 · n g(n) = n ⇒ f = Θ(g) Satz 3.1 T (n) = Θ(g(n)) ⇔ T (n) = Ω(g(n)) und T (n) = O(g(n)) Die bisher berechneten Ergebnisse lassen sich nun also formulieren wie folgt: Satz 3.2 Beim Sortieren durch Einfügen gilt Tmin (n) Tmax (n) T (n) T (n) 3.1.6 = = = = Θ(n) Θ(n2 ) Ω(n) O(n2 ) Schwachstellen und mögliche Verbesserungen x Die Suche nach der Einfügestelle für das Element x soll verbessert werden. Suche in Listen Aufgabe 1: Suche ein Element x in einer beliebigen Liste. optimale Lösung: lineare Suche mit Tmax (n) = Θ(n) Aufgabe 2: Suche ein Element x in einer sortierten Liste A[1 . . . n] optimale Lösung: Bisektion 34 Der Bereich links von x ist bereits sortiert. Man findet die richtige Stelle für x indem man die Liste links von x mehrfach halbiert. Definition 3.3 bxc := max{y ∈ Z|y ≤ x}. bxc ist also die größte ganze Zahl kleiner oder gleich x. Analog sei dxe = min{y ∈ Z|y ≥ x}. Der Bisektionsalgorithmus Bisektion(A,x) a=1 b=n m = b a+b c 2 while A[m] 6= x & b > a if x < A[m] then b = m else a = m c m = b a+b 2 if A[m] == x then print (”Hurra ”,x,”gefunden an Position ”,m) else print (”Schade, ”,x,”nicht in A”) Komplexität Sei die Arraylänge n = 2k . Dann sind höchstens k Wiederholungen der While-Schleife erforderlich. Also ist die Rechenzeit proportional zu k, d.h. T (n) = c · k. n = 2k ln(n) = k · ln 2 ln n k = ln 2 Also gilt für die Bisektion T (n) = c · ln n = c · log2 n = O(log n) ln 2 x Erläuterung: An log2 x = ln = c · ln x ← log n, erkennt man, daß sich alle Logarithmen nur ln 2 um einen kostanten Faktor unterscheiden wenn man nur ihre Basis ändert. Das Suchen der Einfügestelle ist mit logarithmischem Aufwand möglich. Aber: verschieben der O(n) Arrayelemente im Array kostet linearen Aufwand. Idee: verwende dynamische Datenstruktur als verkettete Liste. x 35 Verschieben der Arrayelemente ist damit unnötig. x wird direkt an der richtigen Stelle eingefügt. Aber: die Bisektion ist auf einer verketteten Liste nicht anwendbar. Daher: für Sortieren durch Einfügen bleibt Tmax (n) = Θ(n2 ) 3.2 Quicksort Es soll die Liste 5, 3, 2, 6, 4, 1, 3, 7 sortiert werden. Dies erfolgt nach dem Prinzip divide and conquer durch rekursiv wiederholtes Aufteilen und bearbeiten, wie in folgender Tabelle zu sehen: x = 5 (Pivotelement) 5 3 2 6 4 1 3 7 ↑i ↑j 5 3 2 6 4 1 3 7 ↑i ←→ ↑j 3 3 2 6 4 1 5 7 ↑i ↔ ↑j 3 3 2 1 4 6 5 7 ↑j ↑i 3 3 2 1 4 6 5 7 x = 3, x = 6 ↑i ←→ ↑j ↑i ↔↑j 1 3 2 3 4 5 6 7 ↑i ↔↑j ↑j ↑i 1 2 3 3 4 5 6 7 ↑j ↑i ↑i ↑j 1 2 3 3 4 5 6 7 ↑i ↑j ↑i ↔↑j 1 2 3 3 4 5 6 7 ↑j ↑i 1 2 3 3 4 5 6 7 ↑i ↑j 1 2 3 3 4 5 6 7 Erläuterung: Der erste Wert der Liste ist das Pivotelement (ausgezeichnetes, besonderes Element). Zwei Indizes i und j durchlaufen die Liste nach folgendem Kriterium: i sucht von links nach einem Wert ≥ x und j von rechts nach einem Wert ≤ x. Dann werden Inhalt von i und von j vertauscht. Das setzt sich solange fort bis sich beide Indizes überkreuzen oder gleich sind. Dann wird die Liste rechts von j geteilt und auf beiden Hälften rekursiv von vorne begonnen. 3.2.1 Der Algorithmus Seien A=Liste, p=Anfangsindex, r=Endeindex. Dann ist die rekursive Struktur gegeben durch: Quicksort(A,p,r) if p < r then q=Partition (A,p,r) Quicksort (A,p,q) Quicksort (A,q+1,r) 36 Das Aufteilen erfolgt mittels Partition(A,p,r) x=A[p] i=p-1 j=r+1 while TRUE do repeat j=j-1 until A[j] ≤ x repeat i=i+1 until A[i] ≥ x if i < j then vertausche A[i] mit A[j] else Return(j) Der erste Aufruf von Quicksort auf einer Liste der Länge n erfolgt durch Quicksort(A,1,length(A)) 3.2.2 Analyse Laufzeit von Partition auf Array A[p...r] mit n = r − p + 1 T (n) = Θ(n) Laufzeit von Quicksort im Best Case n n/2 n/2 n/4 2 1 n/4 2 1 ... 1 2 1 ... 1 n/4 2 1 ... 1 2 1 ... 1 n/4 2 1 ... 1 2 1 ... 1 log2 n Ebenen 2 1 ... 1 1 Rekursionsbaum Der Rekursionsbaum hat n Blattknoten. Er wächst in der Breite exponentiell. Trotzdem ist die Komplexität auf jeder Ebene Θ(n). Warum? 37 Zahl der Ebenen im Rekursionsbaum? Zur Vereinfachung nehmen wir an, das Array hat n = 2k Elemente. Dann ist die Tiefe des Baumes gleich k. Auflösen nach der Tiefe k ergibt: log2 n = log2 2k = k. Die gesamte Rechenzeit ist also hier gleich der Produkt aus dem Aufwand pro Ebene und der Zahl der Ebenen (Tiefe): Tmin (n) = c · n · log2 n = Θ(n log n) Laufzeit von Quicksort im Worst Case (sortierte Liste) 1 2 3 4 5 6 7 8 1 ↑i ↑j 1 2 3 4 5 6 7 8 2 ↑i ↑j 2 3 4 5 6 7 8 3 ↑i ↑j 4 5 7 8 ↑i ↑j 1 6 Aufwand pro Ebene: n n n−1 1 n Ebenen n 1 n−2 n−1 2 1 1 Rekursionsbaum n X Tmax (n) = c2 · ( i + n) i=2 n(n + 1) − 1 + n) = c2 · ( 2 n2 3 = c2 · ( + n − 1) 2 2 = Θ(n2 ) Für die Rechenzeit T(n) gilt: c1 · n log n ≤ T (n) ≤ c2 · n2 38 1 2 Idee zur Verhinderung des Worst Case: Liste vorher zufällig permutieren. Begründung: Die Wahrscheinlichkeit für das Erzeugen einer sortierten Liste ist sehr klein. 101n falls nur 10 Zahlen erlaubt sind. Allgemeine Wahrscheinlichkeit: M1n für M unterschiedliche zu sortierende Werte und n verschiedene Zahlen in der Liste. Beispiel 3.3 32 Bit Integer Zahlen: M = 232 , n = 106 , 1 Mn = 1 (232 )106 = 1 232·106 Folgerung: Die Wahrscheinlichkeit, dass ein randomisiertes Quicksort den Worst-Case trifft ist sehr klein. Aber die zufällige Permutation der Liste vor dem Sortieren kostet Rechenzeit. Daher: Zufällige Wahl des Pivotelements ersetze in Partition x = A[p] durch x = A[random (p,r)] oder Ersetzung von Partition (A,p,r) durch: Random-Partition(A,p,r) i=Random (p,r) vertausche A[p] mit A[i] return Partition (A,p,r) Random (p,r) liefert zufällig mit konstanter Wahrscheinlichkeit eine Zahl aus {p, p+1, . . . ,r}. Bemerkung: Durch Randomisierung gibt es keine Eingabe mehr, für die der Algorithmus immer Worst-Case Verhalten zeigt. Average-Case-Analyse: Berechnung der mittleren Laufzeit des Algorithmus z.B. Quicksort auf einer repräsentativen Menge von Eingaben. Beispiel 3.4 Die Average-Case-Analyse für Quicksort ist sehr schwierig. Daher wird hier der ungünstige Fall eines konstanten Aufteilungsverhältnisses 1 : m am Beispiel 1 : 9 behandelt. n 9n/10 1n/10 81n/100 9n/100 9n/100 1n/100 729n 81n 1000 1000 81n 9n 1000 1000 81n 9n 1000 1000 9n 1n 1000 1000 9 dl ( 10 ) ·n=1 1 dr ( 10 ) ·n=1 9 + log n = 0 10 log n dl = log 10 9 dl · log T (n) < c · n log n log 10 9 39 Tiefe k = log n log 10 9 ≈ 21, 8 · log10 n Aufwand auf jeder Ebene ≤ n ⇒ im Best-Case auch n · log n ist, gilt: T (n) = O(n · log n). Da die komplexität von Quicksort Satz 3.3 Quicksort besitzt im Average-Case die Komplexität T (n) = Θ(n · log n) 3.3 Sortieren mit Bäumen (Heapsort) Beispiel 3.5 1 16 i: A[i] : 2 14 3 10 4 8 5 7 6 9 7 3 8 2 9 4 10 1 Darstellung von A als Baum: 16 14 8 2 8 4 4 9 1 2 10 7 5 9 3 6 3 7 1 10 Keine neue Datenstruktur nötig, sondern nur Funktionen parent, left, right mit den Eigenschaften parent(i) = b 2i c left(i) = 2i right(i) = 2i + 1 (Vorgänger) (linker Nachfolger) (rechter Nachfolger) Definition 3.4 Ein Array mit den Funktionen left, right, parent heisst Heap, wenn gilt A[parent(i)] ≥ A[i] Die Anzahl der Elemente in dem Array A bezeichnen wir mit length(A), die Anzahl der Elemente in A, die einen Heap bilden, bezeichnen wir mit heapsize(A). Definition 3.5 Die Höhe eines Knotens i in einem Baum ist gleich der Zahl der Kanten im längsten Pfad von i zu einem Blattknoten. Die Höhe des Baumes ist gleich der Höhe des Wurzelknotens. Der folgende Algorithmus verwandelt einen Binärbaum in einen Heap unter der Voraussetzung, dass beide Unterbäume schon Heaps sind. 40 Heapify(A,i) vertausche A[i] mit seinem größten Nachfolger A[largest] falls A[largest] > A[i] Heapify (A,largest) Beispiel 3.6 1 16 P "" PPPP " 2 3 4 10 bb b 5 4 14 7 %e %8 e 9 10 2 8 1 %e %6 e 7 9 3 1 16 P "" PPPP " 2 3 14 10 bb %e b 7 4 5 %6 e 9 4 7 3 %e %8 e 9 10 2 8 1 1 16 P "" PPPP " 2 3 14 10 bb %e b 7 4 5 %6 e 9 8 7 3 %e %8 e 9 10 2 4 1 Der Algorithmus Heapify(A,i) l = Left(i) r = Right(i) if l ≤ heapsize(A) AND A[l] > A[i] then largest = l else largest = i if r ≤ heapsize(A) AND A[r] > A[largest] then largest = r if largest 6= i then vertausche A[i] mit A[largest] Heapify(A, largest) Laufzeit von heapify Vergleich von A[i] mit A[left(i)] und A[right(i)]: konstante Zeit= Θ(1) Rekursion Die maximale Zahl von Knoten in einem der Unterbäume geht für grosse n asymptotisch gegen 2 n, wenn n = Zahl der Unterknoten in i. 3 Rekurrenzrelation 2 T (n) ≤ T ( n) + Θ(1) 3 Das Auflösen der Rekurrenzrelation erfolgt mit Hilfe des Mastertheorems: Satz 3.4 (Mastertheorem) Seien a ≥ 1, b > 1 Konstanten und f : R+ → R+ , T : R+ → R+ Funtionen mit T (n) = aT (n/b) + f (n) 41 wobei n/b für die ganzzahlige Division (bn/bc beschränkt werden durch Θ(nlogb a ) falls Θ(nlogb a log n) falls T (n) = Θ(f (n)) falls oder dn/be) steht. Dann kann T (n) asymptotisch ∃ε>0 : f (n) = O(nlogb a−ε ) f (n) = Θ(nlogb a ) ∃ε>0 : f (n) = Ω(nlogb a+ε ) und ∃c<1 ∃n0 ∀n≥n0 : af (n/b) ≤ cf (n) Für Heapsort gilt T (n) ≤ T ( 32 n) + Θ(1). Für den Worst Case gilt n Tmax (n) = 1 · Tmax +c 3/2 Für die Anwendung des Mastertheorems gilt dann also a = 1, b = 32 , f (n) = Θ(1) sowie nlogb a = n log 3 1 2 =1 Es ist der zweite Fall anwendbar, denn f (n) = Θ(nlogb a ). Also gilt für heapify Tmax (n) = Θ(1 · log n) = Θ(log n). Beispiel 3.7 Anwendung des Master-Theorems auf Quicksort (Best Case): T (n) = 2 T ( n2 ) + c · n a = 2, b = 2, f (n) = c · n nlogb a = nlog2 2 = n f (n) = Θ(n) ⇒ 2. Fall: T (n) = Θ(n · log n) Beispiel 3.8 wie oben, jedoch mit anderem f (n): T (n) = 2T ( n2 ) + c · log n a = 2, b = 2, f (n) = c · log n nlogb a = n f (n) = c · log n = O(n(1−ε) ) ⇒ 1. Fall: T (n) = Θ(n) 3.3.1 Erzeugen eines Heap Build-Heap(A) length(A) for i = b c downto 1 2 do heapify(A,i) Beispiel 3.9 42 1 4P PPP P 2 3 1 H 3 HH ee H 4 5 6 7 2 16 9 10 %@@ % 8 9 10 14 8 7 1 4P PPP P 2 3 1 3 bb ee b 4 5 6 7 14 16 9 10 %e %8 e 9 10 2 8 7 1 4 "PPP " PP " 2 3 16 10 bb %e b 5 %6 e 7 4 14 7 9 3 %e %8 e 9 10 2 8 1 1 16 P "" PPPP " 2 3 14 10 bb %e b 4 5 %6 e 7 8 7 9 3 %e %8 e 9 10 2 4 1 1 4 "PPP " PP "2 3 1 10 bb b %%ee 4 5 6 7 14 16 9 3 %e %8 e 9 10 2 8 7 Analyse obere Schranke Jeder der Θ(n) Aufrufe von heapify kostet O(log n) Zeit. Also gilt =⇒ T (n) = O(n log n). bessere Schranke Die Laufzeit von heapify hängt von der Höhe des Knotens im Baum ab. Die meisten Knoten haben sehr niedrige Höhe! (Zahl der Knoten auf Höhe h) ≤ d n 2h+1 e Die Laufzeit von heapify für Knoten der Höhe h wächst linear mit h. Also Theapif y (h) = O(h) = O(log(Anzahl Knoten im Unterbaum)) T (n) ≤ blog nc l X h=1 n m 2h+1 X h = O(2n) = O(n) · O(h) = On h 2 h=1 blog nc Die vorletzte Gleichung gilt weil ∞ 1 X h 2 = 1 2 = 2, h 2 (1 − ) 2 h=1 was man in der Formelsammlung findet. 3.3.2 Der Heapsort - Algorithmus Voraussetzung: Build-Heap setzt maximales Element an die Wurzel, d.h. in A[1] 43 Idee Wiederhole folgende Schritte bis der Heap nur noch aus einem Element besteht: 1.) vertausche A[1] mit A[n] 2.) lösche A[n] aus dem Heap 3.) Heapify (A,1) Beispiel 3.10 14 8 4 2 8 10 2 10 4 7 1 9 1 5 9 3 6 8 3 7 16 10 4 2 8 i 4 10 8 5 1 2 4 10 8 1 3 6 8 3 7 16 10 9 7 10 8 10 8 5 16 10 2 14 9 5 8 6 1 9 7 4 10 8 7 14 9 3 6 5 1 3 6 2 7 16 10 2 9 7 5 3 i 4 7 14 9 i 5 8 6 2 9 7 16 10 4 10 8 8 4 14 9 1 7 5 16 10 Analyse Build-Heap: T (n) = O(n) for-Schleife: (n − 1) mal Heapify mit T (n) = O(log n) und Vertauschen mit O(1) T (n) ≤ c1 · n + (n − 1) · [c2 · log n + c3 ] = c2 · n log n + (c1 + c3 ) · n − c2 log n − c3 | {z } 44 9 7 1 3 Heapsort(A) Build-Heap(A) for i= length(A) downto 2 do vertausche A[1] mit A[i] heapsize(A)= heapsize(A)-1 Heapify(A,1) = O(n log n) 6 2 Algorithmus vernachlässigbar für n → ∞ 3 16 10 i 3 1 2 1 3 7 1 10 8 2 4 14 9 3 16 10 2 8 4 3 4 i 4 3 2 1 2 1 1 7 1 4 1 i 4 i 6 2 4 14 9 3 16 10 3 i 5 7 3 2 14 9 7 1 2 4 9 i 8 7 9 2 4 14 9 1 8 6 3 9 7 3.3.3 Priority-Queues als Anwendung der Heap-Struktur Bei der Verwaltung von Warteschlangen mit Aufträgen unterschiedlicher Priorität muß als jeweils nächster Auftrag immer ein Auftrag mit höchster Priorität ausgewählt werden. Dies kann zum Beispiel erreicht werden, indem man die Aufträge in einer sortierten Liste speichert. Allerdings ist dann die Komplexität zum Speichern der Aufträge in der Liste linear in der Länge n. Verwendet man dagegen einen Heap zur Verwaltung der Warteschlangen von Aufträgen, so ist die Komplexität zum speichern und holen von Aufträgen im Heap logarithmisch in n. Einfügen eines Elements x im Heap 1.) neues Blatt erzeugen 2.) Pfad vom Blatt zur Wurzel durchsuchen und x an der richtigen Stelle einfügen. Algorithmus Heap-Insert(A, key) heapsize(A) = heapsize(A)+1 i=heapsize(A) while i>1 AND A[parent(i)] < key do A[i] = A[parent(i)] i=parent(i) A[i]=key Beispiel 3.11 Anwendung von Heap-Insert zum Einfügen des Elements X = 15 1 16 P "" PPPP " 2 3 14 10 bb %e b 4 5 %6 e 7 8 7 9 3 % e 9 10 %8 e 2 4 1 1 16 XXX XXX "" " X 2 3 14 10 b %e bb % e 4 8 % e %8 e 9 2 4 1 16 X XXX "" XXX " 2 X b bb 4 5 8 14 %e @ %8 e 9 10 @ 11 2 4 1 7 5 7 @ @ 10 11 1 X 6 1 16 X XXX "" XXX " 3 10 %e 7 %6 e 9 3 2 15 bb b 4 5 8 14 %e @ %8 e 9 10 @ 11 2 4 1 7 Analyse T (n) = O(log n). 45 7 9 3 3 10 %e %6 e 7 9 3 3.4 Sortieren in linearer Zeit Unter ganz bestimmten Bedingungen ist Sortieren sogar in linearer Zeit möglich, wie man an folgendem Beispiel erkennt. Idee Wenn alle in der Liste A vorkommenden Sortierschlüssel aus einer bekannten endlichen Menge sind, kann man durch einfaches Abzählen der Häufigkeiten aller in A vorkommenden Elemente eine Tabelle S der Häufigkeiten erstellen. Danach wird die Liste A überschrieben mit den Elementen in der richtigen Reihenfolge (siehe Beispiel). Beispiel 3.12 Zu sortieren sei A = (2, 1, 4, 5, 4, 7, 3, 1, 4, 4, 1). Als Häufigkeitstabelle S erhält man Sortierschlüssel 1 2 3 4 5 6 7 Häufigkeit 3 1 1 4 1 0 1 Daraus erhält man einfach die sortierte Liste A = (1, 1, 1, 2, 3, 4, 4, 4, 4, 5, 7). Komplexität Mit m = |S| entsteht beim Abzählen ein linearer Aufwand und beim Zurückschreiben auch und man erhält T (n) = c1 · n + c2 · m + c3 · n = Θ(n + m) Dieser Algorithmus ist besonders interessant, wenn die Zahl m der verwendeten Sortierschlüssel klein ist, zum Beispiel beim Sortieren einer großen Adressdatei nach Postleitzahlen. Das hier verwendete Verfahren setzt voraus, dass die Menge der verwendeten Schlüssel bekannt ist. Daher ist der aufwändige Vergleichen der Sortierschlüssel nicht nötig. Ist diese Voraussetzung jedoch nicht erfüllt und auch sonst kein Zusatzwissen über die zu sortierenden Daten vorhanden, so ist Sortieren in linearer Zeit nicht möglich und man kann für die Komplexität folgende untere Schranke angeben: Satz 3.5 Wenn ein Sortieralgorithmus für beliebige Listen nur mit Vergleichen und Kopieren arbeitet und keine Zusatzinformation über die Liste erhält, dann gilt: T (n) = Ω(n log n) 3.5 Hashing Egal, welchen Suchbegriff man eingibt, moderne Suchmaschinen finden sehr schnell eine Antwort. Dies wird ermöglicht durch eine geeignete Datenstruktur, einen sogenannten Index. Eine Möglichkeit, solch einen Index zu realisieren ist die Speicherung der Daten in einer Baumstruktur, wie wir sie bei der Verwaltung von priorisierten Warteschlangen in Form des Heap kennengelernt haben. Wir werden hier mit dem sogenannten Hashing ein Verfahren vorstellen, das im Mittel einen Zugriff in konstanter Zeit erlaubt. Das heißt, die Zugriffszeit hängt nicht von der Datenmenge ab. Welche bekannte Datenstruktur erlaubt konstante Zugriffszeit? 46 3.5.1 Direkte Adressierung Versuchen wir, für eine Suchmaschine einen Index unter Verwendung eines Array zu erzeugen. Zuerst müssen die eingegebenen Strings auf numerische Schlüssel (natürliche Zahlen) abgebildet werden. Bei einem erlaubten Alphabet mit 80 Zeichen (deutsche Klein-, Großbuchstaben, Ziffern und 10 Sonderzeichen) werden diese nummeriert von 0 bis 79 und dann wird die Zeichenkette z0 , . . . zl kodiert als Schlüssel k = nl · 80l + nl−1 · 80l−1 + . . . + n1 · 80 + n0 · 1, wobei ni die Nummer des i-ten Eingabezeichens ist. Wenn die Kleinbuchstaben die Nummern 0 bis 30 (inkl. Umlaute und ß) erhalten, würde zum Beispiel die Eingabe ,,hallo” kodiert als o l l a h 14 · 804 + 11 · 803 + 11 · 802 + 0 · 801 + 7 · 800 = 573440000 + 5632000 + 70400 + 0 + 7 = 579142407 Mit einer derartigen Nummer kann dann direkt ein Arrayelement angesprochen werden in der Tabelle T in Abbildung 3.1. Tabelle T Schlüssel Daten 0 1 Schlüsseluniversum U 0 2 3 4 3 4 8 7 1 verw. Schlüssel K 1 2 5 6 5 5 6 7 6 9 8 9 7 Abbildung 3.1: Direkte Adressierung über Array T . Wir beschränken die Strings als Eingabe für die Suchmaschine auf eine Länge von 20 Zeichen. Wieviele unterschiedliche Eingaben sind hier möglich? ..................................................................................................................................... Offenbar wird hierbei zu viel Speicherplatz benötigt. 3.5.2 Hash-Tabellen Bei der direkten Adressierung muss die Tabelle Θ(|U |) Elemente haben, also gleich groß sein wie das Schlüssel-Universum. Bei Verwendung einer sogenannten Hash-Tabelle kann viel Speicherplatz gespart werden. Die Größe der Tabelle reduziert sich Θ(|K|) Elemente, wobei K die Menge der tatsächlich verwendeten Schlüssel ist. Idee: Hash-Funktion bildet Schlüssel ab auf Indizes der Tabelle 47 Hash-Tabelle h(k1 ) Schlüsseluniversum U h(k4 ) verw. Schlüssel K k1 h(k3 ) = h(k2 ) k4 k3 k2 Abbildung 3.2: Adressierung über Hash-Tabelle. Definition 3.6 Eine Hashfunktion h bildet die Schlüssel des Universums ab auf eine (viel kleinere) Menge {0, 1, . . . , m − 1} von Hash-Werten. Man nennt h(k) den Hash-Wert des Schlüssels k. Nachteil: Kollisionen sind nicht vermeidbar, s.o.: h(k3 ) = h(k2 ). Warum? 3.5.3 Hash-Funktionen Eigenschaften von guten Hash-Funktionen: • • • • Deterministisch. Warum? Ähnliche Schlüssel werden nicht auf ähnliche Hash-Werte abgebildet Möglichst wenige Kollisionen Aber: Kollisionen sind möglich! Modulo m: h(k) = k mod m Beispiel: k = 67, m = 16: h(67) = 67 mod 16 = 3 Problem, wenn m = 2p : Dann berechnet h(k) die p niederwertigsten Bits von k. Gute Wahl von m: Primzahlen nicht zu nahe bei einer Zweierpotenz Die Multiplikationsmethode: Zuerst wird k multipliziert mit einer Konstanten 0 < A < 1. Dann werden die Nachkommastellen des Ergebnisses mit m multipliziert. Von diesem Ergebnis wird dann der ganzzahlige Anteil genommen: h(k) = bm(kA mod 1)c √ Laut [9] empfiehlt D. Knuth A = ( 5 − 1)/2 ≈ 0.61803. Beispiel: k = 674301, A = 0.61803, m = 1000: √ h(k) = b1000 · (674301 · ( 5 − 1)/2 mod 1)c = b1000 · (416740.93664804 mod 1)c = b1000 · 0.93664804c = b936.64804c = 936 48 3.5.4 Kollisionsauflösung durch Verkettung Hash-Tabelle k1 Schlüsseluniversum U verw. Schlüssel K k1 k5 k4 k4 k5 k3 k2 k3 k2 Abbildung 3.3: Adressierung über Hash-Tabelle. Analyse Definition 3.7 Sei T eine Hash-Tabelle mit m Feldern, in der n Elemente gespeichert sind, so wird α = n/m als Auslastung der Tabelle bezeichnet. Wir nehmen im Folgenden an, dass die verwendete Hash-Funktion jeden vorkommenden Schlüssel mit gleicher Wahrscheinlichkeit auf eines der Felder der Tabelle abbildet. Diese Annahme wird als einfaches uniformes Hashing bezeichnet. Satz 3.6 Werden in einer Hash-Tabelle die Kollisionen durch Verkettung aufgelöst, so kostet eine Suche im Mittel Θ(1+α) Rechenzeit unter den Annahme des einfachen uniformen Hashing. Wenn die Zahl der Felder der Hash-Tabelle proportional zur Zahl der zu speichernden Elemente wächst, gilt n = O(m) und α = n/m = O(m)/m = O(1). Also folgt für die Zeit zum Suchen im Mittel Θ(1). 3.5.5 Offene Adressierung Bei dieser alternativen Methode der Kollisionsauflösung werden alle Elemente direkt in der Hash-Tabelle selbst gespeichert. Im Fall von Kollisionen wird ein neuer alternativer Index berechnet, und dies wird so lange wiederholt, bis eine freie Speicherzelle gefunden wird. Diese Methode hat den Vorteil, dass keine Zeiger benötigt werden, was etwas Speicherplatz spart. Allerdings kann es hier passieren, dass die Hash-Tabelle voll wird. α kann hier also nicht größer als eins werden. Als Literatur empfehle ich für dieses Kapitel [9]. 49 Kapitel 4 Algorithmen auf Graphen 4.1 Einführung Graphen werden immer dann verwendet, wenn man eine Menge von Objekten und Relationen zwischen diesen Objekten darstellen und/oder untersuchen will. Verkehrsnetze werden z.B. oft als Graph modelliert: 50 Bay F N Ma Ka Reg Ul S Pa Li M Ros Rv Ba Sal Z Be Inn Definition 4.1 Ein gerichteter Graph ist ein Paar G = (V, E), bestehend aus einer endlichen Knotenmenge V (engl. vertex) und einer zweistelligen Relation E ⊆ V × V . Die Elemente von E werden Kanten (engl. edge) genannt. G0 = (V 0 , E 0 ) ist ein Teilgraph von G = (V, E), wenn V 0 ⊆ V und E 0 ⊆ E. Beispiel 4.1 folgendes sind Graphen: • • • V1 = Menge aller Städte in Süddeutschland E1 = {(x, y) ∈ V1 × V1 |es gibt eine direkte Straßenverbindung von x nach y} V2 = Menge der Einwohner von Ravensburg E2 = {(x, y) ∈ V2 × V2 |x kennt y} V3 = Menge der Einwohner von Ravensburg E3 = {(x, y) ∈ V3 × V3 |x ist verheiratet mit y} G3 = (V3 , E3 ) ist Teilgraph von G2 = (V2 , E2 ) Zur graphischen Darstellung von Graphen werden Knoten durch Punkte und jede Kante (x, y) durch einen Pfeil von x nach y dargestellt. Beispiel 4.2 c V = { a, b, c, d, e, f, g, h } E = { (a, d), (d, a), (a, b), (b, c), (c, a), (b, e), (a, e), (f, g), (f, f ) } f a h b d e g Definition 4.2 Falls für jede Kante e = (x, y) ∈ E eines Graphen G = (V, E) auch die Kante e0 = (y, x) ∈ E ist, so heißt G ungerichteter Graph. Alle anderen Graphen sind gerichtet. Beim Zeichnen von ungerichteten Graphen wird für jedes verbundene Knotenpaar nur eine Linie ohne Pfeile gezeichnet. 51 Beispiel 4.3 G = (V, E) mit V = Menge der Einwohner von Ravensburg, E = {(x, y) ∈ V × V | x ist verheiratet mit y} Definition 4.3 • Sei G = (V, E) ein Graph. Ein Pfad (oder Weg) von Knoten x ∈ V nach y ∈ V ist eine Folge (x = a0 , . . . , a` ) von Knoten mit (ai , ai+1 ) ∈ E. ` ist die Länge des Weges von x nach y. • In einem einfachen Pfad kommt jeder Knoten höchstens einmal vor. • Ein Pfad der Länge ` ≥ 1 von x nach x heißt Kreis. • Ein Kreis, in dem außer dem Startknoten kein Knoten mehr als einmal vorkommt, heißt Zyklus. • Ein gerichteter Graph G = (V, E) heißt zyklenfrei oder gerichteter azykli-scher Graph (engl. directed acyclic graph (DAG)), wenn er keine Zyklen enthält. • (x, x) und (x, y, x) heißen triviale Zyklen. Ein ungerichteter Graph ist zyklenfrei, wenn es zwischen jedem Paar von Knoten (x, y) höchstens einen Pfad (ohne triviale Zyklen) gibt. • Die Zahl der Kanten, die von einem Knoten v ausgehen oder in ihm enden heißt Grad des Knotens. Er wird mit deg(v) bezeichnet. Bei ungerichteten Graphen wird jede Kante nur einfach gezählt. Beispiel 4.4 Für den Graphen aus Beispiel 4.2 gilt: • (b, c, a, d, a) ist ein Pfad von b nach a. • (c, a, b, e) ist ein einfacher Pfad von c nach e. c • (f, f, f, g) ist ein Pfad. f a • Er enthält u.a. den Kreis (a, b, c, a, d, a). • ({a, b, c, e}, {(a, b), (b, c), (b, e), (a, e)}) ist ein azyklischer Teilgraph von G. h b • (a, b, c, a) und (a, d, a) und (f, f ) sind (bis auf Permutation) die einzigen Zyklen. d e g • deg(a) = 5, deg(b) = deg(f ) = 3, deg(h) = 0. Definition 4.4 • Ein ungerichteter Graph G heißt zusammenhängend, wenn es zwischen je zwei beliebigen Knoten einen Weg gibt. • Ein zusammenhängender zyklenfreier Graph ist ein Baum. • Eine Menge paarweise nicht zusammenhängender Bäume heißt Wald. • Ein Kreis heißt Eulerkreis, wenn er jede Kante des Graphen genau einmal durchläuft. 4.2 Eulerkreise Beispiel 4.5 Die Stadt Königsberg (heute Kaliningrad, Rußland) hatte folgenden Verlauf des Flusses Pregel mit sieben Brücken. Leonhard Euler fragte sich 1736, ob es einen Rundweg durch 52 die Stadt gibt, auf dem jede Brücke genau einmal überquert wird. Der zugehörige Graph ist rechts angegeben. C A D B Bemerkung: Für Graphen mit Mehrfachkanten ist E statt einer Relation eine Multimenge über V × V . Satz 4.1 Ein ungerichteter zusammenhängender Graph enthält genau dann einen Eulerkreis wenn der Grad jedes Knotens gerade ist. Beweis: (Beweisskizze) “⇒”: Wird ein Knoten besucht, so über eine ankommende und eine abgehende Kante. Bei jedem Besuch eines Knoten auf dem Eulerkreis werden also zwei Kanten “verbraucht”. “⇐”: Sei G ein Graph in dem alle n Knoten geraden Grad haben. Weil der Graph zusammenhängend ist, muss der Grad aller Knoten mindestens 2 sein. Dann besitzt der Graph also mindestens n Kanten und damit einen Zyklus. Nun konstruieren wir einen Eulerkreis mit folgendem Algorithmus: Wir starten bei einem Knoten und traversieren den Graphen so lange bis ein Knoten vorkommt, der schon besucht wurde. Nun ist ein Kreis C gefunden. Alle Kanten von C werden nun gelöscht. Im verbleibenden Graphen wird dieses Verfahren fortgesetzt, bis alle Kanten besucht sind. Nun ist der Graph in disjunkte Zyklen zerlegt. Diese lassen sich leicht zu einem Eulerkreis verbinden. Wir starten auf einem beliebigen Zyklus und verfolgen diesen Zyklus, bis wir entweder wieder am Anfang ankommen oder einen Knoten V finden, der auch in einem anderen Zyklus vorkommt. Wir verfolgen dann den zweiten Zyklus, bis wir wieder bei V angekommen sind oder bis wir wieder auf einen Knoten W treffen, der zu einem weiteren Zyklus gehört. Dann folgen wir wieder diesem Zyklus. Ein weiterer Zyklus darf nur dann betreten werde, wenn er vorher noch nicht betreten war oder er über den Knoten wieder betreten wird, von dem man den Zyklus verlassen hat. Dieses Verfahren wird solange fortgesetzt, bis alle Zyklen zu einem Eulerkreis verbunden sind (siehe Abbildung). 2 53 Der im Beweis skizzierte Algorithmus arbeitet in linearer Zeit. Das heißt, bei einem Graphen mit geradem Grad und m Knoten gilt für die Rechenzeit T (m) = Θ(m). 4.3 Datenstrukturen für Graphen 4.3.1 Rv Ul M S Ka Z Ba Be F Ma N Adjazenzmatrix Rv Ul M S Ka Z Ba Be F Ma N x x x x x x x x x x x x x x x x x x x x x x x x x x x x x x x x x x x x x x x x x x F N Ma Ka Ul S M Rv Ba Z Be Die Matrix ist symmetrisch. Warum? 4.3.2 Adjazenzlisten a b c d e 0 f g 0 h 0 b c a 0 a 0 e e 0 f g 0 c d 0 f a h b d 54 e g 4.3.3 Liste von Adjazenzlisten a b e b c e 0 c a 0 d a 0 d 0 c f a f h b e 0 f d g 0 e g g 0 h 0 0 4.3.4 Vergleich der drei Datenstrukturen Adjazenzmatrix Adjazenzlisten Liste von Adjazenzlisten Vorteile Berechnung der Inzidenz mit O(1) Speicherplatz = O(n + m) Speicherplatz = O(n + m), Knoten können einfach gelöscht oder hinzugefügt werden Nachteile Speicherplatz und Initialisierung teuer, beide O(n2 ) Berechnung der Inzidenz mit O(m) Berechnung der Inzidenz mit O(n + m), Knotensuche mit O(n) n = Knotenzahl, m = Kantenzahl Inzidenz bezeichnet eine Beziehung zwischen Knoten und Kanten in einem Graphen. Ein Knoten heißt in einem Graph inzident mit einer Kante, wenn er von dieser Kante berührt wird, das heißt, wenn diese ihn enthält. 4.4 Kürzeste Wege Definition 4.5 Ein gewichteter Graph (auch bewerteter Graph) ist ein Tripel G = (V, E, w), bestehend aus einem Graphen (V,E) zusammen mit einer Gewichtungsfunktion w : E → R+ , die jeder Kante eine relle Zahl zuordnet. Die Länge eines Weges (x = a0 , . . . , a` ) ist `−1 X w(ai , ai+1 ). i=0 55 Bemerkung: Setzt man bei nicht gewichteten Graphen alle Gewichte auf 1, so erhält man die Weglänge gemäß Def. 4.3. Beispiel 4.6 Entfernungstabelle einiger süddeutscher Städte RV Ul M S Ka Rv 0 86 178 195 – Ul 0 123 107 – M 0 – – S 0 64 Ka 0 Z Ba Be F Ma N Z 91 – – – – 0 Ba Be F Ma 180 – – – – – – – – – – – – – 210 135 191 – – 67 85 120 – – 0 91 – – 0 – – 0 85 0 N – 171 170 210 – – – – 230 230 0 F 230 85 230 Ma 67 135 Ka 107 S 64 210 171 123 170 86 180 Be Ul 195 191 Ba N 210 85 91 120 Z 91 RV 178 M Wegen der Symmetrie kann die untere Dreiecksmatrix weggelassen werden. Definition 4.6 Ein Baum T = (V, E 0 ), der alle Knoten V eines Graphen G = (V, E) enthält, heißt minimal aufspannender Baum, wenn die Summe aller Kantengewichte minimal ist, d.h. wenn X E 0 = argminX⊂E w(e). e∈X Bemerkung: argmin ist der x Wert einer Funktion f(x) an dem f(x) minimal ist. 4.4.1 Der Kruskal-Algorithmus Satz 4.2 (Kruskal-Algorithmus) Für einen ungerichteten, zusammenhängenden, bewerteten Graphen findet der folgende Algorithmus einen minimal aufspannenden Baum T : 1. Setze T = {} 2. Sortiere die Kanten nach ihrem Gewicht. 3. Wähle aus den noch nicht gewählten Kanten die mit dem kleinsten Gewicht. Falls diese Kante in T keinen Zyklus erzeugt, erweitere T um diese Kante. Wiederhole Schritt 3 bis alle Kanten verbraucht sind. Beispiel 4.7 Wir wenden nun den Kruskal-Algorithmus auf Beispiel 4.6 an und erhalten folgenden minimal aufspannenden Baum: 56 F 230 85 230 Ma 210 67 135 Ka 210 171 123 195 191 170 86 180 Be Ul 107 S 64 Ba N 85 91 120 Z 91 RV 178 M Satz 4.3 Die Laufzeit des Kruskal-Algorithmus ohne den Schritt des Sortierens für einen Graphen mit n Knoten und m Kanten ist O(m + n log n). Mit optimierten Datenstrukturen ist (ohne Sortieren) sogar eine fast lineare Komplexität erreichbar [9]. Definition 4.7 Gegeben sei ein bewerteter Graph G = (V, E, w). • Beim Single Pair Shortest Path Problem (SPP) ist ein kürzester Weg von einem Knoten a zu einem Knoten b gesucht. • Beim Single Source Shortest Path Problem (SSP) sind kürzeste Wege von einem Knoten a zu allen anderen Knoten b ∈ V gesucht. • Beim All Pairs Shortest Path Problem (APSP) ist für jedes Paar von Knoten (a, b) ein kürzester Weg gesucht. 4.4.2 Der Dijkstra-Algorithmus Wir geben nun einen bekannten Algorithmus für das SSP an: Satz 4.4 (Dijkstra-Algorithmus) Für einen bewerteten Graphen G = (V, E, w) und einen gegebenen Knoten a findet der folgende Algorithmus einen aufspannenden Baum, der das SSPProblem für den Knoten a löst. Hierbei ist δ(S) = {k ∈ V \S|k ist mit einem Knoten aus S direkt verbunden.} 57 Dijkstra(G,a) Setze S = {a}, F = {} while S 6= V do suche in δ(S) den Knoten v mit dem kürzesten Pfad (a, . . . , u, v) von a zu v. S = S ∪ {v} F = F ∪ {(u, v)} Beispiel 4.8 Dijkstra-Algorithmus mit a = Rv: F 230 85 230 Ma Ka 64 S 107 Be 91 Knoten in δ (S): 171 170 123 Kanten in F: 120 M 178 85 86 180 Ul 195 191 Ba 210 Knoten in S: N 67 135 210 Z 91 RV = a S F 230 85 230 Ma 210 67 135 Ka 107 S 64 210 171 123 170 86 180 Be Ul 195 191 Ba N 85 91 120 Z 91 RV 178 M Satz 4.5 Die Laufzeit des Dijkstra-Algorithmus O(m + Cn), wobei C eine Konstante ist, die vom maximalen Kantengewicht abhängt [9]. 4.4.3 • Anwendungen “Städteverbindungen” der Bahn 58 • Routing im Internet: Router berechnet die beste Route zum nächsten Backbone-Knoten über einen aufspannenden Baum, den er mit dem Dijkstra-Algorithmus erstellt. Definition 4.8 Ein Hamilton-Kreis (hamiltonian circle) in einem Graphen G ist ein geschlossener Weg, in dem jeder Knoten aus G genau einmal vorkommt. Eine Clique in einem (ungerichteten) Graphen ist ein vollvernetzter Teilgraph. 4.5 Das Problem des Handlungsreisenden (traveling salesman problem, TSP) gegeben: Menge von Städten s1 , . . . , sn und eine Entfernungstabelle w mit wij = |si − sj | = Entfernung zwischen Stadt i und Stadt j. gesucht: Eine Permutation (Vertauschung) Π von (s1 , . . . , sn ), so dass n−1 X wΠ(i),Π(i+1) + wΠ(n),Π(1) i=1 minimal ist. Es ist also eine Route gesucht, die jede Stadt genau einmal besucht und am Ende wieder im Ausgangspunkt endet. Definition 4.9 Eine bijektive Abbildung einer endlichen Menge M auf sich selbst heißt Permutation. Beispiel 4.9 Eine Permutation der Menge {1, . . . , 6} i Π(i) 4.5.1 1 4 2 2 3 1 Ein praktisches Ergebnis TSP-Tour durch mehr als 15112 deutsche Städte: 59 4 3 5 5 6 6 David Applegate, Robert Bixby und William Cook von der Rice-Universität in Houston (Texas) sowie Vasek Chvatal von der Rutgers-Universität in New Brunswick (New Jersey), 1998, siehe: www.tsp.gatech.edu 4.5.2 Der Nearest-Neighbour-Algorithmus Idee Starte in einem Knoten und wähle als nächsten immer den mit dem geringsten Abstand. 60 Algorithmus NN TSP(w) For i=1 To n Do tour[i]=i tour[n+1]=1 For i=2 To n-1 Do next=argmin{w[i-1,j] | j ∈ tour[i...n]} vertausche tour[i] mit tour[next] Return(tour) Komplexität T (n) = Θ(n2 ) 4.5.3 Der Greedy - Algorithmus Idee “Greedy” heißt auf deutsch “gierig”. Dieses Attribut trifft auf den Algorithmus sehr gut zu, denn er greift gierig immer nach der “besten” Kante ohne auf das Gesamtresultat zu schauen. In der Beschreibung des Algorithmus behandeln wir die Tour als Graph: Der Graph ”Tour” wird jeweils um die Kante mit dem kleinsten Gewicht erweitert, wenn diese Kante eine Wegfortsetzung ist und keinen Kreis erzeugt. Algorithmus • sortiere alle Kanten in der Liste K nach ihrem Gewicht. • Sei (v, v 0 ) die Kante aus K mit kleinstem Gewicht. Falls deg(v) < 2 und deg(v 0 ) < 2 und (v, v 0 ) schließt keinen Zyklus mit < n Knoten, erweitere die Tour um (v, v 0 ) und lösche (v, v 0 ) aus K. • Wiederhole 2. bis für alle v ∈ V deg(v) = 2. 4.5.4 Die Union-Find-Datenstruktur Der oben beschriebene Algorithmus muss feststellen, ob in einem Graph ein Zyklus vorliegt oder nicht, wenn man eine Kante zu diesem Graph hinzufügt. Die nachfolgend beschriebene Union-Find Datenstruktur bietet eine effizente Methode, dies festzustellen. Eine endliche Menge S sei in die disjunkten Klassen Xi partitioniert: S = X0 ∪ X1 ∪ X2 ∪ . . . ∪ Xk mit Xi ∩ Xj = Ø ∀i, j ∈ {0, 1, . . . , k}, i 6= j. Zu jeder Klasse Xi wird ein Repräsentant ri ∈ Xi ausgewählt. Die zugehörige Union-FindStruktur unterstützt die folgenden Operationen effizient: Init(S): Initialisiert die Struktur und bildet für jedes x ∈ S eine eigene Klasse mit x als Repräsentant. 61 U nion(r, s): Vereinigt die beiden Klassen, die zu den beiden Repräsentanten r und s gehören, und bestimmt r zum neuen Repräsentanten der neuen Klasse. F ind(x): Bestimmt zu x ∈ S den eindeutigen Repräsentanten, zu dessen Klasse x gehört. Implementierung Eine einfache Implementierung speichert die Zugehörigkeiten zwischen den Elementen aus S und den Repräsentanten ri in einer Liste. Für kürzere Laufzeiten werden jedoch in der Praxis Mengen von Bäumen verwendet. Dabei werden die Repräsentanten in den Wurzeln der Bäume gespeichert, die anderen Elemente der jeweiligen Klasse in den Knoten darunter. U nion(r, s): Hängt die Wurzel des Baumes von s als neues Kind unter die Wurzel des Baumes von r. F ind(x): Wandert vom Knoten x aus den Pfad innerhalb des Baumes nach oben bis zur Wurzel und gibt diese als Ergebnis zurück. 4.5.5 Heuristiken Um die Operationen Find und Union zu beschleunigen, gibt es die zwei Heuristiken UnionBy-Size und Pfadkompression. Union-By-Size Bei der Operation U nion(r, s) wird der Baum, der kleiner ist, unter den größeren Baum gehängt. Damit verhindert man, dass einzelne Teilbäume zu Listen entarten können wie bei der einfachen Implementierung (r wird in jedem Fall Wurzel des neuen Teilbaums). Die Tiefe eines Teilbaums T kann damit nicht größer als log |T | werden. Mit dieser Heuristik verringert sich die WorstCase-Laufzeit von F ind von O(n) auf O(log n). Für eine effiziente Implementierung führt man bei jeder Wurzel die Anzahl der Elemente im Teilbaum mit. Pfadkompression Um spätere F ind(x) Suchvorgänge zu beschleunigen, versucht man die Wege vom besuchten Knoten zur zugehörigen Wurzel zu verkürzen. 1. maximale Verkürzung (Wegkompression) Nach dem Ausführen von F ind(x) werden alle Knoten auf dem Pfad von x zur Wurzel direkt unter die Wurzel gesetzt. Dieses Verfahren bringt im Vergleich zu den beiden folgenden den größten Kostenvorteil für nachfolgende Aufrufe von F ind für einen Knoten im gleichen Teilbaum. Zwar muss dabei jeder Knoten auf dem Pfad zwischen Wurzel und x zweimal betrachtet werden, für die Laufzeit-Komplexität ist das jedoch unerheblich. 2. Aufteilungsmethode (splitting) Während des Durchlaufes lässt man jeden Knoten auf seinen bisherigen Großvater zeigen (falls vorhanden); damit wird ein durchlaufender Pfad in zwei der halben Länge zerlegt. 3. Halbierungsmethode (halving) Während des Durchlaufes lässt man jeden zweiten Knoten auf seinen bisherigen Großvater zeigen. 62 Diese Methoden haben beide dieselben Kosten wie die erste Kompressionsmethode (Knoten unter die Wurzel schreiben). Alle Kompressionsmethoden beschleunigen zukünftige F ind(x)-Operationen. Laufzeiten Union-Find-Datenstrukturen ermöglichen die Ausführung der obigen Operationen mit den folgenden Zeitkomplexitäten (n = |S|): Implementierung mit einer Liste L, worst-case: F ind: O(n), U nion: O(1) Implementierung mit Bäumen: • ohne Heuristiken: F ind: O(n), U nion: O(1) • mit Union-By-Size, worst-case: F ind: O(log(n)), U nion: O(1) • mit Union-By-Size, Pfadkompression, worst-case: F ind: O(log(n)), U nion: O(1) • mit Union-By-Size, Pfadkompression, Folge von f F ind- und u U nion-Operationen: O (u + (n + f ) · (log∗ (n))) 4.5.6 Test auf Zyklus Zur effizienten Durchführung des Tests auf einen Zyklus baut man die Mengen Xi so auf, dass zwei Knoten u und v eines Graphen genau dann in der selben Menge liegen, wenn es einen Weg von u nach v gibt. Bevor man nun eine Kante k = (u, v) zu einem Graphen hinzufügt, testet man, ob u und v bereits durch den bisherigen Graphen verbunden sind (also ob F ind(u) = F ind(v) ist). Ist dies der Fall, so würde man durch hinzufügen von k einen Zyklus erzeugen. Man kann k also nicht hinzufügen. Ist dagegen F ind(u) 6= F ind(v), so kann man k hinzufügen und man vereinigt die beiden, durch u und v identifizierten Mengen, zu einer neuen Menge U nion(u, v). Komplexität T (n) = Θ(n2 log n) Beispiel 4.10 Vergleich von 2 Heuristiken mit der optimalen Lösung an einem ganz einfachen Beispiel: a 6 1 b 3 f 5 4 e a c 2 d 3 Greedy Algorithmus b f 4 2 e 1 6 a 5 c b f e c d d Nearest Neighbour (Start in d) Beispiel 4.11 Vergleich von 3 Heuristiken mit der optimalen Lösung: 63 optimale Tour 4.5.7 Optimaler Algorithmus Optimal TSP Idee berechne für jede Tour Pn i=1 wtour[i],tour[i+1] und wähle eine Tour mit minimalem Wert. Komplexität Ohne Beschränkung der Allgemeinheit ist die erste Stadt frei wählbar. Für die zweite Stadt ergeben sich n − 1 Möglichkeiten, für die dritte n − 2 Möglichkeiten . . . Für die n-te Stadt: eine Möglichkeit. Insgesamt sind dann also ·(n − 1)! Routen möglich. Für jede Route muss dann noch deren Länge berechnet werden und am Ende die kürzeste ermittelt werden, was bei naiver Implementierung einen zusätzlichen Faktor n zur Rechenzeit liefert. Durch Speicherung der aktuellen Länge einer Tour kann dieser Faktor n aber auf einen konstanten Faktor reduziert werden. Also: T (n) = Θ · (n − 1)! grobe Abschätzung: n! ≤ n n . . . n = nn , (n − 1)! = (n − 1)(n − 2) . . . 1 ≤ (n − 1)n−1 damit ergibt sich T (n) = O(nn−1 ) Eine bessere Abschätzung liefert die Stirling’sche Formel: ⇒ √ n n! ≈ ( )n · 2Πn für n → ∞ e √ n T (n) = Θ(( )n−1 · n) e Man erhält hier also ein überexponentielles Wachstum. 64 Resultate 1.) Fachleute sind überzeugt, daß es keinen polynomiellen Alg. für TSP gibt! 2.) und dass es sogar für fast optimale Lösungen keinen polynomiellen Alg. gibt. 3.) für TSP mit Dreiecksungleichung ergibt die Minimum Spanning Tree Heuristik(siehe nächsten Abschnitt) eine Tour die höchstens um den Faktor 2 länger ist als die optimale Tour; die Minimum Spanning Tree Heuristik hat T (n) = O(n2 ) Dreiecksungleichung: ∀i, j, k wij ≤ wik + wkj i Diese Gleichung besagt, dass die direkte Verbindung zwischen zwei Städten immer minimale Länge hat. Sie gilt zum Beispiel für Luftlinienverbindungen zwischen Städten. Für die Entfernungen auf Straßen gilt sie jedoch nicht immer. j dij djk d ik k 4.5.8 Wachstum der Rechenzeit von Optimal TSP Folgende Tabelle veranschaulicht das extrem schnelle Wachstum der Rechenzeit von Optimal TSP. Heute ist das TSP-Problem mit optimierten Algorithmen für etwa 30 Städte lösbar. Wie man an der Tabelle erkennt, ist der Aufwand für 40 Städte etwa um den Faktor 1016 höher und damit also unerreichbar. n 10 20 30 40 50 4.5.9 (n-1)! 362880 121645100408832000 8841761993739701954543616000000 20397882081197443358640281739902897356800000000 608281864034267560872252163321295376887552831379210240000000000 (n-1)! 3.6 · 105 1.2 · 1017 8.8 · 1030 2.0 · 1046 6.1 · 1062 Die Minimum-Spanning-Tree-Heuristik Definition 4.10 Ein Preorder-Tree-Walk traversiert einen Baum folgendermassen: Beginnend mit dem Wurzelknoten werden von links nach rechts rekursiv alle Nachfolgerknoten besucht. Beispiel 4.12 65 Listet man nun alle besuchten Städte in der Angewendet auf den minimal aufspannenden besuchten Reihenfolge und löscht alle WiederBaum mit Wurzelknoten Bern ergibt sich: holungen so ergibt sich ein einfacher Pfad, der alle Knoten besucht. F 230 Ma 107 S 64 210 230 85 230 Ma Ka 170 123 85 91 120 Z 91 178 RV 107 S 64 85 91 Be 210 171 123 170 86 180 Ba Ul 195 191 M N 210 67 135 171 86 180 Be Ul 195 191 Ba N 210 67 135 Ka F 230 85 120 Z RV 91 178 M Im Fall eines voll vernetzten Graphen läßt sich dieser Pfad durch eine Verbindung von Frankfurt nach Bern zu einem Hamilton-Kreis schließen und man erhält eine Näherungslösung für das TSP-Problem. Dieses heuristische Vorgehen nennt man die Minumum-Spanning-TreeHeuristik. Ist der Graph nicht vollständig vernetzt, wie im Beispiel, so ist es durchaus möglich, dass es keinen Hamilton-Kreis gibt. Der minimal aufspannende Baum liefert jedoch auch hier einen guten Ausgangspunkt für eine Näherung zur Lösung des TSP-Problems. F 230 85 230 Ma 67 135 Ka 107 S 64 4.6 210 171 123 170 86 180 Be Ul 195 191 Ba N 210 85 91 120 Z 91 RV 178 M Planare Graphen Definition 4.11 Läßt sich ein Graph in der Ebene darstellen, ohne dass sich Kanten kreuzen, so nennt man ihn planar. Die Menge der durch die Kanten begrenzten Flächenstücke wird mit A bezeichnet. Beispiel 4.13 Zwei planare Darstellungen des vollständigen Graphen mit vier Knoten: 66 Für diesen Graphen gilt |A| = 4. Satz 4.6 (Eulerformel) Für jeden planaren zusammenhängenden Graphen G = (V, E) gilt |V | − |E| + |A| = 2. Beweis: Falls G ein Baum ist gilt |V | = |E| + 1 und |A| = 1 und es ergibt sich |V | − |E| + |A| = |E| + 1 − |E| + 1 = 2. Für den Fall, dass G kein Baum ist zeigen wir die Behauptung per Induktion über die Zahl der Kanten n = |E|. Für n = 0 besteht der Baum aus einem Knoten, d.h. es gilt |V | = 1, |E| = 0, |A| = 1 und die Formel stimmt. Wir nehmen an, die Formel gilt für n ≥ 0. Nun fügen wir eine Kante hinzu und erzeugen den neuen Graphen G0 = (V 0 , E 0 ) mit |V 0 | = |V | und |E 0 | = |E| + 1. Die neue Kante schließt einen Kreis und es gilt |A0 | = |A| + 1, woraus |V 0 | − |E 0 | + |A0 | = |V | − (|E| + 1) + |A| + 1 = |V | − |E| + |A| = 2 2 folgt. 67 Kapitel 5 Formale Sprachen und Endliche Automaten 5.1 Grundlagen Man muss sich Sprachen vorstellen wie einen Legobaukasten. Die Buchstaben des Alphabets entsprechen elementaren Bausteinen und die Worte, beziehungsweise Sätze entsprechen gebauten Objekten. Solche Mengen lassen sich mehr oder weniger einfach beschreiben. Zum Beispiel die Menge der Objekte, die nur aus roten Steinen gebaut sind. Oder die Menge der Objekte bei denen auf einem Basisstein nur Steine oben draufgesetzt werden dürfen, aber nicht daneben. Was ist, wenn ich das fertige Objekt auf den Kopf stelle? Muß dann die Forderung immer noch erfüllt sein? Um solche Unklarheiten auszuschließen, werden wir bei den Sprachen ganz formal vorgehen. Wir werden Spielgregeln in Form von Grammatiken zum Aufbau von Sprachen angeben. Mit diesen Spielregeln können dann nur noch Worte aus einer bestimmten Sprache erzeugt (abgeleitet) werden. Hier stellen sich sofort einige für den Informatiker sehr wichtige und interessante Fragen: • Läßt sich jede formale Sprache durch eine Grammatik beschreiben? • Wenn ich eine Grammatik G habe, die eine Sprache L definiert, wie kann ich erkennen, ob ein Wort zu dieser Sprache gehört oder nicht? • Etwas konkreter: Ist es möglich, für eine konkrete Programmiersprache L in endlicher Zeit zu entscheiden, ob ein vorgegebener Text ein Programm dieser Sprache darstellt oder nicht. Diese Aufgabe ist der Syntaxcheck des Compliers. • Ist diese Entscheidung vielleicht sogar effizient möglich, das heißt, auch für große Programme in kurzer Zeit? • Wenn ja, wie macht man das? • Kann man vielleicht sogar automatisch Fehler in Programmen erkennen, wie zum Beispiel Endlosschleifen? • Kann man überprüfen, ob ein Programm korrekt ist? Die Beantwortung dieser Fragen ist Bestandteil des Gebiets der formalen Sprachen und Automaten. In dieser sehr knappen Einführung werden wir aber nur auf ganz einfache (reguläre) Sprachen und auf die endlichen Automaten, das einfachste Maschinenmodell, eingehen können. Eine ausführlichere Darstellung findet sich z.B. in [?]. 68 Definition 5.1 Ein Alphabet Σ ist eine endliche nicht leere Menge von Zeichen. Definition 5.2 Die Menge Σ∗ aller Worte ist wie folgt rekursiv definiert. • Σ ⊂ Σ∗ und auch das leere Wort ε ist in Σ∗ enthalten. • Für jedes Wort w ∈ Σ∗ und jedes Zeichen x ∈ Σ ist auch wx ∈ Σ∗ . wx ist die Zeichenkette, die entsteht, wenn man das Zeichen x an das Wort w anhängt. Jede Teilmenge von Σ∗ wird Sprache genannt. Sprachen sind noch einfacher als Lego-Baukästen. Es gibt genau vier Möglichkeiten, zwei Alphabetzeichen a und b miteinander zu verknüpfen, nämlich aa, ab, ba, oder bb. Diese Verknüpfung heißt Konkatenation und ist nicht vertauschbar. Damit kann man beliebig lange endliche Worte bauen, ähnlich wie beim Lego-Baukasten. Beispiel 5.1 Σ = {0, 1} Σ∗ = {0, 1, ε, 00, 01, 10, 11, 001, 000, 011, 010, . . .} Beispiel 5.2 Σ Σ∗ T erme T erme = = = ⊂ {+, −, ·, /, (, ), 0, 1, 2, 3, 4, 5, 6, 7, 8, 9, x, y, a, b} {. . . , ) + − · 567ax, . . .} {x, y, a, b, (a), a + b, (a − 4) · y, . . .} Σ∗ Die Menge aller korrekten arithmetischen Terme ist eine kleine Teilmenge von Σ∗ . Ein Affe, der zufällig auf einer entsprechenden Tastatur tippt würde viele Versuche benötigen, um einen korrekten Term zu erzeugen. Definition 5.3 • Sei w ∈ Σ∗ und n ∈ N0 . Dann ist wn das durch n-fache Wiederholung von w entstandene Wort. w0 ist also das leere Wort ε. • Für eine endliche Zeichenmenge M ist M ∗ die Menge aller Zeichenketten die aus Elementen in M gebildet werden können. Das leere Wort gehört zu M ∗ dazu. Die Menge M + = M ∗ \ε enthält dagegen nur Worte mit mindestens einem Zeichen. Beispiel 5.3 Sei Σ = {a, b, c}. Dann sind ∅, {aa, ab, aaa}, {an |n ∈ N0 } = {ε, a, aa, aaa, aaaa, . . .}, {(ab)n |n ∈ N0 } = {ε, ab, abab, ababab, abababab, . . .}, {an bn |n ∈ N0 } = {ε, ab, aabb, aaabbb, aaaabbbb, . . .} Teilmengen von Σ∗ und somit Sprachen über dem Alphabet Σ. 69 5.2 Grammatiken Besonders interessant sind strukturierte Sprachen. Eine Sammlung von zufällig erzeugten Wörtern ist für die meisten Anwendungen nicht sehr hilfreich. “Struktur” heißt hier, dass sich die Sprache endlich beschreiben läßt. Wir werden Grammatiken verwenden um Sprachen zu beschreiben. Aus dem Sprachunterricht in der Schule ist die Grammatik der deutschen Sprache bekannt. Ein Satz der deutschen Sprache kann zum Beispiel bestehen aus < Subjekt > < Prädikat > < Objekt > und < Subjekt > wiederum kann ersetzt werden durch < Artikel >< Substantiv >. Damit ist also Die Studentin spielt Schach ein wohlgeformter Satz entsprechend der einfachen angegebenen Grammatik. Jede Programmiersprache besitzt eine Grammatik. Beispiel 5.4 Die Menge der arithmetischen Terme wie zum Beispiel x · (x + a · (b − 12)) läßt sich durch folgende Regelgrammatik charakterisieren: < Term > < Term > < Term > < Term > < Term > < Term > < Term > < Var > < Konst > < Zahl > < Ziffer > → → → → → → → → → → → < Term > + < Term > < Term > − < Term > < Term > / < Term > < Term > · < Term > (< Term >) < Var > < Konst > x|y a|b| < Zahl > < Zahl >< Ziffer > | < Ziffer > 0|1|2|3|4|5|6|7|8|9 Hier steht das Zeichen | für “oder”, das heißt, eine Regel S → u|v steht für die zwei Regeln S → u und S → v. Durch sukzessives Anwenden einer der Regeln aus P beginnend mit dem Startsymbol kann man den obigen Term x · (x + a · (b − 12)) ableiten: < Term > ⇒ < Term > · < Term > ⇒ < Var > · < Term > ⇒ x· < Term > ⇒ x · (< Term >) ⇒ x · (< Term > + < Term >) ⇒ x · (< Var > + < Term >) ⇒ x · (x+ < Term >) ⇒ x · (x+ < Term > · < Term >) ⇒ x · (x+ < Konst > · < Term >) ⇒ x · (x + a· < Term >) ⇒ x · (x + a · (< Term >)) ⇒ x · (x + a · (< Term > − < Term >)) ⇒ x · (x + a · (< Konst > − < Term >)) ⇒ x · (x + a · (b− < Term >)) ⇒ x · (x + a · (b− < Konst >)) ⇒ x · (x + a · (b− < Zahl >)) ⇒ x · (x + a · (b− < Zahl >< Ziffer >)) ⇒ x · (x + a · (b− < Ziffer >< Ziffer >)) ⇒ x · (x + a · (b − 1 < Ziffer >)) ⇒ x · (x + a · (b − 12)) Definition 5.4 Eine Grammatik ist ein 4-Tupel G = (V, Σ, P, S) mit • V als endliche nichtleere Menge der Variablen. • Σ als Menge der Konstanten oder Terminalalphabet und V ∩ Σ = ∅. • P ⊂ (V ∪ Σ)+ × (V ∪ Σ)∗ als endliche Menge der Produktionsregeln. • S ∈ V ist die Startvariable. 70 Definition 5.5 Die in Beispiel 5.4 und im Folgenden verwendete Art der Darstellung von Grammatikregeln wird nach ihren Erfindern Backus-Naur-Form (BNF) genannt. Beispiel 5.5 Mit G = ( {< Term >, < Var >, < Konst >, < Zahl >, < Ziffer >}, {x, y, a, b, 0, 1, 2, 3, 4, 5, 6, 7, 8, 9, (, ), +, −, ·, /}, P, < Term >) und P als Menge der Regeln aus Beispiel 5.4 ergibt sich also eine Grammatik mit den angegebenen Variablen, Konstanten und < Term > als Startsymbol. Eine äquivalente Darstellung von Regelgrammatiken in grafischer Form bieten die Syntaxdiagramme, die wir hier nicht formal einführen. Ein Beispiel soll genügen: Beispiel 5.6 Syntaxdiagramm für Terme Var: Term: Term + Term x Term _ Term y Term / Term Term * Term a ( Term ) b Konst: Zahl Var Konst Zahl: Ziffer: Ziffer 0 1 2 3 4 5 6 7 8 9 Definition 5.6 Eine Folge von Wörtern (w0 , w1 , . . . , wn ) mit w0 = S und wn ∈ Σ∗ heißt Ableitung von wn , falls für i ≥ 1 jedes der Wörter wi aus wi−1 entstanden ist durch Anwendung einer Regel aus P auf ein Teilwort von wi−1 . Für einen Teilschritt schreibt man wi−1 ⇒ wi . Ist ein Wort w durch einen oder mehrere Teilschritte aus u ableitbar, so schreibt man u ⇒∗ w. Obige Grammatik erzeugt die (unendliche) Menge der Terme als Teilmenge von Σ∗ . Allgemein definiert man 71 Definition 5.7 Die durch G erzeugte Sprache L(G) ist die Menge aller Worte aus Σ∗ , die aus G ableitbar sind, d.h. L(G) = {w ∈ Σ∗ | S ⇒∗ w}. Formale Sprachen werden eingeteilt in verschiedene Klassen, die sogenannte Chomsky-Hierarchie. Wir werden uns im Folgenden mit regulären Sprachen beschaftigen. Definition 5.8 Eine Sprache heißt regulär, wenn alle Regeln die Form A → a, A → aB oder A → ε besitzen, d.h. auf der linken Seite der Regeln steht immer eine Variable und auf der rechten Seite steht entweder ein Terminalsymbol oder ein Terminalsymbol gefolgt von einer Variablen. Beispiel 5.7 Die Sprache {an bm |n ∈ N, m ∈ N} ist regulär und läßt sich durch die Grammatik G = ({S, T }, {a, b}, P, S) beschreiben mit P = { S → aS, S → aT, T → bT, T → b }. Beispiel 5.8 Σ = {a, b} G1 = ({S}, Σ, P, S) P = { S → aS, S → bS, S → ε } Offenbar läßt sich aus dieser Grammatik jedes Wort w ∈ Σ∗ ableiten, also gilt L(G1 ) = Σ∗ . 5.3 Reguläre Ausdrücke Reguläre Ausdrücke dienen wie reguläre Grammatiken der Beschreibung von regulären Sprachen (Typ-3-Sprachen nach der Chomsky-Hierarchie). Definition 5.9 Reguläre Ausdrücke zum Alphabet Σ sind: 1.) ∅ = {} 2.) ε 3.) a, falls a ∈ Σ 4.) sind α, β reguläre Ausdrücke, so auch αβ, α|β und α∗ hierbei steht α|β für α oder β, α∗ für beliebig viele Wiederholungen von α (auch 0 Wiederholungen). Beispiel 5.9 aa∗bb∗ beschreibt {an bm /n ∈ N, m ∈ N}. Für aa∗ schreibt man kürzer a+ . Der Operator + steht also für beliebig viele Wiederholungen, aber mindestens eine. 72 Beispiel 5.10 Sei Σ = {., 0, 1, 2, 3, 4, 5, 6, 7, 8, 9}. 0.(0|1|2|3|4|5|6|7|8|9)+ beschreibt die Menge aller Dezimalzahlen mit 0 vor dem Dezimalpunkt. Noch einfacher geht es, wenn man zur Beschreibung von Zeichenmengen folgende vereinfachende Notationen einführt: [xyz] . \x a{n,m} [ˆa] [ˆa − k] Kurzform von (x|y|z) steht für jedes (beliebige) Zeichen steht für das Zeichen x, auch wenn x ein Sonderzeichen (z.B. ,,.”) ist Ausdruck a mit n bis m Wiederholungen jedes Zeichen außer a jedes Zeichen außer a bis k Nun lassen sich die Dezimalzahlen einfacher beschreiben mit 0\.[0123456789]+ oder noch einfacher durch 0\.[0 − 9]+ 0 − 9 steht hier für den Zeichenbereich von 0 bis 9. Die Syntax von Email-Adressen lässt sich durch den Ausdruck ................................................................................................................................. beschreiben. Satz 5.1 Jede reguläre Sprache ist durch einen regulären Ausdruck beschreibbar. Umgekehrt definiert jeder reguläre Ausdruck eine reguläre Sprache. Im Gebiet der formalen Sprachen werden Sprachen, die mächtiger sind als die regulären Sprachen, behandelt. Zum Erkennen dieser Sprachen reichen aber endliche Automaten nicht mehr aus. Hier werden mächtigere Maschinenmodelle, wie zum Beispiel Kellerautomaten und Turingmaschinen benötigt. 5.4 Endliche Automaten zur Worterkennung Ein einfaches Modell ist der endliche Automat. Anschaulich ist ein endlicher Automat ein Rechenelement, welches auf einem Eingabeband beginnend mit dem ersten Zeichen der Eingabe das eingegebene Wort Zeichen für Zeichen liest. In jedem diskreten Rechenschritt macht der Automat einen Zustandsübergang. Abhängig vom aktuellen Zustand und dem gelesenen Zeichen geht der Automat in einen neuen Zustand über. Die Zahl der Zustände ist endlich. Erreicht der Automat nach Lesen des letzten Zeichens einen Endzustand, so hat er das Wort erkannt. Lesekopf HAL LO Z 73 Zustand Beispiel 5.11 Der durch folgende Regeln beschriebene Automat akzeptiert alle Zeichenketten (Worte) bestehend aus einer beliebigen Anzahl a-s gefolgt von einer beliebigen Anzahl b-s, mindestens jedoch ein a und ein b. Die Regelmenge des Automaten mit den Zuständen S, T und dem Endzustand e ist δ = {S, a → S; S, a → T ; T, b → T ; T, b → e} Die Zustandsübergangsrelation δ läßt sich übersichtlich durch die Zustandsübergangstabelle darstellen: T e δ S a {S, T } b {T, e} Man beachte, dass die Zustandsübergangsrelation δ nicht eindeutig ist, denn zum Beispiel kann der Automat nach Lesen eines a im Zustand S nach S oder nach T übergehen. Dies zeichnet den nichtdeterministischen Automaten aus. Besonders anschaulich ist der zugehörige Zustandsgraph: a S b a T b e Der beschriebene Automat kann nur passiv Eingaben akzeptieren oder abweisen. Er löst also ein binäres Entscheidungsproblem. Man kann solch einen Automaten einfach erweitern durch eine Ausgabefunktion. 5.5 Automaten mit Ausgabe Beispiel 5.12 Es soll ein Getränkeautomat mit Hilfe eines endlichen Automaten programmiert werden. Der Automat kann mit bis zu 4 Dosen Mineralwasser gefüllt werden. Wenn eine 1-EuroMünze eingegeben wird, soll er eine Dose Wasser ausgeben. Bei Eingabe einer anderen Münze soll er die eingegebene Münze wieder ausgeben, aber kein Getränk. Wenn der Automat leer ist soll er anhalten und per Funk den Service benachrichtigen. Ein endlicher Automaten (mit Ausgabe) für diese Aufgabe ist gegeben durch folgende Tabelle mit den Zuständen z0 , z1 , z2 , z3 , z4 und den erlaubten Eingabezeichen ?‘, f, m. Im Zustand zi enthält der Automat i Flaschen Mineralwasser. e steht für die Eingabe/Ausgabe eines Euro, f für Eingabe einer falschen Münze. m steht für eine Flasche Mineralwasser. m kann sowohl eingegeben werden (durch den Betreiber) als auch ausgegeben werden (an den Kunden). Ein Paar x, y in der Tabelle beschreibt den Nachfolgezustand x und das Ausgabezeichen y. z0 m z1 , ε e z0 , e f z0 , f z1 z2 , ε z0 , m z1 , f z2 z3 , ε z1 , m z2 , f z3 z4 z4 , ε z2 , m z3 , m z3 , f z4 , f Das Zustandsdiagramm zu diesem Automaten sieht so aus: 74 f z0 f m e z1 f m e z2 f m e z3 f m e z4 e Dieser Automat akzeptiert alle Eingabesequenzen (Worte), die zum leeren Automaten (d.h. zu z0 ) führen. 5.6 Formale Beschreibung von Automaten Genau wie bei allen Programmiersprachen wird auch für endliche Automaten eine streng formale Beschreibung benötigt. Diese ist aber auch noch für theoretische Überlegungen in der Theorie der formalen Sprachen notwendig ( ⇒ Theoretische Informatik, Master). Wir kennen nun einige reguläre Sprachen. Wir stellen uns die Frage ob es eine möglichst einfache und effiziente Rechenmaschine gibt, mit der man für ein beliebiges Wort w entscheiden kann, ob dieses zu einer vorgegebenen regulären Sprache gehört. Definition 5.10 Die Aufgabe, zu entscheiden, ob ein Wort w zu einer Sprache L gehört, heißt Wortproblem. Grammatik erzeugt erkennt −→ Sprache ←− Automat Das Wortproblem für reguläre Sprachen kann durch endliche Automaten effizient gelöst werden. Formal wird der Automat wie folgt definiert: Definition 5.11 Ein endlicher Automat M besteht aus einem 5-, bzw. 7-Tupel M = (Z, Σ, δ, z0 , E) bzw. M = (Z, Σ, δ, z0 , E, γ, Θ) mit Z Σ δ z0 E γ Θ : : : : : : : endliche Zustandsmenge endliches Eingabealphabet, Σ ∩ Z = φ Z × Σ → P(Z), die Zustandsübergangsfunktion Startzustand Menge der Endzustände Z × Σ → Θ, die Ausgabefunktion Ausgabealphabet 75 Definition 5.12 Ein Wort w = w1 . . . wn mit wi ∈ Σ wird akzeptiert von dem endlichen Automaten M genau dann wenn M gestartet im Startzustand auf w1 nach n Anwendungen der Funktion δ, d.h. nach Lesen von wn , einen Endzustand z ∈ E erreichen kann. Die von M akzeptierte (erkannte) Sprache L(M ) ist L(M ) = {w ∈ Σ∗ | M akzeptiert w} Beispiel 5.13 Der Automat aus Beispiel 5.11 wird beschrieben durch das 5-Tupel M = ({S, T, e}, {a, b}, δ, S, {e}) mit δ = {S, a → S; S, a → T ; T, b → T ; T, b → e}. Beispiel 5.14 Der Getränkeautomat aus Beispiel 5.12 wird beschrieben durch das 7-Tupel ({z0 , z1 , z2 , z3 , z4 }, {e, f, m}, δ, z0 , {z0 }, γ, {e, f, m}) wobei δ und γ gegeben sind durch die angegebene Automatentabelle. Definition 5.13 Beim nichtdeterministischen endlichen Automaten (NFA) sind (im Gegensatz zum deterministischen endlichen Automaten (DFA)) für jeden Zustand Z und Eingabezeichen a mehrere Regeln z, a → z1 .. . z, a → zn erlaubt. Beispiel 5.15 An der Sprache L = {an bm |n ∈ N, m ∈ N} erkennt man schön, wie die Regelgrammatik in einfacher Weise in einen nichtdeterministischen Automaten übersetzt werden kann: Regelgrammatik P = {S → aS S → aT T → bT T → b} Automat δ = {S, a → S, a → T, b → T, b → S T T e} Es gibt aber auch einen deterministischen Automaten, der diese Sprache erkennt (siehe Aufgabe 39). Satz 5.2 NFAs und DFAs sind gleich mächtig, d.h. zu jedem NFA gibt es einen DFA, der die gleiche Sprache erkennt. 76 Satz 5.3 Eine Sprache L wird von einem endlichen Automaten genau dann erkannt, wenn sie regulär ist. 77 Kapitel 6 Zusatzmaterial 6.1 Logarithmen Die folgenden Schreibweisen sind üblich: lg Logarithmus zur Basis 10 ln Logarithmus zur Basis e (natürlicher Logarithmus) logb Logarithmus zur Basis b 6.1.1 Beispiele lg(100) = 2 lg(1000) = 3 lg(10000) = 4 lg(n) = lg(n) ⇔ ⇔ ⇔ ⇔ 102 = 100 103 = 1000 104 = 10000 10lg(n) = n log2 (8) = 3 ⇔ 23 = 8 log2 (16) = 4 ⇔ 24 = 16 log2 (23 ) = 3 ⇔ 23 = 8 6.1.2 (6.1) (6.2) (6.3) (6.4) (6.5) (6.6) (6.7) Logarithmen - Regeln Umrechnung Logarithmen verschiedener Basen: logb (x) = y ⇔ by = x loga (x) = z ⇔ az = x logb (a) = logb (a) ⇔ blogb (a) = a blogb (a)∗z = x logb (x) = logb (a) ∗ loga (x) (6.8) (6.9) (6.10) (6.11) (6.12) Ableitung der Logarithmusfunktion ln(x)0 = 78 1 x (6.13) 6.2 Anwendung des Mastertheorems 1. Bestimme a und b a Anzahl der tatsächlich ausgeführten rekursiven Aufrufe innerhalb der Prozedur. Bei graphischer Darstellung: Anzahl der Verzweigungen des Rekursionsbaumes. b Zahl, durch die n geteilt wird bei dem rekursiven Aufruf. Falls z.B. n halbiert wird, ergibt sich b = 2. 2. Bestimmen der Funktion nlogb (a) . Beispiel b = 2, a = 4 ergibt n2 , da 22 = 4. 3. Vergleich der Funktion f (n) aus der Rekurenzgleichung mit der gerade bestimmten Funktion nlogb (a) . (f bestimmt die Komplexität der Prozedur für den nicht rekurrenten Fall.): • Ist f (n) weniger stark steigend als nlogb (a) , so ist Fall 1 des Mastertheorems anzuwenden; • ist f (n) gleich steigend wie nlogb (a) , so ist Fall 2 des Mastertheorems anzuwenden und • ist f (n) stärker steigend als nlogb (a) , so ist Fall 3 des Mastertheorems anzuwenden. 79 Kapitel 7 Übungen 7.1 Geschichte der Informatik Aufgabe 1 Recherchieren Sie in Ihrer Lerngruppe über eine(n) berühmten Informatiker(in) und bereiten Sie ein kurzes Referat vor. In der Übungsstunde tragen Sie darüber vor. Beachten Sie dabei bitte folgendes: • Versuchen Sie zu verstehen (und im Vortrag darzustellen), was die von Ihnen gewählte Person erfunden/geleistet hat. • Berichten Sie auch über die Persönlichkeit und das Privatleben. • Versuchen Sie sich kurz zu halten, aber trotzdem das Wesentliche zu vermitteln. • Arbeiten Sie mit Farbe, Anschauung, Bildern. 7.2 7.2.1 Sortieren Sortieren durch Einfügen Aufgabe 2 a) Programmieren Sie “Sortieren durch Einfügen” in C für Integerzahlen - Arrays. b) Testen Sie das Programm mit sortierten, zufälligen und umgekehrt sortierten Arrays auf Korrektheit. c) Bestimmen Sie für sortierte, zufällige und umgekehrt sortierte Arrays die Parameter a, b und c von T (n) = a · n2 + b · n + c. Da in der Sprache C die Länge statischer Arrays auf 250000 beschränkt ist, sollten Sie mit dynamischen Arrays arbeiten. Das geht (mit C++) z.B. so: /* Deklaration Array */ int* a; n = 300000000 /* Speicherplatz reservieren */ a = new int[n]; d) Bestimmen Sie die theoretische Rechenzeit für ein Array der Länge 5 · 109 . e) Warum wird in der Praxis T (5 · 109 ) viel größer sein als oben errechneter Wert? 80 f ) Durch welche Massnahme kann man die berechnete Rechenzeit tatsächlich erreichen? Aufgabe 3 Ordnen Sie folgende Funktionen nach Ihrem asymptotischen Wachstum (log ist der Zehnerlogarithmus, ln der natürlich Logarithmus): (ln n)ln n n3/2 2n ln ln n n2n n log n (n + 1)! nn ln n √ n n! (ln n!) n2/3 ( 32 )n log n n √ log n ln 2n Aufgabe 4 Kreuzen Sie in folgender Tabelle alle zutreffenden Felder an. Es seien k ≥ 1, > 0 und c > 1. Es stehen die Abkürzungen O, o, Ω, ω und Θ für f (n) = O(g(n)), etc. Vergleichen Sie hierzu das asymptotische Verhalten der Funktionen f und g. Zeichnen Sie ggf. die Graphen der beiden Funktionen. f (n) g(n) nk cn log n n 2n 2n/2 log m n mlog n n! nn √ n nsin n O o Ω ω Θ Aufgabe 5 Beweisen Sie Satz 3.1, d.h. T (n) = Θ(g(n)) O(g(n)). 7.2.2 ⇔ T (n) = Ω(g(n)) und T (n) = Quicksort Aufgabe 6 Skizzieren Sie den Rekursionsbaum von Quicksort für ein konstantes Aufteilungsverhältnis von 1:k und leiten Sie aus diesem Baum T (n) = O(n lg n) ab. Aufgabe 7 Programmieren Sie Quicksort für einfache Arrays von Integer-Zahlen, indem Sie die Funktion Partition wie in der Vorlesung beschrieben implementieren. Zeigen Sie empirisch, daß für zufällig sortierte Arrays Trand (n) = Θ(n lg n) und für vorsortierte Arrays Tmax (n) = Θ(n2 ) gilt. Aufgabe 8 Beweisen Sie, daß für Sortieralgorithmen gilt Tmin (n) = Ω(n). Aufgabe 9 Gegeben sei folgender Programmteil eines C-Programms: for(i = 1; i <= n; i++) for(j = 1; j <= n; j++) for(k = 1; k <= j; k++) z = z+1; a) Berechnen Sie die Laufzeit T (n) und geben Sie die (asymptotische) Zeitkomplexität an. b) Welchen Wert hat z nach Verlassen der äußersten Schleife für n = 100? 81 Aufgabe 10 Gegeben sei die rekursive Funktion fib: fib(0) = 1 fib(1) = 1 fib(n) = fib(n − 1) + fib(n − 2) für n ≥ 2. a) Berechnen Sie fib(5). b) Zeichnen Sie den Rekursionsbaum für fib. c) Bestimmen Sie anhand des Rekursionsbaumes die Komplexität von fib. 7.2.3 Heapsort Aufgabe 11 Zeigen Sie, daß gilt ∞ X k=0 kq k = q . (1 − q)2 Tip: Entweder Sie schreiben die Reihe gliedweise in geeigneter Form und wenden dann die Formel für die geometrische Reihe an, oder Sie starten indem Sie die Formel für die geometrische Reihe differenzieren. Aufgabe 12 Warum wird der Schleifenindex i in Zeile 2 von Build-Heap von blength[A]/2c bis 1 erniedrigt und nicht von 1 bis blength[A]/2c erhöht? Aufgabe 13 Stellen Sie den Ablauf von Build-Heap für A = (5, 3, 17, 10, 84, 19, 6, 22, 9) grafisch dar, ähnlich wie in Beispiel 3.9. Aufgabe 14 Stellen Sie den Ablauf von Heapsort für A = (5, 13, 2, 25, 7, 17, 20, 8, 4) grafisch dar, ähnlich wie in Beispiel 3.10. Aufgabe 15 Benutzen Sie die Master-Methode zur Berechnung der Laufzeit der Suche durch Bisektion mit der Rekurrenzgleichung T (n) = T (n/2) + Θ(1). Aufgabe 16 Geben Sie mit Hilfe des Master-Theorems asymptotische Schranken für folgende Rekurrenzen an: a) T (n) = 4T (n/2) + n b) T (n) = 4T (n/2) + n2 c) T (n) = 4T (n/2) + n3 . 7.2.4 Hashing Aufgabe 17 Vergleichen Sie für eine Hash-Tabelle mit 13 Einträgen die modulare HashFunktion und die Multiplikationsmethode. Überprüfen Sie an einer größeren Zahl von Schlüsseln (mindestens 50), ob die Bedingung des einfachen uniformen Hashing erfüllt ist. Aufgabe 18 Für den Fall von Kollisionen in einer Hash-Tabelle sollen die Rechenzeiten für die Kollisionsauflösung ermittelt werden. 82 a) Überlegen Sie sich, wie die Operationen Einfügen, Suche (erfolgreich und nicht erfolgreich) und Löschen eines Elements möglichst effizient realisiert werden und bestimmen Sie deren Komplexität. b) Was würde sich ändern, wenn wir mit sortierten Listen arbeiten würden? 7.3 Graphen Aufgabe 19 Zeigen Sie, dass jeder zyklenfreie ungerichtete Graph ein Wald ist. Aufgabe 20 Zeigen Sie, dass in jedem Graphen G = (V, E) mit m Kanten X deg(v) = 2m v∈V gilt. Aufgabe 21 Konstruieren Sie für den Graphen aus dem Beweis von Satz 4.1 einen Eulerkreis, indem Sie mit anderen Zyklen beginnen. Aufgabe 22 Geben Sie für den bewerteten Süddeutschlandgraphen die Adjazenzlisten und die Liste von Adjazenzlisten an. Aufgabe 23 Geben Sie für den Graphen aus Beispiel 4.2 Adjazenzmatrix an. Aufgabe 24 Erzeugen Sie einen minimal aufspannenden Baum mit dem Algorithmus von Kruskal für den SFBay-Graphen: Aufgabe 25 Verwenden Sie den Algorithmus von Dijkstra für das Single-Source-Shortest-PathProblem beim SFBay-Graphen mit Start in Palo Alto. Aufgabe 26 Gegeben ist folgende Entfernungstabelle deutscher Städte: 83 Br Aachen Basel Berlin Bremen Dortmund Dresden Düsseldorf 545 650 370 155 645 90 Aachen Do 875 775 555 745 550 Basel Be 400 495 200 560 Berlin Aa 235 490 285 Bremen 515 70 Dortmund Dü Dre 580 Dresden Ba a) Bestimmen Sie mit dem Nearest-Neighbour-Algorithmus eine (heuristische) Lösung für das TSP-Problem. Starten Sie in Düsseldorf. Geben Sie die Tour sowie deren Länge an. b) Bestimmen Sie einen Minimum Spanning Tree mit dem Kruskal-Algorithmus. Zeichnen Sie diesen in die Landkarte (unten) ein. c) Verwenden Sie die Minimum-Spanning-Tree-Heuristik mit Wurzelknoten Bremen zur Bestimmung einer Lösung des TSP-Problems. Zeichnen Sie die Lösung in die Karte ein und geben Sie Tour sowie Länge an. Aufgabe 27 Versuchen Sie, die Minimum-Spanning-Tree-Heuristik zur Lösung des TSP-Problems beim SFBay-Graphen anzuwenden. Vergleichen Sie das Ergebnis mit dem des Greedy-Algorithmus bei Start in San Franzisko oder anderen Städten. Warum treten hier Probleme auf? Aufgabe 28 Bestimmen Sie eine optimale Tour für das TSP-Problem beim SFBay-Graphen. Aufgabe 29 Für einen planaren (ebenen) ungerichteten Graphen sei A die Menge der durch die Kanten des Graphen begrenzten Flächenstücke. Überprüfen Sie an allen bisher verwendeten Graphen (V, E) die Gültigkeit der Euler-Formel |V | − |E| + |A| = 2. Aufgabe 30 Es soll ein Programm entworfen werden, das bei gegebener Abstandsmatrix für vollständig vernetzte Graphen eine optimale Tour findet. a) Schreiben Sie ein Programm für Optimal TSP mit 4 Städten b) Schreiben Sie ein Programm für Optimal TSP mit n Städten 7.4 Formale Sprachen und Endliche Automaten Aufgabe 31 a) Geben sie eine Grammatik an, die alle Zeichenketten der Form ab, abab, ababab, . . . erzeugt. b) Geben sie einen regulären Ausdruck an, der alle Zeichenketten der Form ab, abab, ababab, . . . erzeugt. 84 Aufgabe 32 Geben Sie eine Grammatik an für die Sprache L = {ai bj ck | i ∈ N, j ∈ N, k ∈ N} Aufgabe 33 Geben Sie reguläre Ausdrücke an für a) groß geschriebene Worte wie z.B. Hallo, aber nicht HALLO. b) groß geschriebene Worte mit mindestens 3 und höchstens 5 Buchstaben. c) Datumsangaben der Form 21.10.1999 oder 1.1.2000 oder 1.1.‘00 oder 21.10.‘99. Nicht erlaubt sind unzulässige Werte wie z.B. 33.44.‘99 oder 121.10.1999 Aufgabe 34 Geben Sie für jede der in Aufgabe 33 angegebenen Sprachen einen endlichen Automaten an, der diese erkennt. Aufgabe 35 Beschreiben Sie die durch folgende regulären Ausdrücke definierten Sprachen und geben Sie Beispiele an. a) \\(index|color|label|ref)\{[^\}]*\} b) %.* c) \\section\*?\{.*\} d) [A-Za-z0-9]+@[A-Za-z0-9]+(\.[A-Za-z0-9]+){1,6} Aufgabe 36 konstruieren sie (deterministische oder nichtdeterministische) endliche Automaten für folgende durch reguläre Ausdrücke gegebenen Sprachen: a) [0-9]*\.[0-9]+ b) \\section\*?\{.*\} Aufgabe 37 Es soll eine Fußgängerampel mit Hilfe eines endlichen Automaten programmiert werden. Die Ampel hat die zwei Zustände rot und grün (aus der Sicht des Fahrzeugs). Im Zustand rot akzeptiert die Ampel Signale von der Kontaktschleife auf der Straße und schaltet dann auf Grün. Im Zustand Grün akzeptiert die Ampel Signale vom Fußgängertaster und schaltet auf Rot. Alle anderen Eingaben ignoriert der Automat. a) Geben Sie einen endlichen Automaten für diese Aufgabe an. b) Zeichnen Sie ein Zustandsdiagramm zu diesem Automaten. Aufgabe 38 Es soll ein Getränkeautomat mit Hilfe eines endlichen Automaten programmiert werden. Der Automat kann mit bis zu 4 Dosen Mineralwasser, 4 Dosen Limo und 4 Dosen Bier gefüllt werden. Wenn eine 1-Euro-Münze eingegeben wird, soll er eine Dose des gewählten Getränks ausgeben. Bei Eingabe einer anderen Münze soll er die eingegebene Münze wieder ausgeben, aber kein Getränk. Wenn von einer Getränkesorte alle Dosen ausgegeben sind, soll er anhalten und per Funk den Service benachrichtigen. a) Geben Sie einen endlichen Automaten (mit Ausgabe) für diese Aufgabe an. b) Zeichnen Sie ein Zustandsdiagramm zu diesem Automaten. 85 c) Geben Sie einen regulären Ausdruck für diese Sprache an. d) Geben Sie eine reguläre Grammatik an, welche die für diesen Automaten erlaubte Eingabesprache akzeptiert. Aufgabe 39 Konstruieren Sie einen deterministischen endliche Automaten, der zu dem aus Beispiel 5.15 äquivalent ist. 86 Literaturverzeichnis [1] Wikipedia – Die freie Enzyklopädie. www.wikipedia.org. 2.7 [2] F. Naumann. Vom Abakus zum Internet. Wissenschaftliche Buchgesellschaft, 2001. Geschichte der Informatik. 2.1 [3] H. Matis. Die Wundermaschine. mitp-Verlag, 2002. Geschichte des Computers. 2.1 [4] W. de Beauclair. Rechnen mit Maschinen – eine Bildgeschichte der Rechentechnik. Vieweg Verlag, 1968. Die Lektüre dieses Bilderbuches lohnt sich! 2.1 [5] D. Shasha and C. Lazere. Out of Their Minds: The Lives and Discoveries of 15 Great Computer Scientists. Copernicus/ An Imprint of Springer-Verlag, 1995. Sehr unterhaltsam und informativ. [6] V. Claus and A. Schwill. Duden Informatik. Bibliographisches Institut & F.A. Brockhaus AG, 1988. Ein gutes Nachschlagewerk zur Informatik allgemein. [7] P. Rechenberg and G. Pomberger. Informatik-Handbuch. Hanser Verlag, 2001. [8] C. Horn and O. Kerner. Lehr- und Übungsbuch Informatik, Band 1: Grundlagen und Überblick. Fachbuchverlag Leipzig, 2001. [9] T.H. Cormen, Ch.E. Leiserson, and R. L. Rivest. Introduction to Algorithms. MIT Press, Cambridge, Mass, 1994. Sehr gute Einführung in die Analyse von Algorithmen. 3.5.3, 3.5.5, 4.3, 4.5 [10] N. Wirth. Algorithmen und Datenstrukturen. Teubner-Verlag, Stuttgart, 1983 (3. Auflage). Ein Klassiker, vom Erfinder der Sprache PASCAL. [11] R. Sedgewick. Algorithmen. Addison-Wesley, Bonn, 1995. Übersetzung d. engl. Originals, empfehlenswert. [12] P. Tittmann. Graphentheorie. Fachbuchverlag Leipzig, 2003. Sehr gutes Buch mit vielen Beispielen. Leider fehlen die Wegesuchalgorithmen. [13] S. Krumke and H. Noltemeier. Graphentheoretische Konzepte und Algorithmen. Teubner Verlag, 2005. Exakt und gleichzeitig anschaulich. [14] Paul E. Black (Ed.). Dictionary of Algorithms and Data Structures [online]. National Institute of Standards and Technology, 2004. http://www.nist.gov/dads. [15] S. Skiena. The Algorithm Design Manual. Springer Verlag, 1997. Gutes Buch mit vielen Algorithmen für den Praktiker. 87