Grundlagen der Informatik Wintersemester 2009 Prof. Dr. Peter Kneisel 1 Didaktik: Durchführung Diese Vorlesung enthält Übungen Die Übungen werden je nach Bedarf durchgeführt. Zur Vorbereitung werden Übungsblätter, je nach Vorlesungsverlauf zusammengestellt. Weitere Übungen sind im Foliensatz vorhanden und sollten selbständig und vollständig bearbeitet werden. Vorsicht ! Kommen Sie in alle Veranstaltungen - machen Sie die Übungen Überschätzen Sie sich nicht - auch wenn Sie PC-Crack sind 2 Didaktik: Folien Der Vorlesungsstoff wird anhand von Folien dargelegt Die Folien bilden nur einen Rahmen für die Inhalte. Die Folien sollten daher mit Hilfe eigener Vorlesungsskizzen ergänzt werden - am besten in Form einer Vorlesungsnachbereitung max. 3 Tage nach der Vorlesung Zusätzlich zu den Folien werden Beispiele an der Tafel oder am Rechner gezeigt. Diese sollten Sie vollständig mitskizzieren. Zur vollständigen Nachbereitung, z.B. als Klausurvorbereitung, sind die Folien einheitlich strukturiert Es gibt genau drei Gliederungsebenen: Kapitel, Unterkapitel, Abschnitte Die Inhalte jedes Kapitels und jedes Unterkapitels werden jeweils motiviert und sind verbal beschrieben. Zusätzlich gibt es jeweils ein stichwortartiges Inhaltsverzeichnis der Unterkapitel, bzw. Abschnitte Die Vorlesung wird ständig überarbeitet, so dass sich die Foliensätze ändern können (und werden) Laden Sie sich zur endgültigen vollständigen Klausurvorbereitung nochmals zusätzlich den kompletten Foliensatz herunter. 3 Literatur Diese Veranstaltung ist anhand (wirklich) vieler Bücher und einer Menge eigener Erfahrungen erstellt worden. Jedes Buch hat dabei Schwerpunkte in speziellen Bereichen und ist daher sinnvoll. Eine Auflistung aller dieser Bücher ist nicht sinnvoll. Stellvertretend für all diese Bücher sei hier ein Buch angeführt: H.P.Gumm, M.Sommer: „Einführung in die Informatik“; Oldenbourg-Verlag 2004 Motivation ist alles ! Hier ein paar Bücher, die das Interesse und den Spaß an der Wissenschaft im Allgemeinen und an der Informatik im besonderen wecken soll: S.Singh: „Fermats letzter Satz“; DTV, 9.Auflage 2004 M. Spitzer: „Geist im Netz“; Spektrum, Akad. Verlag 2000 H. Lyre: „Informationstheorie“; UTB, 2002 A.Hodges: „Alan Turing, Enigma“; Springer-Verlag, 1983 D.R.Hofstadter: „Gödel, Escher, Bach“; Klett-Cotta, 2006 (Taschenbuch 1991) 4 Inhalt Wie jede Wissenschaft befasst sich die Informatik mit ihren eigenen „Objekten“. Was diese „Objekte“ sind und was man mit diesen Objekten machen kann - und wie - wird in dieser Vorlesung auf eher abstraktem Niveau, aber immer mit Beispielen aus der Realität eines Informatikers (oder einer Informatikerin), erläutert. Diese Vorlesung konzentriert sich auf den „Kern“ der Informatik. Vertieftere Einführungen in z.B die Bereiche der Programmierung, Rechnerarchitekturen, Betriebssysteme, etc. sollen daher bewusst den entsprechenden Veranstaltungen vorbehalten bleiben Inhalt 1. 2. 3. 4. 5. Informatik Information und Codes Zeichen und Zahlen Datenstrukturen Algorithmenentwurf 5 Überblick und Einordnung AFS RN Strukturierung Elemente Praktische 5 Statik (Struktur) OOP AD SWT Dynamik (Algorithmik) PIS Datenstrukturen 4 Zahlen 3 Zeichen RA 2 Information 1 Codes Theoretische Technische Informatik 6 Kapitel 1 Information Im Anfang war das Wort Johannes 1.1 Information ist der grundlegende Begriff der Informatik. Mehr noch: „Der Begriff der Information ist vermutlich das zentrale interdisziplinäre Brückenkonzept der modernen Wissenschaften * “. Dieses Kapitel beschreibt, aus welchen Aspekten Information besteht, welche für die Informarik wesentlichen Definitionsansätze es gibt und wie Information in der Informatik tatsächlich dargestellt wird. Inhalt 1. 2. 3. 4. Was ist Information Nachrichtentechnische Definition Algorithmische Definition Darstellung in der Informatik * (einige Teile dieses Kapitels entstammen: H.Lyre: „Informationstheorie) 7 1.1 Was ist Information Es deutet einiges darauf hin, dass „Information“ ein zumindest ebenso fundamentaler Begriff ist, wie „Stoff“ in der Chemie und „Energie“ in der Physik (die tatsächlich schon zu „Materie-Energie“ vereint wurden). Betrachtet man Information als ursächliche (atomare) Größe so ist die Frage: „was ist Information“ eher irrelevant. Dafür rücken Fragestellungen wie „woraus besteht Information“, „worin ist Information“, „was kann ich mit Information machen“ in den Vordergrund. In diesem Unterkapitel soll die erste dieser Fragen: „woraus besteht Information?“ betrachtet werden Inhalt 1. Semiotische Dreidimensionalität 2. Semantik und Pragmatik 3. Semantische Ebenen 8 1.1.1 Semiotische Dreidimensionalität Die wohl wichtigste Charakterisierung des Informationsbegriffes entspringt der „Semiotik“ – der Zeichenlehre (Also die Lehre, die sich mit Zeichen bzw. Symbolen befasst) und lässt sich auf den Informationsbegriff übertragen. Demnach haben Informationseinheiten drei Aspekte: die Syntax betrifft das Auftreten einzelnder Informationseinheiten und ihrer Beziehungen untereinander. die Semantik betrifft die Bedeutung der Informationseinheiten und ihre Beziehungen untereinander. die Pragmatik betrifft die Wirkung der Informationseinheiten und ihrer Beziehungen untereinander. Diese drei Aspekte müssen in ihrer Gesamtheit berücksichtigt werden (entweder explizit oder implizit) sind ungewichtet haben keinen Bezug zum informationsverarbeitenden System (z.B. Mensch, Maschine, …) 9 1.1.2 Semantik und Pragmatik Carl Friedrich von Weizsäcker: Information ist nur, was verstanden wird Information ist nur, was Information erzeugt (die wiederum syntaktische Aspekte hat, verstanden werden muss und Information erzeugen muss, die wiederum … hermeneutischer Zirkel) Der Aspekt „verstanden werden“ erlaubt keine strenge Formalisierung (denn was bedeutet „verstanden werden“ – wie kann man es messen) sehr wohl lässt sich aber der Aspekt „Information erzeugen“ formalisieren. Beispiel: Person A bittet Person B, das Licht einzuschalten: Sequenz von Zeichen: „B I T T E S C H A L T E D A S L I C H T A N“ Person B „interpretiert“ die Zeichenkette = wertet die Semantik, die Bedeutung der Zeichenkette aus – dabei kann man sich streiten, ob er die Bedeutung auch „verstanden“ hat oder auch nur haben muss. Person B generiert neue Information: Licht = on oder stellt sich einen erleuchteten Raum vor, was neurologisch zu messen ist. Da Semantik und Pragmatik eng miteinander verzahnt sind spricht man auch vom semantopragmatischen Aspekt der Information 10 1.1.3 Semantische Ebenen Der semantopragmatischen Aspekt der Information zeigt die Unmöglichkeit eines absoluten Begriffs von Information, d.h. Information ist relativ zu den semantischen Ebenen der beteiligten Systemen. Beispiel (siehe 2.1.2): Person A spricht deutsch, Person B kann kein deutsch d.h. die semantischen Ebenen sind völlig disjunkt. Daher ist in diesem Bezugssystem zwar der syntaktische Aspekt von Information, aber keine semantischer und damit (sehr wahrscheinlich;-) auch kein pragmatischer Aspekt und damit auch keine Information vorhanden. In der Realität sind unterschiedliche semantische Ebenen die Regel und verändern sich auch dynamisch: Beispiel: Beim Erlernen der Muttersprache testet ein Kleinkind zunächst Laute. Bei einer positiven Reaktion (z.B. Ma-Ma) erfolgt rudimentäre Wortbildung, die mit dem Semantikverständnis von Worten zu komplexeren syntaktischen Strukturen (Sätzen) mit komplexeren semantischen Strukturen weiterentwickelt werden. In der Informatik strebt man oft (z.B. bei einer Datenkommunikation) gleichartige semantische Ebenen an. 11 1.2 Nachrichtentechnische Definition (nach Shannon) Information hat vielfältige Repräsentationsformen. Noch vor Entstehen der Informatik als Wissenschaft hat Claude Elwood Shannon (1916-2001) wichtige Maßzahlen zur Erfassung von Information definiert. Dabei geht er von der nachrichtentechnischen Repräsentation von Information, der „Nachricht“ aus. Diese Repräsentation von Information hat „eigentlich“ nur syntaktische Aspekte (im Sinne der „Semiotischen Dreidimensionalität), denn es wird weder nach dem Sinn der Nachricht gefragt, noch nach deren Konzequenz. Dieses Unterkapitel stellt diese Maßzahlen und deren Grundlagen dar. Inhalt: 1. 2. 3. 4. 5. Nachricht Informationsgehalt einer Nachricht Informationsgehalt eines Zeichens Mittlerer Informationsgehalt Informationsgehalt des Menschen 12 1.2.1 Definition: Nachricht Informationsübetragung (nach Shannon, Hartley, Weaver und Wiener) Sender Kanal Empfänger Störung sei Alphabet X: Menge von Symbolen/Zeichen X = {x1, x2, ... xn} Eine Zeichenkette (ein Wort) der Länge n über X ist eine Folge von n Zeichen aus X (ein n-Tupel über X) Beispiel: X={a,b} Worte über X: Worte der Länge n mit n=3: {a,b,ab,ba,aba,abb,baa,bbb, ...} {aaa,aab,aba,abb,baa,bab,bba,bbb} Die Menge aller n-Tupel über X ist das n-fache Kreuzprodukt X X ... X (n mal), bezeichnet als Xn |Xn| = | X X ... X | = |X| * |X| * ... * |X| = |X|n Die Anzahl der Elemente alle Worte mit der exakte Länge n ist |X|n Wird eine Zeichenkette übermittelt, so spricht man von Nachricht Nx 13 1.2.2 Definition: Informationsgehalt einer Nachricht Ein Maß für die Information (der Informationsgehalt) einer Nachricht Nn,x der Länge n (über ein Alphabet X) ist die kürzeste Länge der Beschreibung, die notwendig ist, um die Nachricht Nn,x aus der Menge aller möglichen Nachrichten der Länge n sicher zu ermitteln Beispiel: Information der Nachricht N8,{0,1} : Suche in |{0,1}|8 = 256 Wörtern obere Hälfte ? ja nein obere Hälfte ? obere Hälfte ? ja nein ja nein Optimal mit binärem Suchen Anzahl Fragen: ld(|Xn|) = ld(|X|n) = n ld(|X|) ... Der Informationsgehalt einer aus mehreren (voneinander unabhängigen) Zeichen bestehenden Zeichenkette ist gleich der Summe der Informationen der einzelnen Zeichen: 1 * ld(|X|) + 1* ld(|X|) + ... + 1* ld(|X|) = n * ld(|X|) = ld(|X|n) 14 1.2.3 Definition: Informationsgehalt eines Zeichens Idee: Der Informationsgehalt eines Symbols xi hängt von der Wahrscheinlichkeit seines Auftretens ab: Je seltener ein Symbol auftritt, desto höher ist sein Informationsgehalt: h(xi) = f(1/p(xi)) Definition nach Shannon (ca. 1950): Der Informationsgehalt h (Einheit bit) eines Symbols xi ist definiert als der Logarithmus Dualis des Reziprokwertes der Wahrscheinlichkeit, mit der das Symbol auftritt: h(xi) = ld(1/p(xi)) = -ld p(xi) 15 1.2.3 Beispiel: Informationsgehalt Beispiel: Sei die Wahrscheinlichkeit von E = 0,5 und die von H = 0,25 Informationsgehalt des Zeichens „E“ : hE = ld (1/0.5) = 1bit Informationsgehalt des Zeichens „H“ : hH = ld (1/0,25) = 2 bit Informationsgehalt der Zeichenkette „EHE“ hEHE = ld(2) + ld(4) + ld(2) = ld(2 * 4 * 2) = 4 bit Umrechnungsregel des ld in den 10er-Logarithmus (lg) log a b = log c b log c a lg b mit a = 2, c = 10 gilt: ld b = 3,322 lg b lg 2 16 1.2.4 Definition: Mittlerer Informationsgehalt Kennt man die Einzelwahrscheinlichkeiten aller möglichen Symbole einer Symbolsequenz, so ist der mittlere Informationsgehalt Hs der Symbole s (Entropie der Quelle) definiert als: Hs = S (p(xi) * h(xi)) = S (p(xi) * ld(1/p(xi))) = - S( p(xi) * ld(p(xi))) Der mittlere Informationsgehalt Hs,n einer Symbolkette der Länge n ist: Hs,n = Hs * n Beispiel d.h. die Symbole haben P p h einen mittleren Informax 0,5 x 0,5 1 tionsgehalt von 1,5 bit. y z 0,25 0,25 y z 0,25 2 0,25 2 Hs = 0,5 * 1bit + 0,25 * 2bit + 0,25 * 2bit = 1,5 bit 17 1.2.5 Informationsaufnahme des Menschen Beim Lesen (eines deutschen Textes) erreicht der Mensch eine Geschwindigkeit von ca. 25 Zeichen/sec das entspricht 25 * 2 Bit (mittleren Informationsgehalt in der deutschen Sprache) = 50 Bit/sec dieser Wert ist unabhängig vom Alphabet - kann also auch z.B. im chinesischen erreicht werden (weniger Zeichen/sec, größerer mittlerer Informationsgehalt). Nachrichten, die mit anderen Medien dargestellt werden, können ca. genauso schnell verarbeitet werden. Aufnahme des Menschen Bewusst aufgenommen werden ca. 50% von 50 Bit/sec also 25 bit/sec Bei einer Aufnahmedauer von ca. 16 Stunden am Tag ergibt sich eine Lebensinformationsmenge von ca. 3 * 1010 Bit die Speicherkapazität des Gehirns ist mit ca. 1012 Bit auch in der Lage, diese Informationsmenge zu speichern (sogar 100 Mal) Die Lebensinformationsmenge findet auf einer CD-ROM Platz und ist über Glasfaserkabel in wenigen Sekunden zu übertragen. 18 1.3 Algorithmische Definition Betrachten wir folgende Nachrichten (A und B): Nachricht A: 1110111011000110110101100010 Nachricht B: 1111000111100011110001111000 nach Shannon ist der Informationsgehalt der ersten Zeichenkette A identisch mit dem der zweiten Zeichenkette B (denn hA(0)=hB(0) und hA(1)= hB(1)) Aber: Ist das (intuitiv) wirklich so ? Tatsächlich lässt sich die Information aus Nachricht B leicht (algorithmisch) beschreiben: „4 1en, dann 3 0en, das Ganze 4 mal“ Hat man also die Regelmäßigkeit der Nachricht „verstanden“ lässt sich die Information einfacher (kürzer) formulieren. Im Sinne der „Semiotischen Dreidimensionalität“ berücksichtigt die Algorithmische Definition von Information zusätzlich zur Syntax auch die Semantik. Inhalt: 1. Die Turing-Maschine 2. Das Turing-Programm 3. Beispiele 19 1.3.1 Einige Fragen 1. Kann jede Zeichenkette durch Regeln (einen Algorithmus) beschrieben werden. 2. Wie können diese Regeln zur Generierung von Zeichenketten beschieben werden? 3. Gibt es ein Modell, mit dem man solche Regeln formalisieren kann? Wie sieht ein solches abstraktes Model aus ? Gibt es genau ein Model oder mehrere ? Sind diese Modelle äquivalent ? 20 1.3.2 Die Turing-Maschine Als abstraktes Modell eines Computers beschrieb Alan Turing (1912-1954) 1936 - also noch vor der Erfindung des Digitalrechners - eine nach ihm benannte abstrakte Maschine Formal kann eine Turing-Maschine wie folgt beschrieben werden: Alphabet: A = {a0, ... , an}, der Zeichenvorrat der Turing-Maschine, wobei a0 das Leerzeichen ("blank") darstellt (Oft: a1=0, a2=1) Bandinschrift: B: Z A eine Zuordnung, die jeder Stelle des rechtsseitig unendlichen Bandes ein Zeichen zuordnet. Dabei wird festgesetzt, dass B(k) = a0 für alle bis auf endlich viele . Kopfposition: k Z Zustände: eine endliche Menge von Maschinenzuständen.Q = {q0, ..., qm} Darunter sind q0, der Anfangszustand und H Q , die Menge der Haltezustände, ausgezeichnet. Statt Haltzustände wird oft auch eine Halteaktion angegeben Turing-Tabelle: eine Übergangsrelation: d : A Q A Q {r, l, n, h}, das jedem (gelesenen) Zeichen in Abhängigkeit eines Zustandes ein neues Zeichen, einen Folgezustand und eine Aktion (r,l,n,h} zuordnet 21 1.3.3 Das Turing-Programm a1 a2 a3 a4 ... a6 falls so ist die Maschine im Zustand q das unter dem Kopf gelesene Zeichen das neue Zeichen ak al die Aktion der neue Zustand r oder l q‘ Die Aktionen: r (right): das Verschieben des Kopfes nach rechts l (left): das Verschieben des Kopfes nach links optional n (none): keine Bewegung des Kopfes optional h (halt): Impliziter Übergang in einen Endzustand 22 1.3.4 Beispiel Das „Busy beaver“-Problem: Wie viele „1“-en kann ein terminierendes Turing-Programm auf einem leeren Band mit einer vorgegebenen Anzahl von Zuständen maximal erzeugen. In dieser Notation wird statt eines Übergangs in den Haltezustand (z.B. q5) die Aktion „halt“ ausgeführt. 11 Schritte, 6 Einsen 96 Schritte, 13 Einsen Der Rekord für |Z|=5 liegt bei 4096 „1“en (J.Buntrock, H.Marxen, 1989) Es wurde gezeigt, dass es möglich ist, mehr als 4098 „1“en zu generieren allerdings nicht wie. 23 .3.5 Information Die algoritmische Definition definiert Informationgehalt: Der algorithmische Informationsgehalt einer Nachricht ergibt sich aus der Länge L des kürzesten Algorithmuses (z.B. Turing-Programms), welches die Nachricht erzeugt. Daraus ergibt sich, dass der algorithmische Informationsgehalt (bis auf eine kleine Konstante) immer kleiner oder gleich dem (nachrichtentechnischen) Informationsgehalt einer Nachricht ist, denn im „einfachsten“ Fall kann die Turing-Maschine die komplette Nachricht auf dem Turingband codieren und besteht aus einem leeren Programm. Es gibt keine Möglichkeit, für beliebige Nachrichten zu bestimmen, ob der algorithmische Informationsgehalt kleiner als der nachrichtentechnische Informationsgehalt (ob es also ein Turing-Programm gibt, welches die Nachricht „geschickter“ codiert). 24 12.4 Darstellung in der Informatik Die Wurzeln der Informatik liegen weniger in der Nachrichtentechnik, als vielmehr in der Mathematik. Darum ist die Repräsentation von Information als Nachricht weniger relevant als die Darstellung von Zahlen (in binärer Repräsentation) und algebraischen (bool‘schen) Objekten. In diesem Unterkapitel geht es um diese Repräsentationen. Inhalt 1. 2. 3. 4. Das Bit in der Informatik Die Darstellung des Bit Beispiel Das Byte und mehr 25 1.4.1 Das Bit in der Informatik Definition aus der Informatik: Ein bit ist die Informationsmenge in einer Antwort, auf eine Frage, die zwei Möglichkeiten zulässt: ja /nein wahr/falsch schwarz/weiß ... Der Informationsgehalt eines Zeichens einer zweielementigen Alphabetes mit gleicher Auftretungswahrscheinlichkeit ist (nach Shannon) h = -ld p = -ld 0,5 = 1bit 26 1.4.2 Die Darstellung des Bit Diese zwei Möglichkeiten werden meist mit 0 bzw. 1 codiert Die technische Darstellung erfolgt u.a. mit Hilfe von: Ladung 0 = ungeladen 1 = geladen Spannung 0 = 0 Volt 1 = 5 Volt Magnetisierung 0 = nicht magnetisiert 1 = magnetisiert Licht 0 = kein Licht 1 = Licht Reflexionseigenschaften 0 = reflektiert 1 = reflektiert nicht ... 27 1.4.3 Das Byte und mehr Aus bestimmten Gründen Geschwindigkeit von Lese- und Schreiboperationen Darstellungsmöglichkeit „häufiger“ Zeichen (z.B. Alphabet) Darstellungsmöglichkeiten von Zahlen, etc. werden in der Informatik oft Vielfache von 8bit-Gruppen verwendet (8bit, 16bit, ...) Eine 8-Bitsequenz heißt ein Byte. Diese 8bit werden manchmal nochmals unterstruktuiert in zwei 4er Gruppen, die dann „Nibble“ heißen. Nibble können geschickt als Hexadezimalziffer dargestellt werden. Bestimmte 2er-Potenzen werden in der Informatik häufig als Maßzahlen (z.B. für Speichergrößen) verwendet: 1 KByte = 210 = 1024 Byte (1 Kilobyte) 1 MByte = 210 * 210 Byte (1 Megabyte) 1 GByte = 210 * 210 * 210 Byte (1 Gigabyte) 1 TByte = 210 * 210 * 210 * 210 Byte (1 Terrabyte) 28 1.4 Zusammenfassung des Kapitels Was ist Information Nachrichtentechnische Definition Informationsgehalt eines Zeichens (x) einer Nachricht (n) Mittlerer Informationsgehalt ein/aller Zeichen(s) (x) einer Nachricht (n) Algorithmische Definition Definition in der Informatik h(x) = ld (1/p(x)) = - ld (p(x) h(n) = h(n1) + h(n2) + h(n3) + ... H(x) = S p(xi) * h(xi) n * H(x) Achtung: Nicht verwechseln ! Bits und Bytes 29 Kapitel 2 Codes … und das Wort ward Fleisch Johannes 1.14 Information ist abstrakt: damit Information in einem Rechner verarbeitet werden kann, muss sie in eine für den Rechner verarbeitbare Form transformiert werden. Dabei kann man sich beliebig ungeschickt anstellen. Dieses Unterkapitel beschreibt, wie eine solche Transformation funktionieren kann, welche Möglichkeiten man dabei hat und gibt ein Maß für die Qualität einer Transformation an. Inhalt 1. 2. 3. 4. Definitionen Codes zur Optimierung der Codelänge Codes zur Fehlererkennung und Fehlerkorrektur Beispiele 30 2.2.1 Definitionen … ein paar Definitionen .. Inhalt 1. 2. 3. 4. 5. Definition Willkürliche Codes Fano-Bedingung Mittlere Wortlänge Redundanz 31 2.1 Definition: Code Definition: Seien X,Y zwei Alphabete Eine Codierung ist eine Abbildung C:XnYm aller n-Tupel aus X nach m-Tupel aus Y. oft ist n=1 oft ist X,Y = {0,1} Die Worte aus Ym werden Code genannt. Die Umkehrrelation C-1 bezeichnet man als Dekodierung Definition: Ein Code heißt vollständig, wenn alle Wörter aus Xn mit Hilfe der Codierung abgebildet werden können. Definition: Für ein Wort Xin aus C:XinYim ist m die Länge l(Xin) von C(Xin) (Zur Erinnerung: meist in n=1, d.h. die Codierung bildet ein jeweils ein Zeichen xi auf mehre Zeichen xim ab) Definition: Ein Code heißt Code gleicher Länge, wenn die Anzahl der Symbole auf die ein Wort abgebildet wird, für alle Worte gleich ist (also: l(Xn)=m konstant für alle XnYm). Ansonsten heißt der Code: Code unterschiedlicher Länge 32 2.1.2 Definition: Eindeutigkeit Definition: Ein Code heißt eindeutig, wenn C-1 injektiv ist, ansonsten heißt er mehrdeutig Codes sollten also (meist) so beschaffen sein, dass sie bei der Decodierung eindeutig sind. Gegenbeispiel: z p l l*p A 0,2 2,32 0,46 101 3 0,60 E 0,3 1,74 0,52 01 2 0,60 I 0,2 2,32 0,46 100 3 0,60 O 0,25 2,00 0,50 11 2 0,50 U 0,05 4,32 0,22 11100 5 0,25 R=L-H=0,38 h h*p H = 2,17 c L = 2,55 Problem Dekodierung: 10111100100 = 101 11100 100 101 11 100 100 (aui) (aoii) 33 2.1.3 Definition: Fano-Bedingung Fano-Bedingung: Kein Codewort darf Anfang eines anderen Codewortes sein Beispiel: z c z c A 101 A 00 E 01 E 10 I 100 I 010 O 11 O 11 U 11100 U 011 Die Fano-Bedingung ist hinreichend aber nicht notwendig hinreichend: Wenn die Fano-Bedingung erfüllt ist, ist der Code eindeutig nicht notwendig: Auch eine Codierung, die die Fano-Bedingung nicht erfüllt kann eindeutig sein. Beispiel: a 1, b 10 Anmerkung: Eine Betrachtung der Fano-Bedingung macht „eigentlich“ nur Sinn bei Codes unterschiedlicher Länge (warum ?) 34 2.1.4 Definition: Mittlere Wortlänge Codiert man die Zeichen eines Alphabetes binär (also mit Sequenzen eines 2Zeichen-Alphabetes, z.B. 0 und 1) , so versteht man unter der mittleren Wortlänge L eines Codes die mit den Auftrittswahrscheinlichkeiten gewichtete Summe der Längen l(xi) der den einzelnen Symbole entsprechenden Codewörtern L = S p(xi) * l(xi) Beispiel x y z Code 1 01 00 l 1 2 2 p 0,5 0.25 0,25 h 1 2 2 p*h 0,5 0,5 0,5 p*l 0,5 0,5 0,5 011100011 yxxzyx H = 1,5 Bit L = 1,5 Bit 35 2.1.5 Definition: Redundanz Die mittlere Wortlänge eines Binärcodes ist immer größer oder gleich dem mittleren Informationsgehalt. Die Differenz zwischen mittlerer Wortlänge und mittlerem Informationsgehalt wird als Redundanz R des Codes bezeichnet: R=L-H Die Redundanz bezogen auf die Wortlänge nennt man relative Redundanz r: r=R/L Redundanz ist also ein Maß für die Qualität einer Kodierung (insofern die Länge eines Codes als Qualität angesehen wird) 36 2.1.6 Redundanz – Beispiel Beispiel x y z Code 1 01 00 l 1 2 2 p 0,5 0.25 0,25 h 1 2 2 p*h 0,5 0,5 0,5 H 1,5 Bit p*l 0,5 0,5 0,5 p 0,7 0.2 0,1 h 0,515 2,322 3,322 L 1,5 Bit p*h 0,360 0,464 0,332 p*l 0,7 0,4 0,2 H L 1,16 Bit 1,3 Bit H = S pi * hi = - S pi * ld(pi) = 0,360+0,464+0,332 = 1,156 L = S pi * li = 0,7+0,4+0,2 = 1,3 R =L-H = 1,3 - 1,156 = 0,144 r =R/L = 0,144 / 1,3 = 0,111 37 2.1.7 Codierungsarten Die Entropiekodierung kodiert ungeachtet der zugrundliegenden Information und betrachtet die zu komprimierten Daten als “reine” Bitsequenz (also nur die Syntax). es werden nur (informationstheoretische) Redundanzen eliminiert, es geht keine Information verloren. unterschiedliche Kompressionsquoten bei unterschiedlichen zu komprimierenden Daten. Die Quellenkodierung ist abhängig von den zu kodierenden Informationen (daher: Quellcodierung). und verwendet dazu die Semantik der zu kodierenden Information. eliminiert für das “Ziel” (z.B. den Menschen) definierte Redundanzen und ist (meist) verlustbehaftet. Spezifika der Informationen können dadurch gut genutzt werden und man erreicht eine wesentlich bessere Kompressionsraten bei "akzeptabler" Qualität. 38 2.2 Huffman-Codierung Oft ist es wichtig, einen Code möglichst kurz zu gestalten aus Gründen der Speicherplatzoptimierung aus Gründen der Übertragungskapazitäts-Optimierung … Idee Häufige Symbole – kurze Codes, Seltene Symbole – lange Codes Kodierung Die Häufigkeit des Auftretens der Zeichen (oder Zeichenketten) wird bestimmt Die am häufigsten auftretenden Zeichen (oder Zeichenketten) werden mit kurzen Bitfolgen (Huffmann-Code) kodiert Der Huffmann-Code wird zur Kodierung der Bitfolge verwendet Dekodierung Dekodierer besitzt identischen Huffmann-Code (oder bekommt die Zuordnungstabelle explizit übertragen) Dekodierer setzt den Huffmann-Code in Bytefolge um Die Huffmann-Codierung generiert einen vollständigen, eindeutigen Code unterschiedlicher Länge (der die Fano-Bedingung erfüllt) 39 2.2.1 Vorgehen Der Baum wird von oben nach unten mit den zwei Buchstaben (oder Buchstabengruppen) mit den jeweils kleinsten Wahrscheinlichkeiten schrittweise aufgebaut sei P(A) = 0,16 P(B) = 0,51 P(C) = 0,09 P(D) = 0,13 P(E) = 0,11 P(C)=0,09 P(E)=0,11 1 0 P(D)=0,13 1 1 1 0 P(A D)=0,29 P(CE)=0,2 P(B)=0,51 P(A)=0,16 0 P(C E A D)=0,49 0 Kodierung A = 000 B=1 C = 011 D = 001 E = 010 P(B C E A D)=1,0 40 2.2.2 Verbesserung Codierung ist optimal, wenn sich die Wahrscheinlichkeiten der Zeichen „geschickt“ ergeben „geschickt“ sind Wahrscheinlichkeiten mit negativen 2er-Potenzen. Durch Betrachtung (und Codierung) von Zeichenpaaren, -drillingen, ... , nTupeln können solche „geschickten“ Wahrscheinlichkeiten gefunden werden Die Redundanzen lassen sich sogar beliebig verkleinern, weil die Einzelwahrscheinlichkeiten von n-Tupeln beliebig klein werden und dadurch immer „geschickter“ kombiniert werden können. Beispiel: z p z p z p A 0,80 AA 0,64 AAA 0,512 B 0,20 AB 0,16 AAB 0,128 BA 0,16 ABA 0,128 BB 0,04 ... ... BBB 0,008 Produkt der Einzelwahrscheinlichkeiten (Annahme: Auftritt von A,B unabhängig) ... 41 2.2.3 Beispiel für Tupelbildung Beispiel z p h h*p c l l*p A 0,80 0,32 0,26 0 1 0,80 B 0,20 2,32 0,46 1 1 0,20 R = 0,26 H = 0,72 z p AA 0,64 0,64 AB 0,16 BA BB R = 0,12 h L = 1,00 h*p l l*p 0,41 0 1 0,64 2,64 0,42 10 2 0,32 0,16 2,64 0,42 110 3 0,48 0,04 4,64 0,19 111 3 0,12 H = 1,44 c L = 1,56 42 2.3.3 Hamming-Codierung Manchmal ist es wichtig, Fehler in einem Code zu erkennen und ggf. zu korrigieren. (z.B. bei der Übertragung) Idee Gezielter Einsatz von Redundanz Nicht alle möglichen Codeworte sind daher gültig Kodierung Dem Code werden zusätzliche Bits hinzugefügt. Die Werte der zusätzlichen Bits stehen in Bezug zu den ursprünglichen Bits Beispiel aus der natürlichen Sprache “Ich studiere in Gießer” – Fehler kann erkannt und behoben werden “Ich liebe rich” – Fehler kann erkannt, aber nicht behoben werden 43 2.3.1 Beispiel ASCII Paritätsbit bei der 7-bit ASCII-Codierung wähle das 8te Bit so, dass immer eine gerade Anzahl von Bits gesetzt ist (gerade Anzahl = „even parity“, ungerade Anzahl = „odd parity“) Zeichen @ A B C Binär 100 0000 100 0001 100 0010 100 0011 mit even Parity 1100 0000 := 1+1=2 0100 0001 := 1+1+0=2 0100 0010 := 1+1+0=2 1100 0011 := 1 + 1 + 1 + 1 = 4 erhält man eine Nachricht mit ungerader Anzahl, so weiß man, dass (mindestens) ein Bit verkehrt ist. man weiß allerdings nicht welches man weiß auch nicht, ob nicht mehr als ein Bit verkehrt ist man weiß bei richtigem parity-Bit auch nicht, ob nicht mehr als 1 Bit verkehrt ist Idee: den „Abstand“ gültiger Worte so groß wie nötig wählen 44 2.3.2 Hamming-Distanz Definition: Der Hamming-Abstand (die Hamming-Distanz D) zwischen zwei Wörtern ist die Anzahl der Stellen, an denen sich zwei Worte gleicher Länge unterscheiden. Beispiel: Hamming-Abstand von 1100 0000 (A) und 0100 0001 (B) = 2 Definition: Der Hamming-Abstand (die Hamming-Distanz D) eines Codes ist der minimale Hamming-Abstand zwischen zwei beliebigen Wörtern des Codes. Beispiel: Hamming-Abstand von ASCII (mit even parity) = 2 Einige Konsequenzen: Codes mit Hamming-Distanz = 0 sind nicht eindeutig Bei Codes mit Hamming-Distanz = 1 kann das „Kippen“ eines Bits zu einem anderen gültigen Codewort führen (muss nicht) Bei Codes mit Hamming-Distanz = 2 kann ein Ein-Bit Fehler erkannt werden. 45 2.3.3 Fehlererkennung Fehler, bei denen höchstens D-1 Bits gestört sind, können sicher erkannt werden einige andere Fehler können, müssen aber nicht unbedingt erkannt werden können. (genau dann, wenn die Hamming-Distanz zwischen zwei Wörtern eines Codes größer als die Distanz des Codes ist) Fehler werden erkannt, wenn ein Codewort ungültig ist gültiges Codewort „nur“ erkennbares Codewort A korrigierbares Codewort B 1-Bit-Fehler 2-Bit-Fehler 46 2.3.4 Fehlerkorrektur Fehler, bei denen höchsten (D-1)/2 Bits gestört sind, können sicher korrigiert werden einige andere Fehler können, müssen aber nicht korrigiert werden können (genau dann, wenn die Hamming-Distanz zwischen zwei Wörtern eines Codes größer als die Distanz des Codes ist) Falsches Codewort wird dem „nächstmöglichen“ Codewort (d.h. dem mit der minimalen Distanz) zugeordnet. gültiges Codewort korrigierbares Codewort A B 1-Bit-Fehler 2-Bit-Fehler 47 2.3.5 Hamming Idee Jedes Prüfbit stellt die gerade Parität einer gewissen Menge von Bits (einschließlich sich selbst) sicher Jedes Datenbit kann in mehreren dieser Mengen einbezogen sein ... P D D D P D P P 8 1 Die Hamming-Methode Es werden an der 1,2,4,8,... Stelle Prüfbits eingeführt Jedes Prüfbit hat damit in seiner dualen Stellennummer genau eine Stelle mit einer 1 (1,2,4,8,... = 1,10,100,1000,...) Alle Stellen im Wort, die an derselben Stelle eine 1 haben (und an den anderen 1 oder 0) werden aufsummiert 1 001,011,101,111, ... also 1,3,5,7, ... Stellen 10 010,011,110,111, ... also 2,3,6,7, ... Stellen 100 100,101,110,111, ... also 4,5,6,7, ... Stellen Das entsprechende Parity-Bit wird als even-parity Bit gesetzt Die Hamming-Methode generiert einen eindeutigen, vollständigen Code gleicher Länge 48 2.3.6 Beispiel Hamming zu kodieren: 1011 Prüfbit 1 (001) relevant 011,101,111 also Bit 3,5,7 Summe = 3 Bit setzen Prüfbit 2 (010) relevant 011,110,111 also Bit 3,6,7 Summe = 2 Bit löschen Prüfbit 4 (100) relevant 101,110,111 also Bit 5,6,7 Summe = 2 Bit löschen kodiert: 1010101 1 0 1 P 1 P P 7 1 1 0 1 P 1 P 1 1 0 1 P 1 0 1 1 0 1 0 1 0 1 49 2.3.7 Beispiel Hamming Fehlerhafter Code: 1000101 Verfahren prüfe alle Parity-Bits k = Summe der fehlerhaften Bitnummern 1 0 0 0 1 0 1 7 1 k gibt die Nummer des gestörten Bits an (nur bei 1-Bit Fehler zuverlässig) Hier: Bit1 prüft 3,5,7: falsch Bit2 prüft 3,6,7: ok Bit4 prüft 5,6,7: falsch k=1+4=5 Bit5 muss getauscht werden 1 0 1 0 1 0 1 50 2.4 Beispiele Anhand zweier Beispiele soll gezeigt werden, wie: die Natur, Gott (oder das fliegende Spaghetti-Monster) der Mensch Information codiert Inhalt 1. Genetische Codierung 2. Bildcodierung 51 2.4.1 Genetische Codierung Beim Menschen ist die Desoxyribonukleinsäure (DNS, engl. DNA) der Träger der genetischen Information und Hauptbestandteil der Chromosomen. Die DNS ist ein kettenförmiges Polymer aus Nukleotiden, die sich in ihren Stickstoffbasen unterscheiden (Thymin/Cytosin bzw. Adenin/Guanin,) das Alphabet des Codes ist also: {Thymin, Cytosin, Adenin, Guanin,} oder auch { T, C, A, G } Je drei aufeinanderfolgende Basen bilden ein Wort Es gibt also pro Wort 43 = 64 Kombination die Wortlänge ist also ld(64) bit = 6 bit Ein Gen enthält etwa 200 Worte Ein Chromosom enthält ca. 104 bis 105 Gene Die Anzahl der Chromosomen pro Zellkern ist beim Menschen 46 Die pro Zellkern gespeicherten Daten haben damit ein Volumen von 6 bit * 200 * 105 * 46 = 55200 bit * 105 5 * 109 bit * 109 Byte = 1 GByte 52 2.2.3 Bildcodierung Datenkompression bei der Bildcodierung (z.B. JPEG, MPEG, …) durchläuft typischerweise vier Schritte: 1. Datenaufbereitung erzeugt eine geeignete digitale Darstellung der Information Bsp.: Zerlegung eines Bildes in Pixelblöcke 2. Datenverarbeitung erster Schritt der Kompression, z.B. Transformation aus dem Zeitbereich in den Frequenzbereich (z.B. durch Discrete Cosinus Transformation – DCT) 3. Quantisierung Gewichtung der Amplituden und Zuordnung zu Quantisierungsstufen (nicht notwendigerweise linear) 4. Entropiekodierung verlustfreie Kompression (z.B. durch Huffmann-Codierung) (2 x 1)u (2 y 1)v s cucv syx cos cos 16 16 x 0 y 0 7 7 (2 x 1)u (2 y 1)v 1 sxy 4 cucvsvu cos cos 16 16 x 0 y 0 7 1 vu 4 7 1 für u, v 0 2 bzw. sonst cu , cv 1 cu, cv 53 2.6 Zusammenfassung des Kapitels Definitionen Codierung, Code, Vollständigkeit, Länge Eindeutigkeit Fano-Bedingung mittlere Wortlänge Redundanz Codierungsarten L = S p(xi) * l(xi) R=L-H Huffmann-Codierung Vorgehen Verbesserungen Hamming-Codierung Beispiel ASCII Hamming-Distanz Fehlererkennung / -korrektur Hamming-Codierverfahren Beispiele Beispiele Genetische Codierung Bildcodierung 54 Kapitel 3 Zeichen und Zahlen … da schrieb er auf die Tafeln, wie die erste Schrift war 5. Mose 10.4 Auch wenn Objekte der realen Welt beliebig komplex in Zusammensetzung und Struktur sind, so werden sie meist auf zwei einfache Repräsentationen - als Abstraktion - abgebildet: Zeichen und Zahlen. Dieses Kapitel beschreibt, wie diese Objekte in eine für den Rechner verarbeitbare Form kodiert werden können. Inhalt 1. Kodierung von Zeichen 2. Darstellung von Zahlen 55 3.1 Kodierung von Zeichen Die Wurzeln der Informationscodierung in der Menschheitsgeschichte liegt in der Entwicklung der Schrift. Menschen haben dabei versucht, mündliche Erzählung in Form von Bild-, Silben- oder Buchstabenschriften dauerhaft zu „codieren“. Dabei kommt der Buchstabenschrift im westlichen Kulturbereich eine besondere Bedeutung zu und wird durch Schriftzeichen aus aller Welt zunehmend ergänzt. Diese Entwicklung spiegelt sich auch in folgenden Unterkapiteln wider. Inhalt ASCII EBCDIC UNICODE 56 3.1.1 ASCII -Tabelle (7Bit) American Standard Code for Information Interchange @ NUL 000 T DC4 020 ( 040 < 060 P 080 d 100 x 120 A SOH 001 U NAK 021 ) 041 = 061 Q 081 e 101 y 121 B STX 002 V SYN 022 * 042 > 062 R 082 f 102 z 122 C ETX 003 W ETB 023 + 043 ? 063 S 083 g 103 { 123 D EOT 004 X CAN 024 , 044 @ 064 T 084 h 104 _| 124 E ENQ 005 Y EM 025 - 045 A 065 U 085 i 105 } 125 F ACK 006 Z SUB 026 . 046 B 066 V 086 j 106 ~ 126 G BEL 007 [ ESC 027 / 047 C 067 W 087 k 107 H BS 008 \ FS 028 0 048 D 068 X 088 l 108 I HT 009 ] GS 029 1 049 E 069 Y 089 m 109 J LF 010 ^ RS 030 2 050 F 070 Z 090 n 110 K VT 011 _ US 031 3 051 G 071 [ 091 o 111 L FF 012 SP 032 4 052 H 072 \ 092 p 112 M CR 013 ! 033 5 053 I 073 ] 093 q 113 N SO 014 " 034 6 054 J 074 ^ 094 r 114 O SI 015 # 035 7 055 K 075 _ 095 s 115 P DLE 016 $ 036 8 056 L 076 ` 096 t 116 Q DC1 017 % 037 9 057 M 077 a 097 u 117 R DC2 018 & 038 : 058 N 078 b 098 v 118 S DC3 019 ' 039 ; 059 O 079 c 099 w 119 DEL 127 57 3.1.1 ASCII - Sonderzeichen Bedeutung der Sonderzeichen im ASCII-Code @ A B C D E F G H I J K L M N O P Q NUL SOH STX ETX EOT ENQ ACK BEL BS HT LF VT FF CR SO SI DLE DC1 Null, or all zeros StartHeading StartText EndText EndTransmission Enquiry Acknowledge Bell Backspace HorizontalTab LineFeed VerticalTab FormFeed CarriageReturn ShiftOut ShiftIn DataLinkEscape DeviceControl1(XON) R S T U V W X Y Z [ \ ] ^ _ DC2 DC3 DC4 NAK SYM ETB CAN EM SUB ESC FS GS RS US SP DeviceControl2 DeviceControl3(XOFF) DeviceControl4 Neg.Acknowledge SynchronousIdle EndTrans.Block Cancel EndofMedium Substitute Escape FileSeparator GroupSeparator RecordSeparator UnitSeparator Space ? DEL Delete 58 3.1.2 EBCDIC - Tabelle Extended Binary Coded Decimals Interchange Code nul soh stx etx pf ht lc del ge rlf smm vt ff cr so si dle dc1 dc2 tm res nl bs il can em 00 001 002 003 004 005 006 007 008 009 00a 00b 00c 00d 00e 00f 010 011 012 013 014 015 016 017 018 019 cc cu1 ifs igs irs ius ds sos fs 01a 01b 01c 01d 01e 01f 020 021 022 023 byp 024 lf 025 etb 026 esc 027 028 029 sm 02a cu2 02b 02c enq 02d ack 2e bel 2f 030 031 syn 032 033 pn rs uc eot cu3 dc4 nak sub Sp ¢ . > ( 034 035 036 037 038 039 03a 03b 03c 03d 03e 03f 040 041 042 043 044 045 046 047 048 049 04a 04b 04c 04d + | & ! $ * ) ; / 04e 04f 050 051 052 053 054 055 056 057 058 059 05a 05b 05c 5d 5e 5f 060 061 062 063 064 065 066 067 068 069 | 06a , 06b % 06c 06d < 06e ? 06f 070 071 072 073 074 075 076 077 078 ` 079 : 07a # 07b @ 07c ' 07d = 07e " 07f 080 a 081 b c d e f g h i j k l m n o p q r 082 083 084 085 086 087 088 089 08a 08b 08c 08d 08e 08f 090 091 092 093 094 095 096 097 098 099 09a 09b ~ s t u v w x y z 09c 09d 09e 09f 0a0 0a1 0a2 0a3 0a4 0a5 0a6 0a7 0a8 0a9 0aa 0ab 0ac 0ad 0ae 0af 0b0 0b1 0b2 0b3 0b4 0b5 { A B C D E F G H I 0b6 0b7 0b8 0b9 0ba 0bb 0bc 0bd 0be 0bf 0c0 0c1 0c2 0c3 0c4 0c5 0c6 0c7 0c8 0c9 0ca 0cb 0cc 0cd 0ce 0cf } J K L M N O P Q R 0d0 0d1 0d2 0d3 0d4 0d5 0d6 0d7 0d8 0d9 0da 0db 0dc 0dd 0de 0df \ 0e0 0e1 S 0e2 T 0e3 U 0e4 V 0e5 W 0e6 X 0e7 Y 0e8 Z 0e9 0ea 0eb 0ec 0ed 0ee 0eF 0 0f0 1 0f1 2 0f2 3 0f3 4 0f4 5 0f5 6 0f6 7 0f7 8 0f8 9 0f9 | 0fa 0fb 0fc 0fd 0fe eo 0ff 59 3.1.2 EBCDIC - Sonderzeichen Die Bedeutung der Sonderzeichen Char Description Char Description Char Description ACK Acknowledge EOT End of Transmission PN Punch On BEL Bell ESC Escape RES Restore BS Backspace ETB End of Transmission Block RS Reader Stop BYP Bypass ETX End of Text SI Shift in CAN Cancel FF Form Feed SM Set Mode CC Cursor Control FS Field Separator SMM Start of Manual Message CR Carriage Return HT Horizontal Tab SO Shift Out CU1 Customer Use 1 IFS Interchange File Separator SOH Start of Heading CU2 Customer Use 2 IGS Interchange Group Separator SOS Start of Significance CU3 Customer Use 3 IL Idle SP Space DC1 Device Control 1 IRS Interchange Record Separator STX Start of Text DC2 Device Control 2 IUS Interchange Unit Separator SUB Substitute DC4 Device Control 4 LC Lower Case SYN Synchronous Idle DEL Delete LF Line Feed TM Tape Mark DLE Data Link Escape NAK Negative Acknowledge UC Upper Case DS Digit Select NL New Line VT Vertical Tab EM End of Medium NUL Null ENQ Enquiry PF Punch Off 60 3.1.3 Unicode Aktuelle Version 5.2 (siehe auch www.unicode.org) Buchstaben und Symbole aus allen wichtigen geschriebenen Sprachen der Welt Amerika, Europa, Mittlerer Osten, Afrika, Indien, Asien, Pazifik Symbole Satzzeichen Sonderzeichen Wird genormt in ISO/IEC 10646 Kompatibilität mit ASCII 0000 - 007F: identisch mit 7-bit ASCII 007F - 00FF: Latin-1 Supplement (nationale Sonderbuchstaben) 2500 - 25FF: Blockgraphikzeichen (Box Drawing: ╘╚╞╬└┴├...) 61 3.1.3 Unicode (www.wikipedia.org, Dez-3-06) Unicode reserves 1,114,112 (= 220 + 216 or 17 × 216, hexadecimal 110000) code points. As of Unicode 5.0.0, 101,063 (9.1%) of these codepoints are assigned, with another 137,468 (12.3%) reserved for private use, leaving 875,441 (78.6%) unassigned. The number of assigned code points is made up as follows: The first 256 codes correspond with those of ISO 8859-1, the most popular 8-bit character encoding in the Western world. As a result, the first 128 characters are also identical to ASCII. The Unicode code space for characters is divided into 17 planes, each with 65,536 (= 216) code points, although currently only a few planes are used: 98,884 graphemes 140 formatting characters 65 control characters 2,048 surrogate characters Plane 0 Plane 1 Plane 2 Planes 3 to 13 Plane 14 Plane 15 Plane 16 (0000–FFFF): (10000–1FFFF): (20000–2FFFF): (30000–DFFFF) (E0000–EFFFF): (F0000–FFFFF) (100000–10FFFF) Basic Multilingual Plane (BMP) Supplementary Multilingual Plane (SMP) Supplementary Ideographic Plane (SIP) unassigned Supplementary Special-purpose Plane (SSP) Private Use Area (PUA) Private Use Area (PUA) The cap of 220 code points (excluding Plane 16) exists in order to maintain compatibility with the UTF16 encoding, which addresses only that range. Currently, about ten percent of the Unicode code space is used. Furthermore, ranges of characters have been tentatively blocked out for every known unencoded script, and while Unicode may need another plane for ideographic characters, there are ten planes available if previously unknown scripts with tens of thousands of characters are discovered. This 20 bit limit is unlikely to be reached in the near future. 62 3.1.3 Unicode: Beispiele 05F1 FA0E 2603 20AC xxD0 - xxDF 63 3.1.3 Unicode Bereiche Black = Latin scripts and symbols Light Blue = Linguistic scripts Blue = Other European scripts Orange = Middle Eastern and SW Asian scripts Light Orange = African scripts Green = South Asian scripts Purple = Southeast Asian scripts Red = East Asian scripts Light Red = Unified CJK Han Yellow = Aboriginal scripts Magenta = Symbols Dark Grey = Diacritics Light Grey = UTF-16 surrogates and private use Cyan = Miscellaneous characters White = Unused 64 3.2 Darstellung von Zahlen Die Darstellung von Zahlen spielt in der Informatik nach wie vor eine wichtige Rolle. Dabei gibt es unterschiedliche Mengen von Zahlen und auch unterschiedliche Operationen auf Zahlen. Dieses Unterkapitel beschreibt die Grundlagen der Zahlenkodierung, gibt für alle Mengen von Zahlen eine konkrete Kodierung an und führt in die Computerarithmetik ein. Inhalt 1. 2. 3. 4. 5. 6. 7. 8. Zahlensysteme Konvertierung Arithmetik Ganze positive Zahlen Ganze negative Zahlen Gebrochene Zahlen Gleitpunktzahlen Standards 65 3.2.1 Zahlensysteme Nicht systematische Zahlendarstellungen, z.B.: Strichliste: I, II, III, IIII, IIII, IIII I, ... römische Zahlen: MIM, IX, .... Systematische Zahlendarstellungen in einem Stellenwertsystem Jede Zahl N lässt sich als Sequenz von Zeichen a i darstellen Die Anzahl der notwendigen unterscheidbaren Zeichen ist B NSai* Bi Im Dezimalsystem ist B = 10 und die unterscheidbaren Zeichen sind: 0,1,2,3,4,5,6,7,8,9 Im Binärsystem ist B = 2 und die unterscheidbaren Zeichen sind: 0,1 66 3.2.1 Zahlensysteme - Beispiele Dezimalsystem: (Basis 10) 199910 = 1*103 + 9*102 + 9*101 + 9*100 Binärsystem: (Basis 2) 199910 = 1*210+1*29+1*28+1*27+1*26+1*23+1*22+1*21+1*20 111110011112 Hexadezimalsystem (Sedezimalsystem) (Basis 16) Zeichen: 0,1,2,3,4,5,6,7,8,9,A,B,C,D,E,F 199910 = 7*162 + 12*161 + 15*160 = 7CF16 = 0x07CF = H‘07CF 4 Zeichen einer Binärzahl lassen sich durch eine Hexadezimalziffer darstellen (4 Binärziffern nennt man auch NIBBLE) Oktalsystem (Basis 8) Zeichen: 0,1,2,3,4,5,6,7 199910 = 3*83 + 7*82 + 1*81 + 7*80 = 37178 3 Zeichen einer Binärzahl lassen sich durch eine Oktalziffer darstellen 67 3.2.2 Konvertierung: „Intuitivmethode“ Addition von geeigneten Zweierpotenzen (Dezimalzahl Dualzahl) positive Zweierpotenzen für Vorkommaanteil negative Zweierpotenzen für Nachkommaanteil Vorgehen (getrennt nach Vor- und Nachkommateil) Suche größte Zweierpotenz, die noch in die Zahl passt Subtrahiere die Zweipotenz von der Zahl daraus ergibt sich die neue Zahl für die Suche der Zweierpotenz Dieses Vorgehen terminiert ... ... beim Vorkommateil: wenn die Zahl = 0 ... beim Nachkommateil: wenn die Zahl erreicht ist, vielleicht nie Beispiel: 39 7 3 1 25 39 - 32 = 7 22 7-4 =3 21 3-2 =1 20 1-1 =0 0,8125 0,3125 0,0625 2-1 0,8125 - 0,5 = 0,3125 2-2 0,3125 - 0,25 = 0,0625 2-4 0,0625 - 0,0625 = 0 0,1101 100111 39,0812510=100111,011012 68 3.2.2 Konvertierung: Restwertmethode Erzeugen des Hornerschemas (Ausklammern der Basis b) c0 = anbn + an-1bn-1 + ... + a2b2 +a1b1 + a0b0 c0 = (( ... (anb + an-1) b + ... + a2) b +a1) b + a0 c1 c0 / b = c1 Rest a0 , mit c1= ( ... (anb + an-1) b + ... + a2) b +a1 , c1 / b = c2 Rest a1 , mit c2= ... (anb + an-1) b + ... + a2 , ... cn / b = 0 Rest an ( terminiert mit cn+1 = 0 ) Konversion der Nachkommastellen (folgt aus Hornerschema): 1. Multiplikation mit Basis (bis ganzzahliges Ergebnis oder gewünschte Genauigkeit) 2. Abspalten der Vorkommastelle des Ergebnisses, weiter mit 1. Beispiel 19 : 2 = 9:2= 4:2= 2:2= 1:2= 9 4 2 1 0 Rest 1 Rest 1 Rest 0 Rest 0 Rest 1 10011 0,6875 * 2 = 0,375 * 2 = 0,75 * 2 = 0,5 * 2 = 1,375 0,75 1,5 1 1 abspalten 0 abspalten 1 abspalten 1 abspalten 0,1011 69 3.2.2 Arithmetik Addition Subtraktion Multiplikation Division 0 0 1 1 + + + + 0 1 0 1 = = = = 0 1 1 0 Übertrag 1 1011 + 1110 0 0 1 1 - 0 1 0 1 = = = = 0 1 Übertrag 1 1 0 1101 - 1010 0 0 1 1 * * * * 0 1 0 1 = = = = 0 0 0 1 1101 * 11 1101 + 1101 100111 : 11 = 01101 100 -11 0011 -11 0011 -11 00 111 Überträge 11001 1 Überträge 0011 1 1 Überträge 100111 70 3.2.3 Ganze positive Zahlen Positive ganze Zahlen werden meist direkt in ihrer binären Darstellung kodiert. Die BCD (Binary Coded Digits) - Darstellung von Zahlen ist eine Mischform aus Dezimal- und Binärdarstellung: Jede Ziffer der Dezimalzahl wird binär dargestellt. Die Darstellung jeder Ziffer erfolgt mit 4 Bits. Die Reihenfolge der Ziffern bleibt erhalten. Beispiele: 7 0111 53 0101 0011 1234 0001 0010 0011 0100 1999 0001 1001 1001 1001 0 1 2 3 4 5 6 7 8 9 Pseudotetraden 0000 0001 0010 0011 0100 0101 0110 0111 1000 1001 1010 1011 1100 1101 1110 1111 71 3.2.4 Ganze negative Zahlen: Probleme Darstellung des Vorzeichens im ersten Bit, z.B. 0000 0001 0010 0011 0100 0101 0110 0111 = = = = = = = = 0 1 2 3 4 5 6 7 1000 1001 1010 1011 1100 1101 1110 1111 = = = = = = = = 0 -1 -2 -3 -4 -5 -6 -7 Nachteil durch Redundanz der Darstellung der 0 Nachteil durch Probleme beim formalen Addieren 1011 + 0001 1100 -3 +1 -4 72 3.2.4 Ganze negative Zahlen: Zweierkomplement Zweierkomplementdarstellung -2n ... +(2n-1) Negative Zahl durch bitweise Komplementierung und Addition von 1 (eventl. Überlauf weglassen) 0000 = 0 Beispiel: 3 0001 = 1 1001 = -7 0011 Binärdarstellung 0010 = 2 1010 = -6 1100 Komplement 0011 = 3 1011 = -5 1101 Komplement + 1 = -3 0100 = 4 1100 = -4 0101 = 5 1101 = -3 0110 = 6 1110 = -2 0111 = 7 1111 = -1 Vorteile Darstellung des Vorzeichens im ersten Bit Abdeckung von 16 Zahlen, also keine Redundanz Kein Nachteil durch Probleme beim formalen Addieren Subtraktion durch Addition des Zweierkomplements -3 1101 +1 +0001 -2 1110 -1 1111 -1 +1111 -2 11110 1110 1. 2. 3. 4. 5. Auf gleiche Länge bringen Bitweise Komplementbildung 1 Addieren Addieren (wie bei Binärzahlen) Überlauf ggf. weglassen 73 3.2.5 Gebrochene Zahlen: Binärdarstellung Darstellung mit Vor- und Nachkommateil Beispiele Gebrochene Binärzahl 0.1 0.01 111.111 0.0001 1001 1001 1001 .... Gebrochene Dezimalzahl 0,5 0,25 7,875 0,1 Mit 32 Bit lassen sich nur 232 verschiedene Zahlen darstellen. Problem: extrem große und extrem kleine Zahlen lassen sich mit wenigen Bits nicht darstellen Bei 8 Bit mit 4 Vorkomma und 4 Nachkommastellen (ohne Vorzeichen): 0000.0001 < n < 1111.1111 0,0675 < n < 15,9425 74 3.2.5 Gebrochene Zahlen: Exponentialdarstellung Anforderung sehr große und sehr kleine Zahlen sollen darstellbar sein Masse Elektron = 9 * 10-28 g Anzahl Moleküle pro Mol = 6,022 * 1023 die relativen Genauigkeiten sind wichtiger als die absoluten Ältere Quellen geben die Anzahl der Moleküle pro Mol mit 6,065 * 1023 an Eine Änderung in der Mantisse von 0,04 entspricht einer Toleranz von 6,065 / 6,022 1,0071 also ca. 0,7%. Fixkommadarstellung wäre große Verschwendung zur Darstellung dieser beiden Größen wären 194 Bit nötig 87 Bit Vorkommateil 107 Bit Nachkommateil Idee: Signifikante Stellen und Größenordnung werden getrennt Signifikant Masse Elektron: 9 Größenordnung Masse Elektron: 10-28 75 3.2.5 Gleitpunktzahlen: Real Darstellung Darstellung durch Real-Zahlen, bestehend aus drei Teilen: Vorzeichenbit V Gibt an, ob die Zahl positiv oder negativ ist Mantisse M Wird mit dem Exponenten multipliziert Die Normalform wird erreicht, indem das Komma soweit nach links oder rechts geschoben wird, bis die erste Stelle nach dem Dezimalpunkt die erste von Null verschieden Ziffer ist. Der Exponent wird entsprechend der Verschiebungen erhöht oder vermindert. Exponent E Potenz einer Basiszahl (2) mit der die Mantisse multipliziert wird wird oft in „BIAS“-Darstellung abgelegt, d.h. wird mit 126 addiert um negatives Vorzeichen zu vermeiden. Vorsicht: 126 (nicht 128). Asymmetrisch, da 21 bei der Normalisierung zweimal geschoben wird, 2-1 gar nicht Vorsicht: Bei manchen Maschinen wird so normalisiert, dass die erste Stelle vor dem Komma gleich 1 wird, dann ist der BIAS 127 76 3.2.5 Gleitpunktzahlen: Umwandlung Umwandlung Dezimalzahl in binäre Gleitpunktzahl (nach IEEE 754) Umwandlung der Dezimalzahl in Binärzahl mit Nachkommateil Verschieben des Kommas nach links oder rechts bis zur Normalform Damit ist erste Nachkommastelle = 1 und daher redundant, kann also in der Mantisse weggelassen werden. 2 * größere Genauigkeit der Mantisse Erhöhen oder Erniedrigen des Exponenten Umwandlung des Exponenten in binäre Form Addition des BIAS =12610 (um negative Exponenten zu vermeiden) auf den Exponenten Das Vorzeichen der Mantisse wird bestimmt: positiv 0, negativ 1 IEEE 754 sieht noch eine optionale Rundung der Mantisse vor Nicht jede gebrochene Dezimalzahl lässt sich endlich als gebrochene Binärzahl darstellen (und umgekehrt). Dadurch entstehen Rundungsfehler 77 3.2.5 Gleitpunktzahlen: Beispiele Beispiel: 148,62510 1. 2. Konvertieren: Normalisieren: 3. 4. 5. Bias addieren Vorzeichen Ergebnis: 10010100,101 10010100,101 = 0,10010100101*2+8 Exponent ist 8. M = 0010100101 (die führende 1 ist in Normalform redundant) E = 12610 + 810 = 13410 = 100001102 V = 0 VEEEEEEEEMMMMMMMMMMMMMMMMMMMMMMM 01000011000101001010000000000000 Beispiel: -2,7510 1. 2. Konvertieren: Normalisieren: 3. 4. 5. Bias addieren Vorzeichen Ergebnis: -10,11 -10,11 = -0,1011*2+2 Exponent ist 2. M = 011 (die führende 1 ist in Normalform redundant) E = 12610 + 210 = 12810 = 100000002 V = 1 VEEEEEEEEMMMMMMMMMMMMMMMMMMMMMMM 11000000001100000000000000000000 78 3.2.5 Gleitpunktzahlen: Arithmetik Addition/Subtraktion Die Exponenten werden angeglichen, indem die Mantisse des Operanten mit dem kleineren Absolutbetrag entsprechend verschoben wird. Anschließend werden die Mantissen addiert Beim Verschieben können Stellen verloren gehen. Multiplikation Die Mantissen der Operanten werden multipliziert Die Exponenten werden addiert Sind die Exponenten zu groß, kann es zu Exponenten-Overflow kommen Division Die Mantissen der Operanten werden dividiert Der Exponent ergibt sich aus der Differenz des Dividenden und Divisors Ist der Divisor zu klein und/oder der Dividend zu groß kann es zu einem ExponentenUnderflow kommen. Das Ergebnis wird dann zu 0, alle Ziffern sind verloren Nach allen Operationen wird die Normalform ggf. wiederhergestellt 79 3.2.6 Standards Short Integer Unsigned Int LongInt Real nach IEEE 754 -128 ... 127 -32768 ... 32767 0 ...65535 -2147483648 ... 2147483647 (8Bit) (16Bit) (16Bit) (32Bit) Float 1 VZ-Bit, 8 Bit E, 23 Bit M Double 1 VZ-Bit, 11 Bit E, 52 Bit M zwei Varianten 0,5 M < 1 bzw. 1 M < 2 Number (32Bit) (64Bit) sign exponent mantissa normalized number 0/1 01 to FE any value denormalized number 0/1 00 any value zero 0/1 00 0 infinity 0/1 FF 0 NaN 0/1 FF any value but 0 80 3.2.6 Standards: Beispiel (Delphi) In Borlands Delphi (Pascal) sind folgende Typen festgelegt: Typ Real48 Single Double Extended Comp Currency Bereich 2,9 x 10^-39 1,7 x 10^38 1,5 x 10^-45 3,4 x 10^38 5,0 x 10^-324 1,7 x 10^308 3,6 x 10^-4951 1,1 x 10^4932 -2^63+1 2*63-1 -922337203685477.5808 +922337203685477.5808 Signifikant 11-12 7-8 15-16 10-20 10-20 10-20 Größe (Byte) 6 4 8 10 8 8 Der generische Typ Real ist in der aktuellen Implementierung mit dem Typ Double identisch. http://de.wikipedia.org/wiki/Borland_Delphi#Elementare_Datentypen (7.5.2007) 81 3.3 Zusammenfassung des Kapitels Darstellung von Zeichen ASCII EBCDIC UNICODE Darstellung von Zahlen Zahlensysteme Konvertierung Arithmetik Ganze positive Zahlen Ganze negative Zahlen Gebrochene Zahlen Gleitpunktzahlen Standards 82 Kapitel 4 Strukturen … da schied Gott das Licht von der Finsternis 1. Mose 1.4 Information aus der realen Welt werden in einem informationsverarbeitenden System als Daten abgelegt. Diese stellen also eine (vereinfachte) Abstraktion der Wirklichkeit dar und spiegeln in vielen Fällen die Strukturen der Wirklichkeit wider. In diesem Kapitel wird ein Überblick über die wichtigsten abstrakten Datenstrukturen gegeben, wobei dieser Begriff zum Begriff des „Datentyps“ erweitert wird. Anmerkung: Dieses Kapitel abstrahiert die Objekte mit denen Sie in „Einführung in die Programmierung“ umgehen. Dort werden diese abstrakten Objekte konkret für Java vorgestellt. Inhalt 1. 2. 3. 4. Datenstrukturen - Datentypen Datentypen: Ein Überblick Konkrete Datentypen Abstrakte Datentypen 83 4.1 Datenstrukturen - Datentypen In der Literatur wird meist der Begriff „Datenstruktur“ verwendet. In diesem Unterkapitel soll der Unterschied zwischen diesem Begriff und dem Begriff des „Datentyps“ erläutert werden. Inhalt 1. Datenstrukturen 2. Datentypen 3. Variablen eines Datentyps 84 4.1.1 Datenstrukturen In der Informatik werden Objekte der realen oder abstrakten Welt erfasst Bei der Erfassung beschränkt man sich möglichst auf die für den weiteren Transport / Speicherung/Verarbeitung/Umsetzung notwendige Information Zur internen Repräsentation werden diese Objekte abstrahiert Zur Abstraktion gehört die Erkennung von Strukturen - zunächst im Sinne einer Aggregation. Also Aus welchen Teilobjekten bestehen Objekte ? In welchem Verhältnis stehen die Teilobjekte zueinander ? Welches sind die „atomaren“ Teilobjekte ? es existieren noch weitere strukturelle Beziehungen (z.B. Vererbung) Anschließend werden diese Objekte typisiert. Typisierung ist die Einteilung von abstrakten internen Objekten in Gruppen mit gleichen oder ähnlichen Eigenschaften. 85 4.1.2 Datentypen Typen sind also nicht die intern repräsentierten Objekte, sondern beschreiben die Eigenschaft einer Gruppe von Objekten. Zu diesen Eigenschaften gehören: Struktur Wertebereich anwendbare Operatoren, Funktionen, Relationen Beziehungen zu anderen Typen interne Repräsentationsweise … Beispiel: Imaginäre Zahlen Einige Anmerkungen:: Der Begriff „Datentyp“ ist weitergehend als der Begriff „Datenstruktur“ In der Objektorientierten Programmierung wird statt „Datentyp“ auch der Begriff „Klasse“ verwendet (Klassen beschreiben mehr Eigenschaften) Konkrete Repräsentanten eines Datentyps werden (u.a) „Variable“ oder - bei OO-Sprachen - „Instanz“ genannt 86 4.1.3 Variable eines Datentyps Einen speziellen (rechnerinternen) Repräsentanten eines Datentyps bezeichnet man als Variable. Die Festlegung, von welchem Datentyp eine Variable ist, bezeichnet man als Variablendeklaration. Die Zuordnung eines Typs „Typ“ an eine Variable X wird (zunächst) wie folgt notiert: var x : Typ; Eine Variable hat alle Eigenschaften eines Datentyps. Zusätzlich dazu hat eine Variable: einen konkreten Wert. Der Wert muss aus dem Wertebereich des Datentyps sein (oder undefiniert) Die Zuweisung eines Wertes „Wert“ an eine Variable X sei (zunächst) wie folgt notiert: x = Wert; einen konkreten Speicherplatz Dieser Speicherplatz ist so dimensioniert, dass die Struktur der Variable abgebildet werden kann Dieser Speicherplatz wird (meist) implizit durch die Deklaration zugeordnet Beispiel: var x : Datentyp; // x ist vom Typ: „Datentyp“ x = 531; // Zuweisung von 531 an X 87 4.2 Datentypen: Überblick Nachdem sich nun der Begriff des „Datentyps“ als Oberbegriff der „Datenstruktur“ erwiesen hat, konzentrieren wir uns im Rest des Kapitels auf wichtige Datentypen. In diesem Unterkapitel wird ein Klassifikationssystem für die in der Informatik verwendeten Datentypen aufgestellt und kurz erläutert Inhalt 1. Klassifikation der Datentypen 2. Erläuterung der Klassifikation 88 4.2.1 Klassifikation der Datentypen Datentypen Konkrete Einfache Abstrakte Pointer(Zeiger) Idealisierte Strukturierte ... Ordinale Boolean (Wahrheitswert) Integer (Ganzzahl) Real (Fließkomma) Char (Zeichen) Array (Feld) Record Union (Verbund) (Variantenverb.) ... Enumeration (Aufzählung) 89 4.2.2 Erläuterung der Klassifikation Idealisierte Datentypen aus der Mathematik bekannte Datentypen: R, N, Z, ... Variablen dieser Typen sind oft nicht endlich darstellbar (Bsp: 2) In einem Computer-Algebra-System symbolisch darstellbar (Bsp: 2^( 1/2)) Konkrete Datentypen in einem Rechner von Hard- oder Software bereitgestellte Datentypen entweder vordefiniert oder durch den Benutzer definierbar Abstrakte Datentypen verbergen ihren inneren Aufbau vor dem Benutzer bestehen aus beliebigen Strukturen über konkrete/idealisierte Datentypen, sowie aus Zugriffsfunktionen bzw. Prozeduren Beispiel: Baum 13 insert (Element) 6 2 61 12 15 delete (Element) 79 search (Element) 90 4.3 Konkrete Datentypen Die am häufigsten abstrahierten Objekte der realen Welt sind, zumindest was die für eine weitere Verarbeitung notwendigen Informationen betrifft, einfach strukturiert und lassen sich demnach mit konkreten Datentypen abbilden. Dieses Unterkapitel gibt einen Überblick über alle konkreten Datentypen und beschreibt diese. Inhalt 1. Einfache Datentypen 2. Strukturierte Datentypen 3. Verweise 91 4.3.1 Einfache: Boolean (Wahrheitswert) zur Darstellung von Wahrheitswerten Wertebereich: true, false intern in manchen Programmiersprachen als 1 bzw. 0 dargestellt Operatoren: und, oder, nicht, Vergleiche, ... Operatoren entsprechend der bool‘schen Algebra oft auch allgemeine arithmetische Operationen möglich Vorsicht vor Integer-Arithmetik mit Boolean-Variablen Notation: Beispiel: var booleanVar : boolean; var switch : boolean; switch = false; switch = not(switch); switch = switch and not(switch); switch = switch or not (switch); // // // // = = = = 0 „Bool-Literal“ not(0) = 1 1 and 0 = 0 0 or 1 = 1 Wir müssen uns gleich angewöhnen die „Dinge“ so zu bezeichnen, wie sie in der Informatik bezeichnet werden: Schlüsselwort var (Variablen)Bezeichner switch Schlüsselzeichen(-wort) : (Typ)Bezeichner boolean Schlüsselzeichen(-wort); Bezeichner switch Operator = (Boolean)Literal false Schlüsselzeichen(-wort); 92 4.3.1 Einfache: Integer (Ganzzahl) zur Darstellung ganzer Zahlen mit oder ohne Vorzeichen Wertebereich: Unterschiedlich unsigned integer: Ganze Zahlen ohne Vorzeichen ( 0... 65535 ) oft 16 bit bzw. 32 bit als ‚short int‘ bzw. ‚long int‘ bezeichnet Vorsicht: 16 bit Integer ist verdammt wenig ((± 32267) Speicherplatz ist nicht mehr teuer benutzen Sie ‚long int‘ (Ausnahmen bestätigen die Regel) Operatoren: Grundrechenarten, Vergleiche Operatoren entsprechend der „klassischen“ Algebra Notation: Beispiel: var integerVar : integer; var i = i = i = i = i : 1; i + i / i + integer; 32;´ 17; 65535; // // // // = 1 „Integer-Literal“ = 1 + 32 = 33 = 33 / 17 = 1 ! bei unsigned Int.: Fehler ! 93 4.3.1 Einfache: Char (Zeichen) zur Darstellung von Zeichen Vorsicht: Typischerweise wird die ASCII-Codierung zugrundegelegt, kann aber auch Unicode sein Wertebereich: Alle Zeichen Intern codiert als ASCII oder - neuerdings immer öfter - als Unicode ASCII: 8 Bit (7 benutzt), Unicode: 16 Bit Intern oft als Integer repräsentiert Operationen: Vergleich oft auch allgemeine arithmetische Operationen möglich Vorsicht vor Integer-Arithmetik mit char-Variablen Notation: Beispiel: var charVar : char; var symbol : char; symbol = „A“; symbol = symbol + 32;´ symbol = symbol - 128; // = „A“ „Char-Literal“ // = „A“ + 32 = „a“ // = „a“ - 128 = Fehler 94 4.3.1 Einfache: Enum (Aufzählung) zur Darstellung endlicher benutzerdefinierter Wertebereich Es ist guter Stil, Mengen mit (garantiert) kleiner Mächtigkeit (<10) als Enum-Type zu deklarieren, anstatt sie z.B. als Integer zu kodieren. Intern werden Enum-Werte oft als Integer abgelegt Operatoren: Vergleich oft auch allgemeine arithmetische Operationen möglich Vorsicht vor Integer-Arithmetik mit Enum-Variablen Notation: Beispiel: var enumVar : enum { Wertemenge }; var ampelfarbe : enum {gruen,gelb,rot} ; ampelfarbe = gruen; // = gruen „Enum-Literal“ // Vorsicht: C++ erlaubt das ampelfarbe = ampelfarbe +1 ; ´ // = gruen + 1 = gelb ampelfarbe = ampelfarbe +1 ; ´ // = gelb + 1 = rot ampelfarbe = ampelfarbe +1 ; ´ // = rot + 1 = Fehler ! 95 4.3.1 Einfache: Real (Fließkomma) zur näherungsweisen Darstellung reeller Zahlen Wertebereich: Unterschiedliche Genauigkeiten und Wertebereiche Wertebereich entspricht typischerweise der IEEE 754 Norm, also: Float: 32 bit Double: 64 bit Operationen: Grundrechenarten, erweiterte Arithmetik, Vergleich Notation: var realVar : real; Beispiel: //--- Variable declaration -------------------------var pi, flaeche, radius : real; // all real ! //--- Initialisation -------------------------------pi = 3,141; // needs not to be more accurate radius = 5; // might be changed by user //--- Computation of surface -----------------------flaeche = 2 * pi * (radius ^ 2); // common formula 96 4.3.2 Strukturierte: Array (Feld) Arrays sind eine Aggregationen von Daten des gleichen Typs (des „Basistyps“) Aggregation := Zusammenfassung, Anhäufung, Angliederung Die Grenzen des Arrays sind (meist) statisch bestimmt Operation: Auswahl Die Auswahl eines Datenelementes erfolgt über einen ganzzahligen Index über den (Auswahl-)Operator „ [ ] “ Vorsicht: Zugriff außerhalb des deklarierten Bereiches führt zu Fehlern Notation: Beispiele var arrayVar : array[min .. max] of Datentyp Eindimensionales array: Zweidimensionales array: var Vektor : array[1..4] of real; Operator var m : array[1..3] array[1..2] var v : array[1..4] v[3] = 5,03; v[4] = m[1][2] = v[3] * 12 var Matrix : array[1..3] of array[1..2] of real; of of real; of real; 4,12; - v[4]; 97 4.3.2 Strukturierte: Record (Verbund) Verbunde sind Aggregationen von Daten möglicherweise unter-schiedlichen Typs manchmal auch „structure“ oder „struct“ genannt Operation: Auswahl Die Auswahl erfolgt durch Angabe des Komponentennamens (durch einen Punkt vom Variablennamen getrennt) Notation: var recordVar : record { komponent1 : type1; ... }; Beispiel: var d : { tag monat }; d.monat d.tag record : Integer; : Integer; = 10; = 20; 98 4.3.2 Strukturierte: Variant Record (Variantenverb.) Verbunde, deren Struktur mögliche Alternativen zulassen manchmal auch „union“ genannt lassen „Varianten“ eines Record-Types zu Operation: Auswahl (wie bei records über Punkt-Operator) Notation: var recVar : record { komponent1 : type_1; ...; case variant (variant1,...) of { variant1 : type_n; ... } TAGGED TYPE } Unterelement „variant“ implizit definiert bei „tagged type“ Nur ein Unterelement aus variant1, ... (sinnvoll) verwendbar Beispiel: var adam,eva : record { name : array [1..20] of char; case sex (m,f) of { f: {IQ: integer}; m: {muscle: real}; // in cm } adam.sex adam.muscle eva.sex eva.IQ = = = = m; 20,5; f; 132; 99 4.3.2 Strukturierte: Variant Record var adam,eva : record name case f: m: } adam.sex adam.muscle eva.sex eva.IQ = = = = m; 20,5; f; 132; Umsetzung: name { : array [1..20] of char; sex (m,f) of { {IQ: integer;} {muscle: real;}} sex IQ / muscle Variant Records mit „Untagged Types“ (z.B. C, C++ : Union) struct { char[20] name; enum {m,f} sex; // ... union { int IQ; real muscle;} // in cm } adam, eva; (2. Variante) adam.sex adam.muscle eva.sex eva.IQ = = = = m; 20,5; f; 132; 100 4.3.2 Vereinfachung der Notation („type“) var Person : record { surname : array [1..20] of char; forename : array [1..20] of char; birthday : record { year : integer; month : enum {jan,...}; day : integer; }; }; var Akt_Datum : record { year : integer; month : enum {jan,feb,...}; day : integer; }; In (fast) allen Programmiersprachen ist es möglich, beliebig strukturierte Datentypen neu zu bezeichnen und diese Typ-Bezeichner wie vordefinierte Typen zu verwenden: Notation: Beispiel: type NeuTyp : Typ; type Datum : record { year : integer; month : enum {jan,feb,...}; day : integer; }; var Person: record {surname : array [1..20] of char; forename : array [1..20] of char; birthday : Datum }; var Akt_Datum: Datum; 101 4.3.3 Pointer (Zeiger, Verweis) Zeiger-Datentypen sind durch folgende Eigenschaften gekennzeichnet: Die Struktur ist identisch der eines Integer-Datentyp (also oft 16,32,... Bit) Der Wertebereich ist der des Adressbereiches eines Rechnersystems, der zusätzliche Wert „nil“ bezeichnet einen ungültigen Zeiger. Operatoren sind: Erzeugen eines Zeigers (Referenzierung &) Zugriff auf verwiesenen Bereich (Dereferenzierung *) Integer-Operatoren (Vorsicht !!!!) Notation: Beispiel: var pointerVar : *Type; var x : *Integer; // Deklaration var y,z : Integer; // Deklarationen y = 5; // Initialisierung der Variablen y x = &y; // Referenzieren: x ist Zeiger auf y x* = 2; // Derefenzierung: das worauf x zeigt wird zu 2 z = y; // Variable z bekommt den Wert von Variable y zugewiesen. // z hat jetzt den Wert 2 102 4.3.3 Pointer: Beispiel Vorsicht:: Werte oft undefiniert Bsp.: x : *Integer; // Deklaration y : Integer; // Deklaration 1 2 3 4 5 6 7 8 9 23 24 25 26 27 28 Wortadressen nil 0 ... y = 5; // Initialisierung der Variablen y 1 2 3 4 5 6 7 8 9 23 24 25 26 27 28 nil 5 ... x = &y; // Referenzieren: x ist Zeiger auf y 1 2 3 4 5 6 7 8 9 23 24 25 26 27 28 25 5 ... x* = 2; // Dereferenzierung: das worauf x zeigt 1 2 3 4 5 6 7 8 9 23 24 25 26 27 28 25 2 ... x = 2; // Zuweisung ohne Dereferenzierung ! 1 2 3 4 5 6 7 8 9 23 24 25 26 27 28 2 2 ... 103 4.3.3 Pointer: Dynamische Datentypen Mit konkreten, d.h. einfachen und strukturierten Datentypen lassen sich nur statische Struktur aufbauen d.h. Strukturen, deren Speicherbedarf beliebig aber fest sind Bem.: Die Beliebigkeit ist begrenzt durch die Gesamtspeicherkapazität Mit Zeiger-Datentypen lassen sich Strukturen aufbauen, die sich dynamisch auf- und abbauen lassen d.h. Strukturen, deren Speicherbedarf sich dynamisch verändern kann d.h. der Speicherplatz muss auch dynamisch organisiert werden. Bem.: Auch hier ist die Beliebigkeit begrenzt durch die Gesamtspeicher-kapazität Beispiel: type knoten : record { symbol : char; links : *knoten; rechts : *knoten; } var wurzel : knoten Huffman (Bsp. aus Kap.2) B C E D A 104 4.3.4 Beispiel: Kombinierte Datentypen Um nun beliebig komplexe Strukturen der „realen“ Welt in einem Rechensystem abbilden zu können, kann man die vorgestellten Datentypen beliebig miteinander Kombinieren Beispiel.: type Person : record { surname : array [1..20] of char; forename : array [1..20] of char; birthday : Date; next : *Person; previous : *Person; } type Date year : month : day : } : record { integer; enum {jan,feb,...}; integer; 105 4.4 Abstrakte Datentypen Grundsätzlich lassen sich alle Objekte der realen Welt ausschließlich mit Hilfe einfacher Datentypen abbilden. Diese Abbildung ist aber meist „unnatürlich“, weil sie die Struktur realer Objekte nicht ausreichend berücksichtigt. Abhilfe schaffen hier strukturierte Datentypen, die allerdings grundsätzlich nur endliche Objektmengen repräsentieren können. Hier schaffen Zeigertypen Abhilfe. Kann man nun mit diesen Mitteln Strukturen realer Objekt natürlich abbilden, so fehlen diesen abstrakten Datentypen einige der Eigenschaften, die konkreten Datentypen von Datenstrukturen unterscheiden, dies sind insb. Operationen und Beziehungen zu anderen Typen. Einen vertieften Einblick in die bunte Welt abstrakter Datentypen bietet die Vorlesung des 2. Semesters Datenstrukturen 106 4.5 Zusammenfassung des Kapitels Datentypen Konkrete Einfache Abstrakte Pointer(Zeiger) Idealisierte Strukturierte ... Ordinale Real (Fließkomma) Array Record Union (Feld) (Verbund) (Variantenverb.) ... Enumeration Boolean Integer Char (Wahrheitswert) (Ganzzahl) (Zeichen) (Aufzählung) Wir sind damit auch an die Grenzen dessen gelangt, was in dieser Vorlesung über die „Statik“ von Objekten gesagt werden soll und wenden uns einem noch spannenderem Themenbereich zu ;-) 107 Kapitel 5 Algorithmus … und Vögel sollen fliegen auf Erden 1. Mose 1.20 In den vorangegangenen Kapiteln wurde, aufbauend auf dem Begriff der Information, beschrieben, wie die statischen Objekte der Informatik aussehen und notiert werden können. In diesem Kapitel wird aufgezeigt, wie man die Verarbeitung dieser Objekte (also die Dynamik) beschreiben kann. Wesentlicher Begriff dabei ist der Begriff des Algorithmus Inhalt 1. 2. 3. 4. 5. 6. 7. Ein Beispiel Definition Die Strukturelemente Strukturierung Blockung Iteration und Rekursion Zusammenfassung Teile dieses Kapitels sind aus: R.Manthey: Vorlesung Informatik 1, Uni Bonn,108 2001 5.1 Ein Beispiel Zunächst soll ein kleines Beispiel in eine mögliche Aufgabenstellung aus dem (bekannten) Bereich der Mathematik einführen und dadurch auch eine (eingeschränkte) Vorstellung über die Aufgaben und Elemente eines Algorithmuses geben. Inhalt 1. 2. 3. 4. 5. 6. 7. Das Problem (Beispiel) Ein Algorithmus I Ein Algorithmus II Vergleich der Algorithmen Ein Algorithmus III Fragestellungen Ein weiterer Algorithmus 109 5.1.1 Das Problem Eine quadratischen Gleichung: x2 + 8x + 7 = 0 Allgemeine Darstellung der quadratischen Gleichung x2 + px + q = 0 Allgemeine Lösung der quadratischen Gleichung x1,2= -p/2 +- p2/4 - q Lösung der quadratischen Gleichung x1,2 = -8/2 += -4 + 82/4 - 7 - 3 x1 = -1 x2 = -7 110 x1,2= -p/2 +- p2/4 - q 5.1.3 Ein Algorithmus I Ein Algorithmus Zuweisungen Berechnungen Eingaben 1. Lies die Zahlen p und q ein 2. Berechne die Zahl w = p2/4 - q Konstante 3. Berechne die Zahl x1 = -p/2 + w 4. Berechne die Zahl x2 = -p/2 - w 5. Gib x1 und x2 als Ergebniss aus Ausgaben Variable 111 5.1.4 Ein Algorithmus II x1,2= -p/2 +- p2/4 - q Ein zweiter Algorithmus 1. Lies die Zahlen p und q ein 2. Berechne die Zahl p/2; Nenne diese Zahl a 3. Berechne die Zahl a2 ; Nenne diese Zahl b 4. Berechne die Zahl b-q ; Nenne diese Zahl c 5. Berechne die Zahl c ; Nenne diese Zahl d 6. Berechne die Zahl -a ; Nenne diese Zahl e 7. Berechne die Zahl e + d ; Nenne diese Zahl x1 8. Berechne die Zahl e - d ; Nenne diese Zahl x2 9. Gib x1 und x2 als Ergebniss aus FHSymbol1 Es gibt (oft unendlich) viele Algorithmen zur Lösung eines Problems 112 5.1.5 Vergleich der Algorithmen Berechne die Zahl w = p2/4 - q Berechne die Zahl p/2; Nenne diese Zahl a Berechne die Zahl x1 = -p/2 + w Berechne die Zahl a2 ; Nenne diese Zahl b Berechne die Zahl x2 = -p/2 - w Berechne die Zahl b-q ; Nenne diese Zahl c Berechne die Zahl c ; Nenne diese Zahl d Berechne die Zahl -a ; Nenne diese Zahl e Berechne die Zahl e + d ; Nenne diese Zahl x1 Berechne die Zahl e - d ; Nenne diese Zahl x2 Anzahl Berechnungen Anzahl Zuweisungen Anzahl Variablen A1 10 3 5 A2 7 7 9 FHSymbol1 Welcher Algorithmus ist besser ? Warum ? 113 5.1.6 Ein Algorithmus III Problem: Negatives Wurzelargument 1. Lies die Zahlen p und q ein 2. Berechne die Zahl a = p/2 3. Berechne die Zahl b = a2 4. Berechne die Zahl c = b-q 5.a Wenn c negativ ist brich den Algorithmus ab Ansonsten mache mit nächstem Schritt weiter 6. Berechne die Zahl d = c 7. Berechne die Zahl e = -a 8. Berechne die Zahl x1 = e + d 1 9. Berechne die Zahl x2 = e - d 5.b Wenn c negativ ist gehe zu Schritt 1 Bedingte Ausführung Schleife 10. Gib x1 und x2 als Ergebniss aus 114 5.1.7 Fragestellungen 1. Lies die Zahlen p und q ein 2. Berechne die Zahl a = p/2 3. Berechne die Zahl b = a2 4. Berechne die Zahl c = b-q 6. Berechne die Zahl d = c 7. Berechne die Zahl e = -a 8. Berechne die Zahl x1 = e + d 1 9. Berechne die Zahl x2 = e - d 10. Gib x1 und x2 als Ergebniss aus Wer gibt p und q ein ? Wie wird p und q eingegeben ? Werden p und q in endlicher Zeit eingegeben ? Sind p und q im richtigen Format ? Ist Variable a im richtigen Format ? Gibt es die Quadrat-Funktion ? Ist c positiv ? Ist Variable e im richtigen Format ? Sind die restlichen Variablen im richtigen Format Reicht die Genauigkeit der Darstellung ? Wo wird das Ergebnis ausgegeben ? Ist ausreichend Variablenkapazität für den Algorithmus vorhanden ? Läuft der Algorithmus schnell genug ? ... 115 5.1.8 Ein weiterer Algorithmus 116 5.2 Definition Der Begriff des Algorithmus ist zentral in der Informatik und soll in diesem Unterkapitel formal definiert werden Inhalt 1. 2. 3. 4. 5. Herkunft Der Algorithmus Weitere Prinzipien Algorithmen und Programme Ausflug: Algorithmus und WinOSe 117 5.2.1 Herkunft Muhammad ibn Musa abu Djafar al-Choresmi (ca. 780-850 n.Chr) arabischer Mathematiker, geboren in Choresmien (heute: Usbekistan) lebte und wirkte in Bagdad im „Haus der Weisheit“ (Noah Gordon: „Der Medicus“) war beteiligt an der Übersetzung der Werke griechischer Mathematiker ins Arabische schrieb ein „Kurzgefasstes Lehrbuch für die Berechnung durch Vergleich und Reduktion“ die lateinische Übersetzung dieses Buches („liber algorismi“) kam durch Kreuzfahrer nach Europa verfasste auch ein Buch mit dem Titel „Al-Mukhtasar fi Hisab al-Jahr va l-Muqabala“ Algorithmus Algebra 118 5.2.2 Der Algorithmus: Definition Ein Algorithmus (algorithm) ist die Beschreibung eines Verfahrens, um aus gewissen Eingabegrößen bestimmte Ausgabegrößen zu berechnen. Dabei müssen folgende Bedingungen erfüllt sein Spezifikation Es muss spezifiziert sein, welche Eingabegrößen erforderlich sind und welchen Anforderungen diese Größen genügen müssen, damit das Verfahren funktioniert (Eingabespezifikation) und welche Ausgabegrößen bzw. Resultate) mit welchen Eigenschaften berechnet werden (Ausgabespezifikation) Durchführbarkeit Endliche Beschreibung: das Verfahren muss in einem endlichen Text vollständig beschrieben sein Effektivität: Jeder Schritt des Verfahrens muss effektiv (d.h. tatsächlich) „mechanisch“ ausführbar sein. (Bem.: „Effektivität“ ist nicht zu verwechseln mit „Effizienz = Wirtschaftlichkeit“) Determiniertheit: Der Verfahrensablauf ist zu jedem Zeitpunkt fest vorgeschrieben Korrektheit partielle Korrektheit: Jedes berechnete Ergebnis genügt der Ausgabespezifikation, sofern die Eingaben der Eingabespezifikation genügt haben Terminierung: Der Algorithmus hält nach endlich vielen Schritten mit einem Ergebnis an, sofern die Eingaben der Eingabespezifikation genügt haben Algorithmen, die eine oder mehrere dieser Eigenschaften nicht besitzen werden dann als Nicht-<Eigenschaft> Algorithmen bezeichnet (Bsp: Nicht-Deterministische Algorithmen)119 5.2.3 Weitere Prinzipien Neben den in der Definition angegebenen Eigenschaften gibt es weitere wichtige Prinzipien, die bei der Erstellung eines Algorithmussees zu beachten sind: Effizienz Der Algorithmus soll möglichst wenig Aufwand verursachen – Das Ergebnis mit möglichst wenig Rechenschritten (oder mit möglichst wenig Speicherbedarf) erzielen Wartbarkeit Ein Algorithmus sollte so verständlich sein, dass ihn Personen, die ihn nicht entwickelt haben zumindest so weit verstehen, umm ggf. Fehler zu beheben Erweiterbarkeit Unter Erweiterbarkeit versteht man die Anwendbarkeit eines Algorithmus auch für Anwendungen, die zunächst nicht vorgesehen sind. Man sollte daher bei der Eingabespezifikation von Spezialfällen abstrahieren. Robustheit Unter Robustheit versteht man „gutartiges“ Verhalten auch für Eingabewerte außerhalb der Eingabespezifikation, Man sollte daher die Eingabemenge der Eingabespezifikation gleich möglichst so definieren, dass auch „exotischere“ Eingabewerte betrachtet werden.. 120 5.2.4 Algorithmen und Programme: Der Weg Algorithmierung Programmierung Problem Algorithmus Programm Spezifizieren Verifizieren Testen gegeben: das Problem durch Spezifizieren wird das Problem formal beschrieben Durch Algorithmierung (Algorithmenentwurf) wird ein Algorithmus erzeugt durch Verifizieren kann der Algorithmus auf Übereinstimmung mit der Spezifikation überprüft werden Durch Programmieren wird aus den Algorithmus ein Programm erzeugt durch Testen kann das Programm auf Übereinstimmung mit der Spezifikation und dem Algorithmus überprüft werden. 121 5.2.4 Algorithmen und Programme: Beziehungen Algorithmierung Problem Programmierung Algorithmus Programm Programmieren setzt Algorithmenentwicklung voraus Kein Programm ohne Algorithmus ! Jedes Programm repräsentiert einen bestimmten Algorithmus. Ein Algorithmus kann durch viele Programme repräsentiert werden. Problem Algorithmus1 Algorithmus2 Programm21 Programm22 ... ... 122 5.2.5 Ausflug: Algorithmus und WinOSe Klassische Programmierung Windows Programmierung OS Eventqueue Algorithmus OS 123 5.3 Strukturelemente Um die Dynamik - also die Abfolge von Aktionen - eines Algorithmu-ssees zu beschreiben, benötigt man formale Beschreibungsmittel, sowie eine Festlegung, wie diese Beschreibungsmittel zu notieren und zu interpretieren sind. Dieses Unterkapitel stellt die formalen Beschreibungsmittel für Algorithmen vor. Diese Beschreibungsmittel sind dabei gleichzeitig Strukturierungselemente für Algorithmen, denn sie definieren die Struktur von Algorithmen. Inhalt: 1. 2. 3. 4. Die Elemente Folge Auswahl Wiederholung 124 5.3.1 Die Elemente: Aus dem Beispiel EINGABE Zuweisungen Berechnungen Mathematische Grundoperationen komplexe Funktionen ... Bedingte Ausführungen Schleife ... Variable Texte Zahlen ... Konstanten (Literale) Texte Zahlen ... AUSGABE 125 5.3.1 Die Elemente: Notation Für die Beschreibung von Algorithmen gibt es viele Möglichkeiten Alltagssprache Konkrete Programmiersprache Dazwischen gibt es eine Vielzahl von Notationen, die den Übergang zwischen Problembeschreibung und Programm erleichtern sollen Eine mögliche - eindimensionale - Notation ist Pseudocode: // Dies ist eine Zuweisung x = 42; Kommentare werden (hier) mit vorangestellten Slashes „//“ gekennzeichnet Aktionen werden (hier) mit Semikolon „;“ getrennt Visualisierung durch graphische - zweidimensionale -Notation Flussdiagramme Struktogramme (=Nassi-Shneiderman-Diagramme) Aktion Aktion 126 5.3.1 Die Elemente: atomare Elemente Anweisungen sind die atomaren Elemente eines Algorithmus‘, die Elemente also, aus denen ein Algorithmus aufgebaut ist. Es gibt (zunächst) drei Arten dieser „atomaren“ Elemente Zuweisung: Pseudocode x = y; Auf der linken Seite der Zuweisung steht eine Variable auf der rechten Seite der Zuweisung steht entweder eine Variable, ein Literal oder eine Berechnung aus Variablen und Literalen Eingabe Pseudocode: x << <Eingabegerät> ; Als Eingabegerät kann ein geeignetes physikalisches Gerät (Tastatur, Schnittstelle, ...) angegeben werden. Ausgabe Pseudocode: x >> <Ausgabegerät> ; Als Ausgabegerät kann ein geeignetes physikalisches Gerät (Bildschirm, Drucker, Schnittstelle, ...) angegeben werden Ein- und Ausgabe können auch als Zuweisung verstanden werden. 127 5.3.1 Die Elemente: Kontrollelemente Die atomaren Elemente eines Algorithmuses können durch drei einfache Strukturierungsmethoden, den „Kontrollelementen“, zueinander in Beziehung gesetzt werden: 1. Folge (Sequenz) (auch wenn in Mehrprozessor-Maschinen eine parallele Ausführung von atomaren Elementen möglich ist, wollen wir die Parallelisierung hier nicht betrachten) 2. Auswahl (Selektion, Fallunterscheidung) 3. Wiederholung (Iteration, Schleife) Die Kontrollelemente bestimmen die Reihenfolge von Aktionen in Algorithmen Eine Aktion (Ai) - auch Verarbeitung genannt - ist ein atomares Element oder eine durch die Strukturmethoden zusammengefasste Menge mehrerer Aktionen 128 5.3.2 Folge Folgen bestimmen die lineare Reihenfolge von Aktionen in Algorithmen: Flussdiagramm Struktogramm Pseudocode: A1 A2 .. . A1 A2 { .. . An } A1; A2; ... An; An 129 5.3.3 Auswahl : bedingte Verarbeitung Eine Aktion wird, in Abhängigkeit einer bool‘schen Bedingung ausgeführt oder nicht auch „einarmiges if“ genannt. Flussdiagramm Struktogramm Pseudocode: f B w w B f if B then A1; A1 A1 Beispiel: if (x<0) then x = -x; 130 5.3.3 Auswahl : einfache Alternative In Abhängigkeit einer bool‘schen Bedingung wird entweder eine Aktion oder eine andere Aktion ausgeführt auch „zweiarmiges if“ genannt. Flussdiagramm w B Struktogramm f w A1 A1 Beispiel: Pseudocode B f A2 if B then A1 else A2; A2 if (x<0) then x=-x else x=0; 131 5.3.3 Auswahl : mehrfache Alternative In Abhängigkeit einer Bedingung (mit mehreren möglichen Werten w1, w2, ..., wn) wird eine Aktion aus einer Menge möglicher Aktionen ausgewählt und ausgeführt Flussdiagramm Struktogramm Pseudocode B w1 w2 A1 A2 Beispiel: w1 wn B A1 A2 wn An An switch { case case ... case } B: w1: A1; w2: A2; wn: An; switch x: { case 0: x = x/2; case 1: x = x+1; } Oft auch mit „else“-Alternative (statt wn) 132 5.3.4 Schleife: mit vorausgehender Prüfung Solange eine bool‘sche Bedingung erfüllt ist, wird eine Aktion ausgeführt. Die Bedingung wird vor der ersten Ausführung der Aktion geprüft heißt auch: abweisende Schleife (While-Schleife) Flussdiagramm Struktogramm f B B A1 w A1 Beispiel: Pseudocode while B { A1 } while x < 100 { x = x + 1; } 133 5.3.4 Schleife: mit nachfolgender Prüfung Solange eine bool‘sche Bedingung nicht erfüllt ist, wird eine Aktion ausgeführt. Die Bedingung wird (erst) nach der ersten Ausführung der Aktion geprüft heißt auch: Repeat-Schleife Manchmal auch als Variante „Do-While-Schleife“ - z.B. in C++ - aber: Die „ Do-While-Schleife“ wird solange ausgeführt solange eine bool‘sche Bedingung erfüllt ist. Flussdiagramm A1 B Struktogramm B w A1 Pseudocode repeat { A1 } until B f Beispiel: repeat { x = x + 1; } until x == 100 134 5.3.4 Schleife: Beispiel (abweisende Schleife) Untersuche ob eine gegebene natürliche Zahl Primzahl ist. p > 2 ist Primzahl, falls sie durch kein t mit 1<t<p teilbar ist (p mod t 0) Idee: wenn p Primzahl, dann ist p ungerade es genügt, nur ungerade t zu untersuchen es genügt, nur solche t zu untersuchen die kleiner p sind, Algorithmus: p << Tastatur; if ((p>2) and (p mod 2 != 0)) then { t = 3; // initialize t while ((t*t<p) and (p mod t != 0)) { t = t + 2; } // nach Schleife ist t*t >=p oder p mod t == 0 if (t*t>p) then „p ist Primzahl“ >> Bildschirm; else „p ist keine Primzahl“ >> Bildschirm; } else { „p <= 2 oder p gerade“ >> Bildschirm; } // Primzahl ? 135 5.3.4 Schleife: Beispiel (Vergleich while repeat) Sind diese Schleifen im Ergebnis identisch ? while x < 100 { x = x + 1; } und jetzt ? Letzer Versuch: repeat { x = x + 1; } until x < 100 repeat { x = x + 1; } until x >= 100 if (x < 100) then { repeat { x = x + 1; } until x >= 100 } Welche Lösung ist eleganter ? aber: oft wird eine erstmalige Aktion benötigt, um ein Datum überhaupt überprüfen zu können. 136 5.3.4 Schleife: Beispiel (Vergleich repeat while) Ausdrucken einer Datei repeat { x << Datei; if (x != eof) x >> Drucker; } until x == eof //endoffile ... das Ganze als while-Schleife ? while (x != eof ) { x << Datei; x >> Drucker; } Noch‘n Versuch: x << Datei; while (x != eof ) { x >> Drucker; x << Datei; } 137 5.3.4 Schleife: Beispiel (Schleife mit Zählern) Sehr häufig werden Schleifen verwendet, deren Bedingung abhängig von Zählerwerten sind. Die Zählerwerte werden vor Eintritt in die Schleife initialisiert Die Bedingung prüft den Zählerwert Im Schleifenkörper wird der Zähler erhöht (increase) oder erniedrigt (decrease) Vorsicht mit: dem Zählertyp, dem Additionswert, der Bedingung Algorithmus: // --- Initialisierung -----------------------------s = 0; i = 1; // Initialisierung des Schleifenzählers // --- Schleife (Berechnet Summe 1..n) ------------while ( i <= n ) { s = s + i; i = i + 1; // Erhöhung des Schleifenzählers (oft um 1) } 138 5.2.4 Schleife: Die „For“-Schleife Da Schleifen mit Zähler sehr häufig auftreten, stellen viele Programmiersprachen ein eigenes sprachliches Mittel dafür zur Verfügung: Die „For“ Schleife Pseudocode: Beispiel: for var=start_value to end_value for i=1 to 10 { { A; x = x + i; } } Der Zähler (var) wird pro Schleifendurchlauf implizit um 1 erhöht (Bei manchen Sprachen - z.B. Basic, C, C++ - kann man dies ändern) Dieser Code ist äquivalent mit folgender Schleife: i = start_value while i <= end_value { A; i = i+1; } 139 5.3.4 Schleife: Beispiel (Endlosschleife) Manchmal macht es Sinn, Schleifen endlos laufen zu lassen: z.B. bei der zyklischen Abprüfung von Systemzuständen (Windows Event-Queue) manchmal macht das keinen Sinn - passiert aber trotzdem ;-) Flussdiagramm Struktogramm B A1 A1 Beispiel: Pseudocode while true { A1 } while true { „Druckerpapier ist teuer“ >> Drucker; } 140 5.4 Strukturierung Mit Hilfe atomarer Elemente und der Kontrollelemente lassen sich Algorithmen strukturieren. In diesem Kapitel sind einige Begriffe zur Strukturierung erläutert. Insbesondere wird ein weiteres - viertes - Kontrollelement vorgestellt (und auch gleich wieder verworfen) Inhalt 1. 2. 3. 4. Control Flow Strukturierung durch Sprung Strukturiert-iterative Beschreibungsform Strukturierungstypen 141 5.4.1 Control Flow Mithilfe der Kontrollelemente können die „atomaren“ Elemente (Anweisungen) strukturiert werden Die Anordnung der Anweisungen (als atomare Elemente) eines Algorithmus, die bestimmt, in welcher Reihenfolge Dinge geschehen, heißt control flow (Steuerungsverlauf, Kontrollfluss) des Algorithmus genannt Manchmal wird auch der Programmablauf oder Kontrollfaden (thread of control, thread), also die tatsächlich abgespulten Schritte und Anweisungen so bezeichnet 142 5.4.2 Strukturierung durch Sprung Bei der Vorstellung der Kontrollelemente wurde (aus hinterhältig, didaktischen) Gründen auf ein viertes Element verzichtet: Der Sprung („Goto“-Anweisung) Die Konstruktion „fahre fort mit Schritt x“ (goto x) stellt einen solchen Sprung (jump) im Steuerungsverlauf dar Zur Anwendung von goto werden Schritte mit einer Marke (Label) versehen, um das Ziel des Sprunges zu kennzeichnen Dies ist die elementarste Form, eine Wiederholung oder sonstige Verzweigung im Ablauf auszudrücken Dadurch erhalten wir die elementar-iterative Beschreibungsform von Algorithmen, die die Strukturierung mit ein-/mehrfacher Auswahl und Schleifen funktional abdeckt. Beispiel: while x<100 { x = x+1 } 1: if x>=100 goto 2 x = x+1; goto 1; 2: ... 143 5.4.2 Strukturierung durch Sprung Anwendung von Sprüngen ist sehr gefährlich! Sprünge strukturieren komplexe Programm nicht ausreichend - der Steuerungsverlauf kann verworren und unübersichtlich sein Um den Steuerungsverlauf auch bei komplexen Algorithmen übersichtlich zu halten, schränkt man die Sprünge ein: Schleifen der Flussdiagramme sind höchstens ineinander geschachtelt Schleifen überkreuzen sich nicht! Bei gut strukturierten Algorithmen würde man z. B. nur wieder eine geschlossene Schleife oder einen (vorzeitigen) Sprung bedingt durch die Behandlung des Trivialfalls erlauben Wir sprechen in diesem Fall von strukturierten Sprüngen im Gegensatz zu freien Sprüngen, die prinzipiell beliebige Ziele haben können 144 5.4.3 Strukturiert-iterative Beschreibungsform Sprünge können alle „höhere“ Strukturierungsarten funktional abbilden. Hier gilt auch der Umkehrschluss In der strukturiert-iterativen Beschreibungsform kommen Sprünge nur noch implizit bei der Ausführung höherer Iterationsstrukturen vor Dieses sind Fallunterscheidungen (Auswahl) wie if-then-else oder insbesondere Schleifenkonstrukte Diese bewirken, dass der Programmfluss In einer Auswahl zu genau einer Auswahl geht. in einer Schleife von einer Prüfung zu den Aktionen des Schleifenkörpers und wieder zurück zur Prüfung geht. Viele höhere Programmiersprachen (Pascal, C, C++) erlauben jedoch die Verwendung von Sprüngen Aus Optimierungsgründen (Nähe zur Maschinensprache) Aus Strukturierungsgründen) 145 5.4.4 Strukturierungstypen Beispiel: Schemen einiger Kontrollflüsse Strukturiert-iterativ Elementar-iterativ Spaghetti-Code 146 5.5 Blockung Mit Hilfe der bislang vorgestellten Kontrollelemente lassen sich die atomaren Elemente (Anweisungen) eines Algorithmus‘ zu einem Kontrolfluss strukturieren. Wie wir gesehen haben, kann dieser Kontrollfluss mehr oder weniger „wohlstrukturiert“ sein. In diesem Unterkapitel wird eine Element beschrieben, mit dem Aktionen statisch nochmals zusammengefasst werden können. Diese Zusammenfassung hat auch Einfluss auf das dynamische Verhalten von Verarbeitungsobjekten (Variable). Inhalt: 1. 2. 3. 4. 5. 6. 7. 8. 9. Die Idee Notation Formale Parameter Aufruf Beispiel: Ein einfacher Block Eigenschaften Beispiel: Seiteneffekte Vorzeitiges Verlassen Goldene Regeln 147 5.5.1 Die Idee Idee: Eine Zusammenfassung von Aktionen bekommt einen Namen und kann durch das Nennen des Namens (Aufruf) aktiviert werden. In einen Block sollen Daten formal hinein und herausgelangen Ein Block soll eigenen Daten besitzen Vorteile: Gliederung des Algorithmus‘ durch hierarchische Dekomposition („Divide et impera: Teile und herrsche“) Wiederverwendbarkeit durch mehrfachen Aufruf statt durch mehrfaches notieren. universeller ( Anzahl muss nicht bekannt sein) fehlerunanfälliger Kapselung unwichtiger Details („information Hiding“) Vorteile bei der Organisation von Programmiertätigkeit durch Verteilbarkeit der Aufgaben. 148 5.5.2 Notation Ein Block ist die Zusammenfassung von Aktionen und wird wie folgt beschrieben: Flussdiagramm Pseudocode: blockname (IN: x1:Type1, … ; OUT: y1:Type2, … ; THROUGH: z1:Type3, … ) { var w1:Type41; w2:Type42; … ; A; } blockname ist der Name des Blockes xi,yi,zi heißen formale Parameter und sind typisiert wi heißen lokale Variable blockname Struktogramm blockname A ist eine Menge von Aktionen. Blöcke werden in vielen Sprachen als Funktion (nur ein OUT-Parameter) bzw. Prozeduren umgesetzt oft steht der Block-Bezeichner selbst für einen OUT-Parameter (und wird daher auch oft mit einem Typ versehen. (Bsp ?) 149 5.5.3 Formale Parameter IN-Parameter (Eingabeparameter) sind Parameter, die an den Block übergeben werden Dazu werden beim Aufruf des Blockes an die Stelle der Eingabeparameter Variable, Literale oder Ausdrücke (Berechnungen) notiert. Diese werden beim Aufruf zu Werten transformiert, die an den entsprechenden Variablen zugewiesen werden. (call by value) OUT-Parameter (Ausgabeparameter) sind Parameter, die aus dem Block durch Zuweisung an Variable zurückgegeben werden. Dazu werden beim Aufruf des Blockes an die Stelle der Ausgabeparameter Variablen notiert, die nach dem Aufruf die zurückgegeben Werte beinhalten (call-by reference) THROUGH-Parameter (Ein-/Ausgabeparameter) sind Parameter die Werte in den Block hinein und hinaus übermitteln. Eingabe wie bei IN-Parametern (aber: nur Angabe einer Variable) Rückgabe wie bei OUT-Parametern 150 5.5.4 Aufruf Ein Block wird über seinen Namen aufgerufen Die Parameter werden als Argument übergeben: IN-Parameter werden als Wert übergeben, können also Variablenbezeichner, Literale oder komplexe Ausdrücke aus Variablenbezeichner und Literalen sein OUT- und THROUGH-Parameter werden „by reference“, meist durch einen Variablenbezeichner übergeben Meist wird die Zuordnung der übergeben Variablen zu den formalen Parametern über die Reihenfolge implizit vorgegeben. In manchen Programmiersprachen … … kann das auch explizit, z.B. über eine Zuweisung erfolgen … kann die Anzahl der übergebenen Variablen kleiner der Anzahl der formalen Parametern sein – dann werden die fehlenden Parameter von rechts nach links nicht übergeben … können formale IN-Parameter mit einem Standardwert initialisiert werden. Die Zuordnung der übergebenen Parameter zu den formalen Parametern nennt man Bindung. 151 5.5.4 Beispiel: Ein einfacher Block Ein Block zur Berechnung von Summen (mit Aufrufzähler) summe (IN: value1 : Integer; value2 : Integer; OUT: result : Integer; THROUGH: counter : Integer; ) { var i : integer; // lokale Variable result = 0; // Initialisierung for i=1 to value2 // ein wenig umständlich value1 = value1 + 1; result = value1; counter = counter + 1; } Aufruf anzahl = 0; // schon erste Summe hat zwei Summanden initial = 5; summe(initial, 9, ergebnis, anzahl); summe(ergebnis, 9, ergebnis, anzahl); ergebnis/anzahl >> Bildschirm; // Mittelwert 152 5.5.5 Eigenschaften Jeder Block kann über einen Satz lokaler Variable verfügen, die außerhalb des Blockes nicht sichtbar sind Die Variablenbezeichner können also außerhalb ohne Einfluss auf den Block verwendet werden Auch die in der Blockdefinition als formale Parameter verwendeten Variablenbezeichner sind nur im Block sichtbar: Auch sie können außerhalb ohne Einfluss verwendet werden, Aber Vorsicht: die Veränderung von OUT und THROUGH-Parametern bewirkt (oft) eine Veränderung der beim Aufruf verwendeten zugehörigen Parameter (der zugehörigen „gebundenen“ Parameter). Variable, die in einem Block verwendet aber nicht deklariert werden, werden als „global“ angenommen Viele Sprachen erlauben die Definition von Blöcken innerhalb von Blöcken Variablen, die in einem Block nicht deklariert sind, werden im umgebenden Block vermutet. 153 5.5.6 Beispiel: Seiteneffekt Das (ungewollte) implizite Verändern von „äußeren“ Parametern durch Veränderung „innerer“ Parameter nennt man „Seiteneffekt“ summe (THROUGH: value1 : Integer; value2 : Integer; result : Integer; ) { value1 = value1 + value2; result = value1; } Aufruf x = 5; y = 7; summe (x,y,z); „Die Summe von „ >> Bildschirm; x >> Bildschirm; „und“ >> Bildschirm; y >> Bildschirm; „ ist „ >> Bildschirm; z >> Bildschirm; Die Summe von 12 und 7 Ist 12 154 5.5.7 Vorzeitiges Verlassen Manchmal ist es sinnvoll, die Abarbeitung eines Blockes vorzeitig zu beenden Dies wird oft im Fehlerfall gemacht, wenn eine Weiterbearbeitung nicht mehr sinnvoll erscheint - z.B. nach einer negativen Überprüfung der Eingabeparameter Flussdiagramm Block Beispiel: Struktogramm Block Pseudocode Return; wurzel(IN: argument:real; OUT: result:real) { if (argument<0) return; // return already here else result = sqrt(argument); } 155 5.5.8 Goldene Regeln Namen so lokal wie möglich deklarieren Möglichst keine globalen Variablen verwenden Wenn doch: Ganz wenige - nur eine (z.B. strukturiert) Auffällig kennzeichnen: z.B. global_error_handle Nach Möglichkeit „call by value“ verwenden Wird nicht von allen Programmiersprachen unterstützt Probleme bei der Rückgabe umfangreicher Daten (wg. Umkopieren) Blöcke sind so zu wählen dass: Der innere Zusammenhang stark ist Der äußere Zusammenhang schwach ist (minimale Schnittstellen, keine Datenteilung , z.B. durch globale Variable) 156 5.6 Iteration und Rekursion Im Bereich der Datenstrukturen haben wir es oft mit rekursiven Strukturen z.B. Bäumen zu tun. Auch in der Mathematik sind rekursive Definition weit verbreitet.und finden über zugehörige Algorithmen Einzug in die Informatik. Das Konzept der Rekursion wird in der Informatik allerdings teilweise mit Skepsis umgesetzt, führt es doch, in ungeeigneten Fällen, zu inakzeptablen Laufzeiten. Hinzu kommt, dass einige Programmier-spachen (z.B. FORTRAN) Rekursion nicht unterstützen. In diesem Unterkapitel soll auf die Möglichkeiten der Verwendung von Rekursion bzw. Iteration eingegangen werden Inhalt 1. 2. 3. 4. 5. Definition Beispiele Aufrufverwaltung Wo nicht Wo nicht und wo 157 5.6.1 Definition: Rekursion Ein Objekt heißt rekursiv, wenn es sich selbst als Teil enthält oder mit Hilfe von sich selbst definiert ist. Wesentlich ist die Möglichkeit, unendliche Mengen von Objekten durch eine endliche Aussage zu definieren. Bsp.: Definition natürlicher Zahlen: 0 sei eine natürliche Zahl Der Nachfolger (n+1) einer natürlichen Zahl ist wieder eine natürliche Zahl Ein Algorithmus heißt rekursiv, wenn er sich selbst als einen seiner Aktionen (Verarbeitungsschritten) enthält. In der Regel enthält er sich mit „verkleinerter“ Aufgabenstellung. Damit er terminiert, muss er einen Zweig beinhalten, der einen (den) elementaren Wert nicht rekursiv bestimmt. (den Basisfall) Objekte (Algorithmen), die andere Objekte (Algorithmen) enthalten, die wiederum die ursprünglichen Objekte (Algorithmen) enthalten, heißen indirekt rekursiv 158 5.6.2 Beispiel: Fakultät Mathematisch rekursive Definition: n! = 1 n x (n - 1) ! n=0 n>0 Algorithmisch rekursive Definition: fakultaet (IN: n:integer, OUT: result:integer) { if (n == 0) then result = 1; else { fakultaet (n-1, result); result = n x result; } } 159 wir müssen wissen, wir werden wissen 5.6.2 Beispiel: Hilbert Kurven Die Hilbert Kurve ist eine stetige Kurve, die jeden beliebigen Punkt einer quadratischen Fläche erreichen kann, ohne sich zu schneiden – und damit ein Fläche beliebig dicht füllen kann. „D.Hilbert: Über stetige Abbildungen einer Linie auf ein Flächenstück, Math. Annalen, 1891“ Idee: Die Kurve wird aus vier Grundformen und vier Bildungsgesetzen generiert, die sich direkt und indirekt rekursiv aufrufen Grundformen: A Bildunggesetze: A: B: C: D: B B A D C C A B C D D A B C D C D A B Beispiel: B C A A A t=1 t=2 t=3 t=3 160 5.6.2 Beispiel: Hilbert Kurven A (IN: t:integer) { if (t>0) B(t-1); S(); A(t-1); } B (IN: t:integer) { if (t>0) A(t-1); O(); B(t-1); } C (IN: t:integer) { if (t>0) D(t-1); W(); C(t-1); } D (IN: t:integer) { if (t>0) C(t-1); N(); D(t-1); } A B C D O(); A(t-1); N(); C(t-1); S(); B(t-1); W(); D(t-1); A: B B: D C: D D: C A A A B C D C D B C A B N(); C(t-1); O(); A(t-1); W(); D(t-1); S(); B(t-1); // S(), N(), W(), O() sind Blöcke, die eine // Linie nach Süden, Norden, Westen und Osten // zeichnen 161 5.6.3 Aufrufverwaltung fakultaet(3,x) result=6 fakultaet(2,x) fakultaet(1,x) fakultaet(0,x) result=2 result=1 result=1 Eine Aktivierung der Tiefe n wird erst verlassen, wenn die von ihr erzeugte Aktivierung der Tiefe n+1 schon verlassen wurde Verwaltung der Aktivierung als Stapel (Stack) 162 5.6.4 Wo nicht: Modulo-Berechnung Alle Grundrechenarten - und vergleichbar einfache mathematische Operationen lassen sich mit Hilfe sog. „Primitiv Rekursiver Funktionen“ beschreiben (siehe Beispiel. „Algorithmenbeweis“) mod(a,b) = a mod(a-b,b) falls a < b falls a b In gängiger mathematischer Notation könnte ein Verfahren zur Berechnung der Modulus-Funktion a mod b wie folgt aussehen: modulo (IN a,b: integer, OUT result: integer) { if (a<b) result = a; else modulo (a-b,b,result); } Offenbar einfacher ist: result = a - (a/b) x b 163 5.6.4 Wo nicht: Fibonacci-Zahlen Fibonacci definiert im 13.Jahrhundert eine Zahlenfolge mit der die Verhältnisse des „goldenen Schnitts“ ebenso beschrieben werden können, wie die Populationsentwicklung in einem Kaninchenstall: 0 n=0 fib(n) = 1 n=1 fib(n-2)+fib(n-1) n>1 fib(IN: n:integer, OUT: result:integer) { r,s : integer; if (n==0) then result = 0 else if (n==1) then result = 1 else { fib(n-1,r); fib(n-2,s); result = r + s; } } 0 1 1 2 3 5 8 13 21 34 55 89 144 233 ... 164 5.6.4 Wo nicht: Fibonacci-Zahlen fib(IN: n:integer, OUT: result:integer) {... fib(n-1,r); fib(n-2,s); result = r + s; ...} n Aufrufe Rechenzeit (1 Aufruf = 1 nsec) 0 1 n Zeit 1 1 10 0,18 sec 2 3 20 22 sec 3 5 50 41 sec 4 9 100 36000 Jahre 5 15 6 25 Die Anzahl der Aufrufe verhält sich offenbar selbst ähnlich der Fibonacci-Reihe: Anzahl (n) = 2 x fib(n+1) - 1 Anstieg ist praktisch exponentiell also nicht verwendbar 0 1 1 2 3 5 8 13 21 34 55 89 144 233 ... 165 5.6.4 Wo nicht: Fibonacci-Zahlen Idee: Merken von zwei Folgewerten in Variablen und Aufsummieren in Schleife, wobei die Werte immer umgespeichert werden: fib (IN: n:integer, OUT: result:integer) { a,b,z : integer; a = 0; b = 1; // fib0, fib1 while (n > 0) do { z = a + b; // Berechnung der nächsten fib a = b; b = z; // Umspeichern der fibs n = n - 1; // dicrease n } result = a; // das Resultat steht in a } Anzahl (n) = n Zeit (n=100) = 1 sec (anstatt 36000 Jahre !) 0 1 1 2 3 5 8 13 21 34 55 89 144 233 ... 166 5.6.5 Wo nicht und wo? Man sollte überall dort auf Rekursion verzichten, wo es eine offensichtliche Lösung mit Iteration gibt. Jeder rekursive Algorithmus lässt sich in eine iterative Form umwandeln (z.B. über explizites Ausformulieren einer Stackverwaltung) Es gibt allerdings einige Fälle, in denen Rekursion angewandt werden sollte: Rekursion ist überall dort sinnvoll anwendbar, wo sich ein Problem in mehrere (oft: zwei) nicht überlappende Teilprobleme aufspalten lässt und sich die Teilprobleme leicht rekombinieren lassen. Rekursion sollte dort verwendet werden, wo die zugrunde liegenden Datenstrukturen selbst rekursiver Art sind (z.B.: Bäume) Für einige Probleme gibt es keine direkte Vorschrift zur Berechnung. Diese können oft nur durch „Trial and Error“ gelöst werden. Oft lassen sich diese Versuche (Trials) durch Untersuchung eines Teilproblems natürlich in rekursiver Form darstellen. Dieses Vorgehen nennt man „Backtracking“ 167 5.6.6 Beispiel: Backtracking Weg des Springers Gegeben sei ein n x n Spielbrett (z.B. n=8). Ein Springer - der nach den Schachregeln bewegt werden darf - wird auf das Feld mit der Anfangskoordinate (x0,y0) gestellt (z.B. (1,1)). Zu finden ist ein Weg des Springers, der genau einmal über jedes der Felder des Schachbrettes führt. 168 5.6.6 Beispiel: Backtracking Ansatz eines Algorithmus (in unvollständiger Notation) track (IN: kandidat, OUT: erfolgreich) // ohne Typ { trage_ein(kandidat); // erst mal eintragen erfolgreich = false; // Initialisierung if (fertig) then erfolgreich = true; // Abbruchfall else // weitersuchen { repeat { wähleKandidat(neukandidat); // wie auch immer if (neukandidat) then // es geht weiter track (neukandidat, erfolgreich) // Rekusion else // Sackgasse ! trage_aus (kandidat); // wieder austragen } until (erfolgreich) or (not neukandidat) } } 169 5.7 Zusammenfassung des Kapitels 1. Ein Beispiel Drei Algorithmen im Vergleich zur Lösung einer quadratischen Gleichung 2. Definition des Algorithmenbegriffes Definition und dessen Anwendung im Beispiel. Weitere Prinzipien und der Zusammenhang von Algorithmen und Programmen. 3. Strukturelemente: Die „atomaren“ Elemente und die Konstruktionselemente Folge, Auswahl, Wiederholung 4. Strukturierung Der Begriff des Control Flows, das Problem der Strukturierung mit Sprung und Blockung 5. Blockung Prinzip und Beispiele, Probleme und Regeln 6. Iteration und Rekursion Definition, Realisierung, wo und wo nicht 170 Beispielklausur … daran will ich euch prüfen 1. Mose 42.15 In diesem Kapitel wird ein Beispiel für eine Klausur vorgestellt. Dabei sind jeweils die Aufgaben und die Lösungen gegeben. Beachten Sie Diese Beispielklausur erhebt weder in Form, Inhalt noch Umfang einen Anspruch auf Vollständigkeit.- dies betrifft insbesondere reine Wissensfragen, die hier etwas vernachlässigt sind. Grundsätzlich ist der gesamte in der Vorlesung und den Übungen behandelte Stoff möglicher Gegenstand der Prüfung Vorbereitung Arbeiten Sie die gesamten Folien nochmals durch Bearbeiten Sie alle Übungsaufgaben nochmals Arbeiten Sie das Skript von Herrn Geise durch Bearbeiten Sie dessen Übungsaufgaben Bedenken Sie: In der Klausur sind keine Hilfsmittel zugelassen. 171 Informatik Informatik ist ... Die Wissenschaft, die sich mit dem (automatisierten) Erfassen Transportieren Speichern Verarbeiten Umsetzen von Information befasst Geben Sie für jede dieser 5 „Kernprozesse“ der Informatik jeweils 3 Beispiele an 172 Informatik Fehlt in dieser Beispielklausur: a) weitere Wissensfragen b) ... 173 Information Eine Nachrichtenquelle sendet Zeichen aus dem Alphabet X = {a,b,c,d,e} mit den Wahrscheinlichkeiten p(a)=1/2, p(b)=p(c)=p(d)=p(e)=1/8 a) b) c) d) e) Wie groß ist der Informationsgehalt der einzelnen Zeichen Wie groß ist der Informationsgehalt der Nachricht „abc“ Wie groß ist der mittlere Informationsgehalt einer Nachricht mit 1000 Zeichen Finden Sie einen möglichst optimalen Code für dieses Alphabet Angenommen die Wahrscheinlichkeiten wären p(b)=1/2, p(a)=p(c)=p(d)=p(e)=1/8 . Wie groß wäre dann die Redundanz Ihres Codes aus Aufgabe d) bzgl. der neuen Wahrscheinlichkeiten Hamming a) Codieren Sie die Binärzahl 1000 mit der Hamming-Methode b) Wieviele Bits können als fehlerhaft erkannt werden ? c) Wieviele Bits können korrigiert werden ? 174 Information Fehlt in dieser Beispielklausur: a) „Textaufgaben“ b) Turing-Maschinen c) … 175 Zahlensysteme Stellen Sie die Dezimalzahl 7,25 a) Binär b) Hexadezimal c) Oktal dar Berechnen Sie im Binärsystem (mit Vollständiger Rechnung) a) 1100100 : 101 b) Machen Sie schriftlich die Gegenprobe (auch im Binärsystem) c) 10111 – 1010 (durch Addition des Zweierkomplements) 176 Zahlensysteme Fehlt in dieser Beispielklausur: a) Gleitpunktzahlen b) IEEE 754 c) ... 177 Datenstrukturen Gegeben ist folgender Algorithmus: x : *Integer; y : Integer; x = &y; x* = 2; x = 2; x* = 5; a) Gehen Sie davon aus, dass der Compiler der Variablen x die Speicherstelle 4 und der Variablen y die Speicherstelle 6 zugeordnet hat. Jede Variable belegt dabei genau eine Speicherstelle: Zeichnen Sie die Werte in den Speicherstellen 1 bis 8 jeweils nach den Zuweisungen. 178 Datenstrukturen Fehlt in dieser Beispielklausur: a) Wissensfragen (z.B. Überblick über Datenstrukturen) b) spezielle Datenstrukturen (z.B. Variantenrecord) c) ... 179 Algorithmus + Theorie Gegeben ist folgender Algorithmus: x=a, y=5; while (x>0) { y = y+1; x = x-1; } a) b) Formen sie die while Schleife in eine repeat-Schleife um Bilden Sie die Funktion dieses Algorithmus‘ ohne Schleifen, mit Hilfe von Sprüngen und Marken nach 180 Algorithmus + Theorie Gegeben ist folgender Algorithmus test ( IN: x:Integer; THROUGH: y:Integer; b:Integer; OUT: z:Integer; ) { z = 5; x = y + b; b = y + x; } c = 3; d = 5; e = 7; f = 9; test (f,e,c,d); c >> Bildschirm; d >> Bildschirm; e >> Bildschirm; f >> Bildschirm;; a) Geben Sie die Bildschirmausgabe an 181 Algorithmus + Theorie Fehlt in dieser Beispielklausur: a) b) c) d) e) Weitere Umformungen Umwandlung Rekursion/Iteration Wissensfragen (z.B. Überblick über Strukturierungselemente) weitere Notationen (Nassi-Shneidermann, Flußdiagramm) ... 182 Lösung: Informatik Information erfassen über: Kamera, Tastatur, Maus, Datenleitung, Tastsensoren, Gehirnsensoren, ... Information Transportieren über Ethernet: WLAN, ISDN, S/ADSL, Datenbus, Druckerkabel, VGA-Kabel, verschränkte Quantenzustände, ... Information speichern auf: Festplatte, EPROM, RAM, ROM, CD, DVD, Tape, Tesa-Film, ... Information verarbeiten mit: Analogrechner/Digitalrechner, Parallelrechner, CPU, FPU, Mikro-Prozessor, Turing-Maschine, ... Information umsetzen als: Ausgabe auf dem Bildschirm, Drucker, Braille-Zeile, Roboter-Aktion, Schalten, optisches/akustisches Signal, Raketenstart, ... 183 Lösung: Information Eine Nachrichtenquelle sendet Zeichen aus dem Alphabet X = {a,b,c,d,e} mit den Wahrscheinlichkeiten p(a)=1/2, p(b)=p(c)=p(d)=p(e)=1/8 a) b) c) d) e) h(a) = -ld(1/2) = 1bit. h(b)=h(c)=h(d)=h(e)=-ld(1/8)=3bit 1bit + 3bit + 3bit = 7 bit 1000 x Mittlerer Informationsgehalt: H(x)=Sp(xi)h(xi) = 1000 x ( 1/2x1 + 1/8x3 + 1/8x3 + 1/8x3 + 1/8x3 )bit = 1000 x 2bit = 2000 bit Nach Huffmann: p(de)=1/4, p(bc)=1/4, p(debc)=1/2, p(a)=1/2). p(abcde)=1 also z.B.: a=1, b=000, c=001, d=010, e=011 Redundanz = L(x)-H l(a)=1bit , l(b)=l(c)=l(d)=l(e)=3bit (entsprechend der Codierung in d.) L(x) = Sp(xi)l(xi) = (0,125x1 + 0,5x3 + 0,125x3 + 0,125x3 + 0,125x3)bit = 2,75 bit h(b) = 1bit, h(a)=h(c)=h(d)=h(e)=-ld(1/8)=3bit H(x) = Sp(xi)h(xi) = (0,5x1 + 0,125x3 + 0,125x3 + 0,125x3 + 0,125x3 )bit = 2 bit Redundanz = L(x)-H = 2,75bit – 2bit = 0.75 bit Hamming a) 100P0PP (Relevant: Bit 3,5,7) 100P0P1 (even Parity: also 1 ergänzen) 100P0P1 (Relevant: Bit 3,6,7) 100P011 (even Parity: also 1 ergänzen) 100P011 (Relevant: Bit 5,6,7) 1001011 (even Parity: also 1 ergänzen) b) Der Hamming-Abstand D ist 3bit, es können D-1 = 2bit Fehler erkannt werden c) Es können (D-1)/2 = 1bit Fehler korrigiert werden. 184 Lösung: Zahlensysteme Dezimalzahl 7,25 a) b) c) Vorkommateil: 7 : 2 = 3 Rest: 1 3 : 2 = 1 Rest: 1 1 : 2 = 0 Rest: 1 -> 111 Binärzahl: 111.01 0111,01002 = 7,416 (7 * 160 + 4 * 16-1) 111,0102 = 7,28 (7 * 80 + 2 * 8-1) Nachkommateil 2 · 0,25 = 0,5 --> Ziffer: 0 2 · 0,5 = 1 --> Ziffer: 1 ->0,01 Berechnung 1100100 : 101 = 10100 101 --101 101 --000 10111 – 1010 10111 - 01010 auf gleiche Längen bringen 10111 + 10110 Binärkomplement 10101+ 1 = 101101 Lösung: 1101 Überlauf weggelassen 10100 x 101 10100 00000 10100 ------1100100 185 Lösung: Datenstrukturen Doppelt verkettete Liste a) Person : record { vorname : array[1..64] of char; nachname: array[1..64] of char; prev : *Person; next : *Person; } b) Man kann aus diesen Strukturen beliebig lange Ketten von Personen bilden c) Pro: Dynamisch: Verwaltung von Objekten, deren Anzahl zur Entwicklungszeit nicht bekannt ist. Speicherverbrauch nur für die Objekte, die tatsächlich zur Laufzeit existieren. Pro Statisch: Einfach in der Realisierung, schnell in der Bearbeitung (Fehlerunanfälliger) d) Person : record { vorname : array[1..64] of char; nachname: array[1..64] of char; } Personenliste: array[1...65534] of Person; 186 Lösung: Datenstrukturen x : *Integer; y : Integer; x x* x x* = = = = &y; 2; 2; 5; 5 x y 6 nd 6 2 2 2 2 2 187 Lösung: Algorithmus + Theorie Umformung der while-Schleife: a) b) Als repeat-Schleife: x=a; y=5; if (x>0) { repeat { y = y+1; x = x–1; } until (x<=0) } Sprünge und Marken x=a; y=5; 1: if (x<=0) goto 2 y = y+1; x = x–1; goto 1; 2: ... do { y = y+1; x = x-1; } while (x>0} x=a; y=5; 1: if (x>0) { y = y+1; x = x–1; goto 1 } 2: ... 188 Lösung: Algorithmus + Theorie x=a; y=5; while (x>0) { y = y+1; x = x-1; } a x y 4 4 5 ---------4 3 6 4 2 7 4 1 8 4 0 9 Invariant: 5 + a = x + y ------------5 + a = x + y 5 + a = x + y 5 + a = x + y 5 + a = x + y ------------Nachbed.: y = 5 + a { aN+ a>0 } x = a; y = 5; { x=a, y=5, a>0 } { 5+a=x+y, x≥0 } while (x>0) { { 5+a=x+y, x≥0, x>0 } { 5+a=x+y+1-1, x>0 } y = y+1; { 5+a=x+y-1, x>0 } { 5+a=x-1+1+y-1, x-1+1>0 } x = x-1; { 5+a=x+1+y-1, x+1>0 } { 5+a=x+y, x≥0 } } { 5+a=x+y, x≥0, x≤0 } { 5+a=x+y, x=0 } 5 + a = y 189 Lösung: Algorithmus + Theorie Gegeben ist folgender Algorithmus test ( IN: x:Integer; THROUGH: y:Integer; b:Integer; OUT: z:Integer; ) { z = 5; Rechnung: x = y + b; (ROT = call by b = y + x; c d e f } 3 5 7 9 c = 3; d = 5; e = 7; f = 9; test (f,e,c,d); b z y x c >> Bildschirm; 3 5 7 9 d >> Bildschirm; 3 5 7 10 e >> Bildschirm; 17 5 7 10 f >> Bildschirm; reference) test(f,e,c,d) x = y + b b = y + x Ausgabe: 17 5 7 9 190