Übersetzerbau Algebraic Compiler Construction Peter Padawitz, TU Dortmund, Germany Webseite zur LV: fldit-www.cs.uni-dortmund.de/ueb.html Thursday 24th March, 2016 00:33 1 Inhalt Mit ∗ markierte Abschnitte bzw. Kapitel werden zur Zeit in der LV nicht behandelt. Zur Navigation auf Titel, nicht auf Seitenzahlen klicken! 1 Einleitung 2 Algebraische Modellierung - Mengen und Typen - Signaturen - 2.9 Konstruktive Signaturen - 2.10 Destruktive Signaturen - 2.11 Algebren - 2.12 Terme und Coterme - 2.13 Beispiele - 2.14 Die Algebren Bool und Regword (BS) - 2.15 Die Algebren Beh(X, Y ), Pow (X), Lang(X) und Bro(BS) - 2.16 Die Erreichbarkeitsfunktion - 2.17 Termfaltung und Zustandsentfaltung - 2.21 * Compiler für reguläre Ausdrücke - 2.22 * Minimale Automaten 7 14 14 30 31 34 38 44 49 56 57 61 62 74 77 2 - 2.25 * Baumautomaten 3 * Rechnen mit Algebren - Unteralgebren - Kongruenzen und Quotienten - Automatenminimierung durch Quotientenbildung - Transitionsmonoid und syntaktische Kongruenz - 3.6 Termsubstitution - Termäquivalenz und Normalformen - 3.10 Normalformen regulärer Ausdrücke - 3.11 Die Brzozowski-Gleichungen - 3.12 Optimierter Brzozowski-Automat - 3.13 Erkenner regulärer Sprachen sind endlich 4 Kontextfreie Grammatiken (CFGs) - Nicht-linksrekursive CFGs - Abstrakte Syntax - Wort- und Ableitungsbaumalgebra - Modelle der Ausdrücke von JavaLight 5 Parser und Compiler für CFGs - 5.1 Funktoren und Monaden - Compilermonaden - Monadenbasierte Parser und Compiler 80 82 83 87 91 92 94 96 101 102 104 106 109 114 117 126 131 136 138 150 152 3 6 LL-Compiler 7 LR-Compiler 8 Haskell: Typen und Funktionen 9 Haskell: Listen 10 Haskell: Datentypen und Typklassen 11 Algebren in Haskell - 11.1 Beispiele - 11.2 Datentyp der JavaLight-Algebren - 11.3 Die Termalgebra von JavaLight - 11.4 Die Wortalgebra von JavaLight - 11.5 Das Zustandsmodell von JavaLight - 11.6 * Die Ableitungsbaumalgebra von JavaLight 12 Attributierte Übersetzung - 12.1 * Binärdarstellung rationaler Zahlen - 12.2 * Strings mit Hoch- und Tiefstellungen - 12.3 * Übersetzung regulärer Ausdrücke in erkennende Automaten - 12.4 * Darstellung von Termen als hierarchische Listen - 12.5 Eine kellerbasierte Zielsprache für JavaLight 13 JavaLight+ = JavaLight + I/O + Deklarationen + Prozeduren - 13.1 Assemblersprache mit I/O und Kelleradressierung - 13.2 Grammatik und abstrakte Syntax von JavaLight+ 157 177 205 215 226 240 241 246 247 248 250 253 256 257 259 261 267 270 276 276 283 4 14 15 16 17 18 19 - 13.3 JavaLight+-Algebra javaStackP * Mehrpässige Compiler Funktoren und Monaden in Haskell Monadische Compiler - 16.1 Compilerkombinatoren - 16.2 Monadische Scanner - 16.3 Monadische LL-Compiler - 16.4 Generischer JavaLight-Compiler - 16.5 Korrektheit des JavaLight-Compilers - 16.6 Generischer XMLstore-Compiler * Induktion, Coinduktion und rekursive Gleichungen - Induktion - Induktive Lösungen - Coinduktion - Coinduktive Lösungen - 17.11 Cotermbasierte Erkenner regulärer Sprachen * Iterative Gleichungen - 18.2 Das iterative Gleichungssystem einer CFG - 18.5 Von Erkennern regulärer Sprachen zu Erkennern kontextfreier Sprachen * Interpretation in stetigen Algebren - 19.1 Schleifensemantik 287 310 318 327 331 333 335 338 340 344 346 346 348 353 360 376 378 379 384 394 399 5 - 19.2 Semantik der Assemblersprache StackCom ∗ - Erweiterte Σ-Bäume - Cosignaturen und ihre Algebren Literatur Index 401 408 415 6 1 Einleitung Die Folien dienen dem Vor- (!) und Nacharbeiten der Vorlesung, können und sollen aber deren regelmäßigen Besuch nicht ersetzen! Interne Links (einschließlich der Seitenzahlen im Index) sind an ihrer dunkelroten Färbung, externe Links (u.a. zu Wikipedia) an ihrer magenta-Färbung erkennbar. Dunkelrot gefärbt ist auch das jeweils erste Vorkommen einer Notation. Fettgedruckt ist ein Begriff in der Regel nur an der Stelle, an der er definiert wird. Jede Kapitelüberschrift und jede Seitenzahl in der rechten unteren Ecke einer Folie ist mit dem Inhaltsverzeichnis verlinkt. Namen von Haskell-Modulen wie Java.hs sind mit den jeweiligen Programmdateien verknüpft. Ein Scanner (Programm zur lexikalischen Analyse) fasst Zeichen zu Symbolen zusammen, übersetzt also eine Zeichenfolge in eine Symbolfolge. Bezüglich der Grammatik, die der nachfolgenden Syntaxanalyse zugrundeliegt, heißen die Symbole auch Terminale. Man muss unterscheiden zwischen Symbolen, die Komponenten von Operatoren sind (if, then, =, etc.), und Symbolen wie 5 oder True, die der Scanner einer Basismenge (Int, Float, Bool, Identifier, etc.) zuordnet. In der Grammatik kommt ein solches Symbol nicht vor, jedoch der Namen der Basismenge, der es angehört. 7 Ein Parser (Programm zur Syntaxanalyse) übersetzt eine Symbolfolge in einen Syntaxbaum, der den für ihre Übersetzung in eine Zielsprache notwendigen Teil ihrer Bedeutung (Semantik) wiedergibt. Der Parser scheitert, wenn die Symbolfolge in diesem Sinne bedeutungslos ist. Er orientiert sich dabei an einer (kontextfreien) Grammatik, die korrekte von bedeutungslosen Symbolfolgen trennt und damit die Quellsprache definiert. Ein Compiler (Programm zur semantischen Analyse und Codeerzeugung) übersetzt ein Programm einer Quellsprache in ein semantisch äquivalentes Programm einer Zielsprache. Ein Interpreter • wertet einen Ausdruck in Abhängigkeit von einer Belegung seiner Variablen aus bzw. • führt eine Prozedur in Abhängigkeit von einer Belegung ihrer Parameter aus. Letzteres ist ein Spezialfall von Ersterem. Deshalb werden wir einen Interpreter stets als die Faltung von Termen (Ausdrücken, die aus Funktionssymbolen einer Signatur bestehen) in einer Algebra (Interpretation der Signatur) modellieren. 8 Auch Scanner, Parser und Interpreter sind Compiler, insofern sie Objekte von einer Repräsentation in eine andere übersetzen. Die Zielrepräsentation eines Interpreters ist i.d.R. eine Funktion, die Eingabedaten verarbeitet. Daher liegt es nahe, alle o.g. Programme nach denjenigen Prinzipien zu entwerfen, die bei Compilern im engeren Sinne Anwendung finden. Die Entwicklung dieser Prinzipien und ihrer formalen Grundlagen wurzelt in der mathematischen Logik und dort vor allem in der Theorie formaler Sprachen und der Universellen Algebra, deren Anwendung im Compilerbau in dieser LV eine zentrale Rolle spielen wird. Die Aufgabe, Übersetzer zu schreiben, hat auch entscheidend die Weiterentwicklung von Programmiersprachen, insbesondere der logischen und funktionalen, vorangetrieben. Insbesondere Konzepte der universellen Algebra und der funktionalen Programmierung im Übersetzerbau erlauben es, bei Entwurf und Implementierung von Scannern, Parsern, Compilern und Interpretern ähnliche Methoden einzusetzen. So ist z.B. ein wie oben definierter Interpreter gleichzeitig ein Compiler, der den Ausdruck oder die Prozedur in eine Funktion übersetzt, die eine Belegung auf einen Wert des Ausdrucks bzw. eine vom Aufruf der Prozedur erzeugte Zustandsfolge abbildet. 9 Der algebraische Ansatz klärt nicht nur die Bezüge zwischen den oben genannten Programmen, sondern auch eine Reihe weiterer in der Compilerbauliteratur meist sehr speziell definierter und daher im Kern vager Begriffe wie attributierter Grammatiken und mehrpässiger Compilation. Mehr Beachtung als die nicht wirklich essentielle Trennung zwischen Scanner, Parser, Compiler und Interpreter verdienen die Ansätze, Compiler generisch (neu-informatisch: agil) zu entwerfen, so dass sie mit verschiedenen Quellsprachen und - wichtiger noch - mehreren Zielsprachen instanziiert werden können. Es handelt sich dann im Kern um einen Parser, der keine Symbol-, sondern Zeichenfolgen verarbeitet und ohne den klassischen Umweg über Syntaxbäume gleich die gewünschten Zielobjekte/programme aufbaut. Sein front end kann mit verschiedenen Scannern verknüpft werden, die mehr oder weniger detaillerte Symbolund Basistypinformation erzeugen, während sein back end mit verschiedenen Interpretationen ein und derselben - üblicherweise als kontextfreie Grammatik eingegebenen - Signatur instanziiert werden kann, die verschiedenen Zielsprachen entsprechen. Die beiden folgenden Grafiken skizzieren die Struktur des algebraischen Ansatzes und seine Auswirkung auf die Generizität der Programme. Auf die Details wird in den darauffolgenden Kapiteln eingegangen. Dabei wird die jeweilige Funktionalität der o.g. Programme in mathematisch präzise Definitionen gefasst, auf denen Entwurfsregeln aufbauen, deren Befolgung automatisch zu korrekten Compilern, Interpretern, etc. führen. 10 Erkenner Programmeigenschaften Σ(G)-Formeln Bool Σ(G)-Algebren Quellsprache L(G) Verifizierer Unparser konkrete Syntax Grammatik G abstrakte Syntax Signatur Σ(G) Syntaxbäume Termalgebra TΣ(G) Optimierer allgemein: Termfaltung Parser Quellsprache L(G) Unparser Compiler Ableitungsbäume Abl(G) optimierte Syntaxbäume Zielsprache Von konkreter über abstrakte Syntax zu Algebren 11 Menge Faltung kontextfreie Sprache Parser Termalgebra Faltung Menge Faltung Menge Algebra kontextfreie Sprache Parser Termalgebra generische Faltung Algebra Algebra Algebra kontextfreie Sprache generischer Compiler Algebra Algebra Der Weg zum generischen Compiler 12 fact =1; while x > 1 {fact = fact*x; x = x-1;} Eingabewort (Element der JavaLight-Algebra javaWord) parse fold Seq Assign fact Embed Sum Prod EmbedI Loop NilS NilP 1 EmbedC Block EmbedL Seq Atom Sum Prod Var > Sum NilS NilP x Assign Prod EmbedI fact NilS NilP 1 Sum Prod Var fact Embed Assign NilS x Prodsect * Var x NilP Sum Prod Var x Syntaxbaum (Element der JavaLight-Algebra javaTerm) NilP Sumsect - Prod EmbedI NilS NilP 1 fold fold Zustandstransitionsfunktion (Element der JavaLight-Algebra javaState) Assemblerprogramm (Element der JavaLight-Algebra javaStack) 13 2 Algebraische Modellierung Mengen und Typen ∅ bezeichnet die leere Menge, 1 die Menge {} und 2 die Menge {0, 1}. 0 und 1 stehen hier in der Regel für die Wahrheitswerte false und true. Für alle n > 1, [n] =def {1, . . . , n}. Wir setzen voraus, dass die Definitionen einer Potenzmenge, binären Relation bzw. (partiellen oder totalen) Funktion sowie der Vereinigung, des Durchschnitts, des Komplements, der Disjunktheit und der Mächtigkeit (Kardinalität) von Mengen bekannt sind. λ-Abstraktionen zur anonymen Definition und die (sequentielle) Komposition mehrerer Funktionen sollten ebenfalls bekannt sein. Für jede Menge A bezeichnet |A| die Kardinalität von A, P(A) die Potenzmenge von A und idA : A → A die durch idA(a) = a für alle a ∈ A definierte Identität auf A. Für jede Teilmenge B von A bezeichnet incB : B → A die durch incB (b) = b für alle b ∈ B definierte Inklusion. Für alle Mengen A, B bezeichnen A → B und B A die Menge der totalen und A (→ B die Menge der partiellen Funktionen von A nach B. def (f ) bezeichnet den Definitionsbereich einer partiellen Funktion f : A (→ B. 14 Mehrsortige Mengen und Funktionen Sei S eine Menge. Eine S-sortige oder S-indizierte Menge ist ein Tupel A = (As)s∈S von Mengen. Manchmal schreiben wir A auch für die Vereinigung der Mengen As über alle s ∈ S. Seien A1, . . . , An S-sortige Mengen. Eine S-sortige Teilmenge von A1 × · · · × An ist eine S-sorted Menge R = (Rs)s∈S mit Rs ⊆ A1,s × . . . × An,s für alle s ∈ S. Seien A = (As)s∈S und B = (Bs)s∈S S-sortige Mengen. Eine S-sortige Funktion f : A → B ist eine S-sortige Menge (fs)s∈S derart, dass für alle s ∈ S, fs eine Funktion von As nach Bs ist. Sei I eine Menge. Das kartesische Produkt (der Komponenten) einer I-sortigen Menge A = (Ai)i∈I ist wie folgt definiert: [ Xi∈I Ai = {f : I → Ai | ∀ i ∈ I : f (i) ∈ Ai}. i∈I Xi∈I Ai aus der einzigen Funktion von ∅ nach i∈I Ai. Gibt es eine Menge A mit Ai = A für alle i ∈ I, dann stimmt Xi∈I Ai offenbar mit AI Im Fall I = ∅ besteht S überein. Im Fall I = [n] für ein n > 1 schreibt man auch A1 × · · · × An anstelle von An anstelle von AI . Xi∈I Ai und 15 Sei I eine Menge. Die disjunkte Vereinigung (der Komponenten) einer I-sortigen Menge A = (Ai)i∈I ist wie folgt definiert: ] [ Ai = (Ai × {i}). i∈I i∈I Die disjunkte Vereinigung des leeren Mengentupels wird definiert als die leere Menge. U Gibt es eine Menge A mit Ai = A für alle i ∈ I, dann stimmt i∈I Ai offenbar mit A × I überein. U Im Fall I = [n] für ein n > 1 schreibt man auch A1 + · · · + An anstelle von i∈I Ai. Der Plusoperator + und der Sternoperator ∗ bilden jede Menge A, die das leere Wort nicht enthält, auf die Menge der (nichtleeren) Wörter oder Listen über A ab: S n A+ =def n>0 A , 1 =def {}, A∗ =def 1 ∪ A+. Die Folge der Komponenten eines Elements von A+ wird manchmal (z.B. in Haskell) nicht wie oben mit runden, sondern mit eckigen Klammern eingeschlossen oder (wie in der Theorie formaler Sprachen) zusammen mit den Kommas ganz weggelassen. Teilmengen von A∗ werden auch Sprachen über A genannt. 16 Die Konkatenationen · : A∗ × A∗ → A∗ und · : P(A∗) × P(A∗) → P(A∗) sind wie folgt induktiv definiert: Für alle s, v = (a1, . . . , am), w = (b1, . . . , bn) ∈ A∗ und B, C ⊆ A∗, · w = w, v · = v, v · w = (a1, . . . , am, b1, . . . , bn), B · C = {v · w | v ∈ B, w ∈ C}. Für alle w ∈ A+ bezeichnet head(w) das erste Element von w und tail(w) die Restliste, d.h. es gilt w = head(w) · tail(w). |w| bezeichnet die Länge eines Wortes w, d.h. die Anzahl seiner Elemente. 17 L ⊆ A∗ heißt präfixabgeschlossen, wenn für alle w ∈ A∗ und a ∈ A aus wa ∈ L w ∈ L folgt. Eine partielle Funktion f : A∗ (→ B mit präfixabgeschlossenem Definitionsbereich heißt deterministischer Baum. f ist wohlfundiert (a: e), wenn es n ∈ N gibt mit |w| ≤ n für alle w ∈ def (t). Anschaulich gesprochen ist f wohlfundiert, wenn f endliche Tiefe hat, wenn also alle von der Wurzel ausgehenden Pfade endlich sind. Tatsächlich kann man sich f als (möglicherweise unendlichen) Baum tf mit Kantenmarkierungen aus A und Knotenmarkierungen aus B vorstellen, der keine zwei Kanten mit derselben Quelle, aber verschiedener Markierung besitzt. f () ∈ B ist die Markierung der Wurzel von tf und jeder von der Wurzel ausgehende Pfad p endet in einem Knoten, der mit f (w) markiert ist, wobei w ∈ A+ die Folge der Markierungen der Kanten von p ist. Demnach kann ein deterministischer Baum als eine Art Record notiert werden: tf = f (){x → tλw.f (xw) | x ∈ def (t) ∩ A}. Die Menge aller deterministischer Bäume von A∗ nach B wird mit dtr(A, B) bezeichnet, die Menge der wohlfundierten darunter mit wdtr(A, B). 18 Für alle Mengen A, B, Funktionen f : A → B, C ⊆ A, D ⊆ B und n > 0, ∆nA =def {(a1, . . . , an) ∈ An | ∀ 1 ≤ i < n : ai = ai+1} Diagonale von A f (C) =def {f (a) | a ∈ C} Bild von C unter f = P(f )(C) (siehe Mengenfunktor) img(f ) =def f (A) f −1(D) =def {a ∈ A | f (a) ∈ D} Urbild von D unter f ker(f ) =def {(a, a0) ∈ A × A | f (a) = f (a0)} Kern von f graph(f ) =def {(a, f (a)) ∈ A × B | a ∈ A} f |C : C → B c 7→ f (c) f [b/a] : A → B Graph von f Einschränkung von f auf C Update von f c 7→ if c = a then b else f (c) χ : P(A) → χ(C) C 7→ λa.if a ∈ C then 1 else 0 charakteristische Funktion von C 19 f ist surjektiv ⇔def img(f ) = B f ist injektiv ⇔def ker(f ) = ∆2A f ist bijektiv ⇔def ∃ g : B → A : g ◦ f = idA ∧ f ◦ g = idB A und B heißen isomorph, geschrieben: A ∼ = B, wenn es eine bijektive Funktion von A nach B gibt. Aufgabe Zeigen Sie: P(A) ∼ = 2A . Aufgabe Zeigen Sie: P(A × B) ∼ = P(B)A. o Aufgabe Zeigen Sie: f : A → B ist bijektiv ⇔ f ist injektiv und surjektiv. o o Aufgabe Zeigen Sie: Ist f : A → B bijektiv, dann gibt es genau eine (üblicherweise mit f −1 bezeichnete) Funktion g : B → A mit g ◦ f = idA und f ◦ g = idB . o 20 Produkte und Summen als universelle Konstruktionen Sei I eine nichtleere Menge und A eine I-sortige Menge. Das kartesische Produkt und die disjunkte Vereinigung eines Mengentupels A haben bestimmte universelle Eigenschaften, d.h. erstens, dass alle Mengen, die diese Eigenschaften haben, isomorph sind und zweitens, dass jede Menge, die zu einer anderen Menge, die diese Eigenschaften hat, isomorph ist, selbst diese Eigenschaften hat. Jede Menge, die die universellen Eigenschaften des kartesischen Produkts bzw. der disjunkten Vereinigung von A hat, nennt man Produkt bzw. Summe von A: Sei A = (Ai)i∈I ein Mengentupel, P eine Menge und π = (πi : P → Ai)i∈I ein Funktionstupel. Das Paar (P, π) heißt Produkt von A, wenn es für alle Tupel f = (fi : B → Ai)i∈I genau eine Funktion g : B → P gibt derart, dass für alle i ∈ I Folgendes gilt: πi ◦ g = f i (1) πi heißt i-te Projektion von P und g Produktextension oder Range-Tuplung von f . g wird mit hfiii∈I und im Fall I = [n], n > 1, auch mit hf1, . . . , fni bezeichnet. Demnach ist im Fall I = ∅ eine Menge P genau dann ein Produkt, wenn es zu jeder Menge B genau eine Funktion von B nach P gibt, wenn also P einelementig ist. 21 Wegen der Eindeutigkeit von Produktextensionen sind zwei Funktionen f, g : B → P genau dann gleich, wenn ihre Produktkomponenten paarweise miteinander übereinstimmen: (∀ i ∈ I : πi ◦ f = πi ◦ g) ⇒ f = g. (2) Mit f = λx.a : 1 → P und g = λx.b : 1 → P folgt aus (2), dass zwei Elemente a, b ∈ P genau dann gleich sind, wenn für alle i ∈ I πi(a) = πi(b) gilt. Beweis. (2) ∀ i ∈ I : πi(a) = πi(b) ⇒ ∀ i ∈ I : πi ◦ f = πi ◦ g ⇒ f = g ⇒ a = f () = g() = b. o Aufgabe 2.1 Sei P = Xi∈I Ai (s.o.) und πi(f ) =def f (i) für alle i ∈ I und f ∈ P . Zeigen Sie, dass (P, (πi)i∈I ) ein Produkt von A ist, wenn die Extension von (fi : B → Ai)i∈I wie folgt definiert wird: • Für alle b ∈ B und i ∈ I, hfiii∈I (b)(i) =def fi(b). o Satz 2.2 (Produkte sind bis auf Isomorphie eindeutig) (i) Seien (P, π) und (P 0, π 0) Produkte von A. Dann sind P und P 0 isomorph. (ii) Sei (P, π) ein Produkt von A, P 0 eine Menge und h : P 0 → P eine bijektive Abbildung. 22 Dann ist (P 0, π 0) mit π 0 = (πi ◦ h)i∈I ebenfalls ein Produkt von A. Beweis von (i). Um die Extensionen auf P ersten von denen auf P 0 zu unterscheiden, wird die schließende Klammer letzterer gestrichelt. Sei h =def hπii0i∈I : P → P 0 und h0 =def hπi0 ii∈I : P 0 → P . Dann gilt (1) (1) (1) (1) πi ◦ h0 ◦ h = πi ◦ hπi0 ii∈I ◦ hπii0i∈I = πi0 ◦ hπii0i∈I = πi, πi0 ◦ h ◦ h0 = πi0 ◦ hπii0i∈I ◦ hπi0 ii∈I = πi ◦ hπi0 ii∈I = πi0 für alle i ∈ I, also h0 ◦ h = idP und h ◦ h0 = idP 0 wegen (2). Beweis von (ii). Sei f = (fi : B → Ai)i∈I und g =def h−1 ◦ hfiii∈I : B → P 0. g erfüllt (1) mit π 0 anstelle von π: Für alle i ∈ I, (1) πi0 ◦ g = πi ◦ h ◦ g = πi ◦ h ◦ h−1 ◦ hfiii∈I = πi ◦ hfiii∈I = fi. g ist eindeutig: Sei g 0 : B → P 0 eine weitere Funktion, die (1) erfüllt, für die also πi0 ◦ g 0 = fi für alle i ∈ I gilt. Daraus folgt πi ◦ h ◦ g = πi0 ◦ g = fi = πi0 ◦ g 0 = πi ◦ h ◦ g 0, also h ◦ g = h ◦ g 0 wegen (2) und damit g = h−1 ◦ h ◦ g = h−1 ◦ h ◦ g 0 = g 0. o 23 Sei (P, π) ein Produkt von (Ai)i∈I , (P 0, π 0) ein Produkt von (Bi)i∈I und f = (fi : Ai → Bi)i∈I . Die Funktion Y fi =def hfi ◦ πii : P → P 0 i∈I heißt Produkt von f . Daraus folgt πk ◦ ( Y f i ) = f k ◦ πk i∈I für alle k ∈ I. Sei I eine nichtleere Menge und n > 0. f I =def Q i∈I [n] f, f1 × · · · × fn =def f . Aufgabe 2.3 Zeigen Sie, dass im Fall P = Xi∈I Ai und P 0 = Xi∈I Bi (siehe Aufgabe 2.1) für Q alle f ∈ P ( i∈I fi)(f ) mit λi.fi ◦ f übereinstimmt. o 24 Vom Produkt kommt man zur Summe, indem man alle Funktionspfeile umdreht: Sei A = (Ai)i∈I ein Mengentupel, S eine Menge und ι = (ιi : Ai → S)i∈I ein Funktionstupel. Das Paar (S, ι) heißt Summe oder Coprodukt von A, wenn es für alle Tupel f = (fi : Ai → B)i∈I genau eine Funktion g : S → B gibt mit g ◦ ιi = fi (3) für alle i ∈ I. ιi heißt i-te Injektion von S und g Summenextension oder Domain-Tuplung von f . g wird mit [fi]i∈I und im Fall I = [n], n > 1, auch mit [f1, . . . , fn] bezeichnet. Demnach ist im Fall I = ∅ eine Menge S genau dann eine Summe, wenn es zu jeder Menge B genau eine Funktion von S nach B gibt, wenn also S die leere Menge ist. Wegen der Eindeutigkeit von Summenextensionen sind zwei Funktionen f, g : S → B genau dann gleich, wenn ihre Summenkomponenten paarweise miteinander übereinstimmen: (∀ i ∈ I : f ◦ ιi = g ◦ ιi) ⇒ f = g. (4) Aus (4) folgt, dass für alle a ∈ S genau ein Paar (b, i) mit ιi(b) = a existiert. 25 Beweis. Gäbe es a ∈ S \ S i∈I ιi (Ai ), dann würden f = λx.0 : S → 2 und g = (λx.if x ∈ S \ {a} then 0 else 1) : S → 2 (4) verletzen, weil für alle i ∈ I und b ∈ Ai Folgendes gilt: (f ◦ ιi)(b) = f (ιi(b)) = 0 = g(ιi(b)) = (g ◦ ιi)(b). Für alle i ∈ I und a ∈ Ai sei fi(a) = (a, i). Dann gilt für alle i, j ∈ I, a ∈ Ai und b ∈ Aj mit ιi(a) = ιj (b): (3) (a, i) = fi(a) = ([fi]i∈I ◦ ιi)(a) = [fi]i∈I (ιi(a)) = [fi]i∈I (ιj (b)) = ([fi]i∈I ◦ ιj )(b) (3) = fj (b) = (b, j). o Aufgabe 2.4 U Sei S = i∈I Ai (s.o.) und ιi(a) =def (a, i) für alle i ∈ I und a ∈ Ai. Zeigen Sie, dass (S, (ιi)i∈I ) eine Summe von A ist, wenn die Extension von (fi : Ai → B)i∈I wie folgt definiert wird: Für alle i ∈ I und a ∈ Ai, [fi]i∈I (a) =def fi(a). o Aufgabe 2.5 S Sei S = i∈I Ai und ιi(a) =def a für alle i ∈ I und a ∈ Ai. Zeigen Sie, dass (S, (ιi)i∈I ) eine Summe von A ist, falls A aus paarweise disjunkten Mengen besteht. o 26 Aufgabe 2.6 Sei A eine Menge, S = A∗ (s.o.) und ιn(a) =def a für alle n ∈ N und a = (a1, . . . , an) ∈ An. Zeigen Sie, dass (S, (ιn)n∈N) eine Summe von (An)n∈N ist. o Satz 2.7 (Summen sind bis auf Isomorphie eindeutig) (i) Seien (S, ι) und (S 0, ι0) Summen von A. Dann sind P und P 0 isomorph. (ii) Sei (S, ι) eine Summe von A, S 0 eine Menge und h : S → S 0 eine bijektive Abbildung. Dann ist (S 0, ι0) mit ι0 = (h ◦ ιi)i∈I ebenfalls eine Summe von A. Beweis. Analog zu Satz 2.2. Es müssen nur alle Funktionspfeile umgedreht werden. o Sei (S, ι) eine Summe von (Ai)i∈I , (S 0, ι0) eine Summe von (Bi)i∈I und f = (fi : Ai → Bi)i∈I . Die Funktion a fi =def [ι0i ◦ fi] : S → S 0 i∈I heißt Summe von f . 27 Daraus folgt ( a fi) ◦ ιk = ιk ◦ fk i∈I für alle k ∈ I. Sei n > 0. f + =def f ∗ =def f1 + · · · + fn =def [n] n∈N f , id1 + f +, ` ` i∈[n] fi . U U Aufgabe 2.8 Zeigen Sie, dass im Fall S = i∈I Ai und S 0 = i∈I Bi (siehe Aufgabe 2.4) ` für alle i ∈ I und a ∈ Ai ( i∈I fi)(a, i) mit (fi(a), i) übereinstimmt. o 28 Typen Sei S eine endliche Menge von – Sorten genannten – Symbolen und I eine Menge nichtleerer Indexmengen, die implizit die Mengen 1, 2 und [n], n > 1, enthält. Die Menge T (S, I) der I-polynomialen Typen über S ist die kleinste Menge von Ausdrücken mit folgenden Eigenschaften: • S ∪ I ⊆ T (S, I). ` Q • Für alle I ∈ I und {ei}i∈I ⊆ T (S, I), i∈I ei, i∈I ei ∈ T (S, I). Q ` Ein Typ der Form i∈I ei bzw. i∈I ei heißt Produkttyp bzw. Summentyp. Für alle I ∈ I, n > 1 und e, e1, . . . , en ∈ T (S, I) verwenden wir folgende Kurzschreibweisen: Q e1 × · · · × en =def i∈[n] ei , ` e1 + · · · + en =def i∈[n] ei , Q eI =def i∈I e, en =def e[n], e+ =def e + ` n>1 e + n , e∗ =def 1 + e . 29 Signaturen Eine Signatur Σ = (S, I, F ) besteht aus Mengen S und I wie oben sowie einer endlichen Menge F typisierter Funktionssymbole f : e → e0 mit e, e0 ∈ T (S, I), die üblicherweise Operationen genannt werden. dom(f ) = e heißt Domain, ran(f ) = e0 Range von f . f : e → e0 ∈ F heißt Konstruktor bzw. Destruktor, wenn e bzw. e0 zu S gehört. Σ heißt konstruktive bzw. destruktive Signatur, wenn F aus Konstruktoren bzw. Destruktoren besteht und für alle s ∈ S die Menge aller f ∈ F mit ran(f ) = s bzw. dom(f ) = s implizit zu I gehört. Die komponentenweise Vereinigung zweier Signaturen Σ und Σ0 wird mit Σ ∪ Σ0 bezeichnet. Konstruktoren dienen der Synthese von Elementen einer S-sortigen Menge, Destruktoren liefern Werkzeuge zu ihrer Analyse. Die abstrakte Syntax einer kontextfreien Grammatik (siehe Kapitel 4) ist eine konstruktive Signatur, während Parser, Interpreter und Compiler auf Automatenmodellen beruhen, die destruktive Signaturen interpretieren. 30 Die syntaktische Beschreibung jedes mathematischen Modells, das auf induktiv definierten Mengen basiert, kann als konstruktive Signatur formuliert werden. Solchen Modellen stehen die zustandsorientierten gegenüber, die Objekte nicht anhand ihres Aufbaus, sondern ausschließlich durch Beobachtung ihres Verhaltens voneinander unterscheiden. Dementsprechend werden aus den Operationssymbolen der jeweils zugrundeliegenden destruktiven Signatur keine Objekte, sondern Beobachtungsinstrumente zusammengesetzt. In den folgenden Beispielen steht hinter 1 die Trägermenge der initialen bzw. finalen Algebra der jeweiligen Signatur (siehe 2.11 und 2.17). Unter I listen wir nur die nicht implizit in I enthaltenen (1, 2 und [n]; s.o.) auf. Seien X, Y, X1, . . . , Xn, Y1, . . . , Yn, E1, . . . , En beliebige Mengen und BS eine endliche Menge von Basismengen, die ∅ und 1 enthält. 2.9 Konstruktive Signaturen • Mon 1 Unmarkierte binäre Bäume (Monoide sind Mon-Algebren; siehe 2.11.) S = {mon}, I = ∅, F = { one : 1 → mon, mul : mon × mon → mon }. 31 • Nat 1 N S = {nat}, I = ∅, F = { zero : 1 → nat, succ : nat → nat }. • Lists(X, Y ) 1 X ∗ × I S = {list}, I = {X, Y }, F = { nil : Y → list, cons : X × list → list }. • List(X) =def Lists(X, 1) 1 X ∗, alternativ: S = {list}, I = {X, N>1}, F = {[. . . ] : X ∗ → list}. • Bintree(X) 1 binäre Bäume endlicher Tiefe mit Knotenmarkierungen aus X S = {btree}, I = {X}, F = { empty : 1 → btree, bjoin : btree × X × btree → btree }. 32 • Tree(X) 1 Bäume endlicher Tiefe und endlichen Knotenausgrads mit Knotenmarkierungen aus X S = {tree, trees}, I = {X}, F = { join : X × trees → tree, nil : 1 → trees, cons : tree × trees → trees }. • Reg(BS) 1 reguläre Ausdrücke über BS S = { reg }, I = {BS}, F = { par : reg × reg → reg, seq : reg × reg → reg, iter : reg → reg, base : BS → reg }. (parallele Komposition) (sequentielle Komposition) (Iteration) (Einbettung der Basismengen) • CCS(Act) 1 Calculus of Communicating Systems (kommunizierende Prozesse) S = { proc }, I = {Act}, F = { pre : Act → proc, cho : proc × proc → proc, par : proc × proc → proc, res : proc × Act → proc, rel : proc × ActAct → proc }. (prefixing by an action) (choice) (parallelism) (restriction) (relabelling) 33 2.10 Destruktive Signaturen ∗ • DAut(X, Y ) 1 Y X = Verhalten deterministischer Moore-Automaten mit Eingabemenge X und Ausgabemenge Y S = { state }, (Zustandsmenge) I = { X, Y }, (Eingabemenge X und Ausgabemenge Y ) F = { δ : state → stateX , (Transitionsfunktion) β : state → Y }. (Ausgabefunktion) ∗ • Acc(X) =def DAut(X, 2) 1 P(X) ∼ = 2X = Verhalten deterministischer Akzeptoren von Sprachen über X • Stream(X ) =def DAut(1, X) 1 X N S = {stream}, I = {X}, F = { head : stream → X, tail : stream → stream }, alternativ: S = {stream}, I = {X, N}, F = {get : stream → X N}. • coList(X) 1 X ∗ ∪ X N S = {list}, I = {X}, F = {split : list → 1 + X × list}. 34 • Infbintree(X) 1 binäre Bäume unendlicher Tiefe mit Knotenmarkierungen aus X S = {btree}, I = {X}, F = { root : btree → X, left, right : btree → btree }. • coBintree(X) 1 binäre Bäume beliebiger Tiefe mit Knotenmarkierungen aus X S = {btree}, I = {X}, F = {split : btree → 1 + btree × X × btree}. • Inftree(X) 1 endlich verzweigende Bäume unendlicher Tiefe mit Knotenmarkierungen aus X S = {tree}, I = {X, N>1}, F = { root : tree → X, subtrees : tree → tree+ }. • FBtree(X) 1 endlich verzweigende Bäume beliebiger Tiefe mit Knotenmarkierungen aus X S = {tree}, I = {X, N>1}, F = { root : tree → X, subtrees : tree → tree∗ }. 35 • coTree(X) 1 beliebig verzweigende Bäume beliebiger Tiefe mit Knotenmarkierungen aus X S = { tree }, I = {X}, F = { root : tree → X, subtrees : tree → trees, split : trees → 1 + tree × trees }. ∗ • PAut(X, Y ) 1 (1 + Y )X = Verhalten partieller Moore-Automaten S = {state}, I = {X, Y }, F = { δ : state → (1 + state)X , β : state → Y }. ∗ • NAut(X, Y ) 1 (Y ∗)X = Verhalten nichtdeterministischer (bildendlicher) Moore-Automaten S = { state }, I = {X, Y, N>1}, F = { δ : state → (state∗)X , β : state → Y }. • SAut(X) 1 ([0, 1] × Y )∗ = Verhalten stochastischer Automaten ohne Eingabe S = { state }, I = {Y, [0, 1], N>1}, F = { δ : state → ([0, 1] × state)∗, β : state → Y }. 36 • Proctree(Act) 1 Prozessbäume, deren Kanten mit Aktionen markiert sind S = { state }, I = {Act, N>1}, F = { δ : tree → (Act × tree)∗ }. + • Mealy(X, Y ) 1 Y X = Verhalten von Mealy-Automaten S = {state}, I = {X, Y }, F = { δ : state → stateX , β : state → Y X }. + Y X ist isomorph zur Menge der kausalen Stromfunktionen f : X ∗ → Y ∗. f heißt kausal, wenn für alle s, s0 ∈ AN and n ∈ N Folgendes gilt: take(n)(s) = take(n)(s0) ⇒ f (s)(n) = f (s0)(n). • Class(I) 1 Verhalten von n Methoden einer Objektklasse [17] S = { state }, I = { X1, . . . , Xn, Y1, . . . , Yn, E1, . . . , En }, F = { mi : state → ((state × Yi) + Ei)Xi | 1 ≤ i ≤ n }. 37 Algebren Seien S und I wie oben. Eine T (S, I)-sortige Menge A heißt typverträglich, wenn für alle I ∈ I, AI mit I übereinstimmt und es für alle {ei}i∈I ⊆ T (S, I) Funktionstupel π = (πi : AQi∈I ei → Aei )i∈I und ι = (ιi : Aei → A`i∈I ei )i∈I gibt derart, dass (AQi∈I ei , π) ein Produkt und (A`i∈I ei , ι) eine Summe von (Aei )i∈I ist. Für alle e ∈ T (S, I) und a ∈ Ae nennen wir e den Typ von a. Das Typlifting einer S-sortigen Menge A ist Erweiterung von A zu einer typverträglichen T (S, I)-sortigen Menge, die entsteht, wenn man Indexmengen, Produkte und Summen wie folgt interpretiert: Für alle I ∈ I und {ei}i∈I ⊆ T (S, I), AI = I, AQi∈I ei = Xi∈I Aei , U A`i∈I ei = i∈I Aei . Aufgabe Sei A typverträglich. Zeigen Sie, dass für alle I ∈ I, n > 1 und e, e1, . . . , en ∈ T (S, I) Folgendes gilt: 38 Ae1×···×en Ae1+···+en AeI Aen Ae+ Ae∗ ∼ = ∼ = ∼ = ∼ = ∼ = ∼ = Ae1 × . . . × Aen , Ae1 + · · · + Aen , AIe , Ane, A+ e, A∗e . o Seien A, B typverträgliche T (S, I)-sortige Mengen. Eine T (S, I)-sortige Funktion h : A → B heißt typverträglich, wenn für alle I ∈ I und {ei}i∈I ⊆ T (S, I) Folgendes gilt: • hI = idI , Q ` • hQi∈I ei = i∈I hei und h`i∈I ei = i∈I hei . (1) (2) Das Typlifting einer S-sortigen Funktion h : A → B ist die – ebenfalls mit h bezeichnete – Erweiterung von h zu einer typverträglichen T (S, I)-sortigen Funktion. Aufgabe Sei h typverträglich. Zeigen Sie, dass für alle I ∈ I, n > 0 und e, e1, . . . , en ∈ T (S, I) Folgendes gilt: 39 he1×···×en he1+···+en heI hen he+ he∗ = = = = = = he1 × . . . × hen , he1 + · · · + hen , hIe , [n] he , h+ e, h∗e . o Sei Σ = (S, I, F ) eine Signatur. Eine Σ-Algebra A = (A, Op) besteht aus einer typverträglichen T (S, I)-sortigen Menge A und einer F -sortigen Menge Op = (f A : Ae → Ae0 )f :e→e0∈F von Funktionen, den Operationen von A. Für alle e ∈ T (S, I) heißt Ae Trägermenge (carrier set) oder Interpretation von e in A. Für alle f : e → e0 ∈ F heißt f A : Ae → Ae0 Interpretation von f in A. Im Fall |Ae| = 1 schreibt man f A anstelle von f A(a). Häufig wird auch die Vereinigung aller Trägermengen von A mit A bezeichnet! AlgΣ bezeichnet die Klasse aller Σ-Algebren. Algebren destruktiver Signaturen werden auch Coalgebren genannt. 40 Seien A, B Σ-Algebren. Das Typlifting einer S-sortigen Funktion h : A → B heißt ΣHomomorphismus, wenn für alle f : e → e0 ∈ F he0 ◦ f A = f B ◦ he gilt. Ist h bijektiv, dann heißt h Σ-Isomorphismus und A und B sind Σ-isomorph. h induziert die Bildalgebra h(A): • Für alle e ∈ T (S, I), h(A)e =def he(Ae). • Für alle f : e → e0 ∈ F und a ∈ Ae, f h(A)(h(a)) =def f B (h(a)). Algebra-Beispiele Die Menge der natürlichen Zahlen ist Trägermenge der Nat-Algebra NN = (A, Op = {zeroNN : 1 → N, succNN : N → N}) und auch der List(1)-Algebra NL = (B, Op = {nilNL : 1 → N, consNL : 1 × N → N}), die wie folgt definiert sind: 41 Anat = Blist = N und für alle n ∈ N, zeroNN succNN (n) nilNL consNL(n) = = = = 0, n + 1, 0, n + 1. Die Menge der Wörter über einer Menge X ist Trägermenge der List(X)-Algebra SL(X ) = (A, Op = {nilSL : 1 → X ∗, consSL : X × X ∗ → X ∗}) und auch der Mon-Algebra SM (X ) = (B, Op = {oneSM (X ) : 1 → X ∗, mulSM (X ) : X ∗ × X ∗ → X ∗}), die wie folgt definiert sind: Alist = Bmon = X ∗ und für alle x ∈ X und v, w ∈ X ∗, nilSL(X ) consSL(X )(x, w) oneSM (X ) mulSM (X )(v, w) = = = = , xw, , v · w. Die Menge X X der Funktionen von X nach X ist Trägermenge der Mon-Algebra FM (X ) = (A, Op = {oneFM (X ) : 1 → X X , mulFM (X ) : X X × X X → X X }), 42 die wie folgt definiert ist: Amon = X X und für alle f, g : X → X, oneFM (X ) = idX , mulFM (X )(f, g) = g ◦ f. Eine Mon-Algebra A heißt Monoid, wenn mulA assoziativ und oneA ein links- und rechtsneutrales Element bzgl. mulA ist. Demnach sind SM(X) und FM(X) Monoide. Die folgende Stream(Z)-Algebra zo repräsentiert die Ströme 0, 1, 0, 1, . . . und 1, 0, 1, 0, . . . : zostream headzo(Blink ) tailzo(Blink ) headzo(Blink 0) tailzo(Blink 0) = = = = = {Blink , Blink 0}, 0, Blink 0, 1, Blink . Die folgende Acc(Z)-Algebra eo dient der Erkennung der Parität der Summe von Zahlenfolgen (siehe Beispiel 2.23) und ist wie folgt definiert: eostate δ eo(Esum) δ eo(Osum) β eo = = = = {Esum, Osum}, λx.if even(x) then Esum else Osum, λx.if odd(x) then Esum else Osum, λst.if st = esum then 1 else 0. o 43 2.12 Terme und Coterme Sei Σ = (S, I, F ) eine Signatur, V eine S-sortige Menge, [ [ XΣ =def I ∪ {sel} und YΣ,V =def I ∪ V ∪ {tup}. Im Folgenden verwenden wir die im Abschnitt Mengen und Typen eingeführte Notation für deterministische Bäume. Sei Σ konstruktiv. CTΣ(V ) bezeichnet die größte T (S, I)-sortige Menge M von Teilmengen von dtr(XΣ, YΣ,V ) mit folgenden Eigenschaften: • Für alle I ∈ I, MI = I. (1) • Für alle s ∈ S und t ∈ Ms gehört t zu Vs (2) oder gibt es c : e → s ∈ F und t0 ∈ Me mit t = c{sel → t0}. (3) • Für alle I ∈ I, {ei}i∈I ⊆ T (S, I), t ∈ MQi∈I ei und i ∈ I gibt es ti ∈ Mei mit t = tup{i → ti | i ∈ I}. (4) • Für alle I ∈ I, {ei}i∈I ⊆ T (S, I) und t ∈ M`i∈I ei gibt es i ∈ I und t0 ∈ Mei mit t = i{sel → t0}. (5) 44 (1) (2/6) (3/7) (4) (5) Knoten und Kanten eines Σ-Terms. Neben jedem Knoten n steht der Typ von Termen mit Wurzel n. CTΣ(V ) ist typverträglich. Beweis. Für all I ∈ I und {ei}i∈I ⊆ T (S, I) ist (CTΣ(V )Qi∈I , π) mit πi({tup → ti | i ∈ I}) =def ti und ti ∈ CTΣ(V )ei ein Produkt und (CTΣ(V )`i∈I , ι) mit ιi(t) =def i{sel → t} und t ∈ CTΣ(V )ei eine Summe von (CTΣ(V )i)i∈I . o Die Elemente von CTΣ(V ) heißen Σ-Terme über V . 45 Die Elemente von CTΣ =def CTΣ(∅) heißen Σ-Grundterme. Aufgabe Zeigen Sie, dass TΣ(V ) =def CTΣ(V ) ∩ wdtr(XΣ, YΣ,V ) die kleinste T (S, I)sortige Menge M von Teilmengen von dtr(XΣ, YΣ,V ) mit (1) und folgenden Eigenschaften ist: • Für alle s ∈ S, Vs ⊆ Ms. (6) • Für alle c : e → s ∈ F und t ∈ Me gehört c{sel → t} zu Ms. (7) • Für alle I ∈ I, {ei}i∈I ⊆ T (S, I) und ti ∈ Mei , i ∈ I, gehört tup{i → ti | i ∈ I} zu (8) MQi∈I ei . • Für alle I ∈ I, {ei}i∈I ⊆ T (S, I), i ∈ I und t ∈ Mei gehört i{sel → t} zu M`i∈I ei . (9) TΣ(V ) und CTΣ(V ) sind die Trägermengen von Σ-Algebren (s.u.). Darüberhinaus sind wohlfundierte Σ-Terme Bestandteile von Formeln wie z.B. den in Kapitel 18 iterativen Gleichungen wie (1) in Abschnitt 2.13. 46 Sei Σ destruktiv. DTΣ(V )bezeichnet die größte T (S, I)-sortige Menge M von Teilmengen von dtr(XΣ, YΣ,V ) mit (1), (4), (5) und folgender Eigenschaft: • Für alle s ∈ S und t ∈ Ms gibt es x ∈ Vs und für alle d : s → e ∈ F gibt es td ∈ Me mit t = x{d → td | d : s → e ∈ F }. (10) (1) (10/11) (4) (5) Knoten und Kanten eines Σ-Coterms. Neben jedem Knoten n steht der Typ von Cotermen mit Wurzel n. Die Elemente von DTΣ(V ) heißen Σ-Coterme über V . 47 Die Elemente von DTΣ =def DTΣ(1) heißen Σ-Grundcoterme. Aufgabe Zeigen Sie, dass coTΣ(V ) =def DTΣ(V ) ∩ wdtr(XΣ, YΣ,V ) die kleinste T (S, I)sortige Menge M von Teilmengen von dtr(XΣ, YΣ,V ) mit (1), (8), (9) und folgender Eigenschaft ist: • Für alle s ∈ S, x ∈ Vs, d : s → e ∈ F und td ∈ Me gehört x{d → td | d : s → e ∈ F } zu Ms. (11) Demgegenüber bezeichnet TΣ(V ) die kleinste T (S, I)-sortige Menge M von Teilmengen von dtr(XΣ, YΣ,V ) mit (1), (8), (9) und folgender Eigenschaft: • Für alle s ∈ S, d : s → e ∈ F und td ∈ Me gehört {d → td | d : s → e ∈ F } zu Ms. (12) Wie im Fall einer konstruktiven Signatur werden die Elemente von TΣ(V ) (wohlfundierte) Σ-Terme über V genannt. coTΣ(V ) und DTΣ(V ) sind die Trägermengen von Σ-Algebren (s.u.). Im Gegensatz zu Σ-Termen kommen Σ-Coterme in Formeln nicht vor. Stattdessen werden auch im Fall einer destruktiven Signatur nur wohlfundierte Σ-Terme in Formeln verwendet wie z.B. den Gleichungen (2) und (3) von Abschnitt 2.13. 48 Zur Vereinfachung der Wortdarstellung deterministischer Bäume verwenden wir die folgenden Abkürzungen: Sei c ∈ YΣ,V und n > 1. c steht für c{sel → }, c(t) steht für c{sel → t}, c(t1, . . . , tn) steht für c{sel → tup{1 → t1, . . . , n → tn}}, c{. . .} steht für c{sel → tup{. . .}}, {. . .} steht für {. . .}. 2.13 Beispiele Sei Σ = Nat (siehe 2.9). CTΣ,nat ist die größte Teilmenge M von dtr(XΣ, YΣ,V ) mit folgender Eigenschaft: • Für alle t ∈ M gilt t = zero oder gibt es u ∈ M mit t = succ(u). TΣ,nat ist die kleinste Teilmenge M von dtr(XΣ, YΣ,V ) mit folgenden Eigenschaften: • zero ∈ M . • Für alle t ∈ M , succ(t) ∈ M . 49 Sei Σ = List(X) (siehe 2.9). CTΣ,list ist die größte Teilmenge M von dtr(XΣ, YΣ,V ) mit folgender Eigenschaft: • Für alle t ∈ M gilt t = nil oder gibt es x ∈ X und u ∈ M mit t = cons(x, u). TΣ,list ist die kleinste Teilmenge M von dtr(XΣ, YΣ,V ) mit folgenden Eigenschaften: • nil ∈ M . • Für alle x ∈ X und t ∈ M , cons(x, t) ∈ M . Sei V = {blink, blink 0}. Die folgenden iterativen Gleichungen zwischen List(Z)-Termen über V haben eine eindeutige Lösung in CTList(Z) (siehe Kapitel 18): blink = cons(0, blink 0), blink 0 = cons(1, blink). (1) Deshalb definiert (1) blink und blink 0 als zwei Elemente von CTList(Z). Als eindeutige Lösungen iterativer Gleichungen repräsentierbare unendliche Terme heißen rational. Sei Σ = Reg(BS) (siehe 2.9). TΣ,reg ist die kleinste Teilmenge M von dtr(XΣ, YΣ,V ) mit folgenden Eigenschaften: • Für alle t, u ∈ M , par(t, u), seq(t, u) ∈ M . • Für alle t ∈ M , iter(t) ∈ M . 50 • Für alle B ∈ BS, base(B) ∈ M . Sei Σ = Stream(X) (siehe 2.10). DTΣ,stream ist die größte Teilmenge M von dtr(XΣ, YΣ,V ) mit folgender Eigenschaft: • Für alle t ∈ M gibt es x ∈ X und t0 ∈ M mit t = {head → x, tail → t0} ∈ M . ε head tail 0 ε tail head 1 ε head 2 tail ε Stream(N)-Coterm, der den Strom aller natürlichen Zahlen darstellt Sei V = {blink, blink 0}. Da zo eine Stream(Z)-Algebra (siehe 2.11) und DTStream(Z) eine finale Stream(Z)-Algebra ist (s.u.), lösen die Coterme unfold zo(Blink ) und unfold zo(Blink 0) die folgenden Gleichungen zwischen Stream(Z)-Cotermen über V eindeutig in blink bzw. blink 0: 51 blink = {head → 0, tail → blink 0}, blink 0 = {head → 1, tail → blink} (2) (siehe Kapitel 18). Deshalb definiert (2) blink und blink 0 als zwei Elemente von DTStream(Z). Als eindeutige Lösungen iterativer Gleichungen repräsentierbare unendliche Coterme heißen rational. Sei Σ = Colist(X) (siehe 2.10). DTΣ,list ist die größte Teilmenge M von dtr(XΣ, YΣ,V ) mit folgender Eigenschaft: • Für alle t ∈ M gilt t = {split → 1} oder gibt es x ∈ X und u ∈ M mit t = {split → 2{1 → x, 2 → u}}. Sei Σ = DAut(X, Y ) (siehe 2.10). DTΣ,state ist die größte Teilmenge M von dtr(XΣ, YΣ,V ) mit folgender Eigenschaft: • Für alle t ∈ M und x ∈ X gibt es tx ∈ M und y ∈ Y mit t = {δ → tup{x → tx | x ∈ X}, β → y}. 52 ε β 0 δ 1 β ε x y ε 0 tup x z ε y δ ε tup β z δ tup ε δ ε ε x 1 β tup x z ε ε z ε y ε y ε Acc({x, y, z})-Coterm, der einen Akzeptor der Sprache {w ∈ {x, y, z}∗ | w enthält x oder z} darstellt Sei V = {esum, osum}. Da eo eine Acc(Z)-Algebra (siehe 2.11) und DTAcc(Z) eine finale Acc(Z)-Algebra ist (s.u.), lösen die Coterme unfold eo(Esum) und unfold eo(Osum) die folgenden iterativen Gleichungen zwischen Acc(Z)-Cotermen über V eindeutig in esum bzw. esum: 53 esum = {δ → tup({x → esum | x ∈ even} ∪ {x → osum | x ∈ odd}), β → 1}, osum = {δ → tup{x → osum | x ∈ even} ∪ {x → esum | x ∈ odd}), β → 0}. even und odd bezeichnen die Mengen der geraden bzw. ungeraden ganzen Zahlen. (3) o CTΣ(V ) und DTΣ(V ) sind Σ-Algebren Sei Σ = (S, I, C) eine konstruktive Signatur. CTΣ(V ) wird wie folgt zur Σ-Algebra erweitert: • Für alle c : e → s ∈ C, t ∈ CTΣ(V )e, cCTΣ(V )(t) =def c{sel → t}. • Für alle I ∈ I, ti ∈ CTΣ(V )ei , i ∈ I, and k ∈ I, πk (tup{i → ti | i ∈ I}) =def tk . • Für alle I ∈ I, i ∈ I and t ∈ CTΣ(V )ei , ιi(t) =def i{sel → t}. Sei Σ = (S, I, D) eine destruktive Signatur. DTΣ(V ) wird wie folgt zur Σ-Algebra erweitert: • Für alle s ∈ S, x ∈ Vs and td ∈ DTΣ(V )e, d : s → e ∈ D, and d0 : s → e0, d0DTΣ(V )(x{d → td | d : s → e ∈ D}) =def td0 . 54 • Für alle I ∈ I, ti ∈ DTΣ(V )ei , i ∈ I, and k ∈ I, πk (tup{i → ti | i ∈ I}) =def tk . • Für alle I ∈ I, i ∈ I and t ∈ DTΣ(V )ei , ιi(t) =def i{sel → t}. Die Interpretation von Destruktoren in DTΣ(V ) machen Coterme zu eier Art analytischer Funktionen: Zwei Coterme t, t0 ∈ DTΣ(V )s sind genau dann gleich, wenn die “Anfangswerte” t() und t0() und für alle d : s → e die “Ableitungen” dDTΣ(V )(t) und dDTΣ(V )(t0) miteinander übereinstimmen. Die atomaren Formeln der Prädikatenlogik sind aus Σ-Termen und Prädikaten (= Relationssymbolen) zusammengesetzt. Prinzipiell kommt man dort mit einer einzigen Sorte aus, muss dann aber die Trennung zwischen mehreren Datenbereichen durch die Einführung eines einstelligen Prädikats für jeden Datenbereich wiedergeben. So entspricht z.B. die Sorte nat der Signatur Nat (siehe 2.9) das Prädikat isNat mit den Axiomen isNat(zero), isNat(x) ⇒ isNat(succ(x)). (1) (2) Im Rahmen einer Nat umfassenden Signatur Σ wäre ein Σ-Term t genau dann ein NatGrundterm des Typs nat, wenn isNat(t) mit Inferenzregeln der Prädikatenlogik aus (1) und (2) ableitbar ist. 55 2.14 Die Algebren Bool und Regword (BS) (siehe 2.9) Die Menge 2 = {0, 1} ist Trägermenge der Reg(BS)-Algebra Bool : Für alle x, y ∈ 2 und B ∈ BS \ 1, parBool (x, y) seq Bool (x, y) iterBool (x) baseBool (1) baseBool (B) = = = = = max{x, y}, x ∗ y, 1, 1, 0. Die üblichen Wortdarstellungen regulärer Ausdrücke e wie z.B. aab∗ + c(aN)∗ bilden die Reg(BS)-Algebra Regword (BS): Sei syms(BS) = {+,∗ , (, )} ∪ {B | B ∈ BS}. Im Fall |B| = 1 setzen wir B mit dem einen Element von B gleich. Ob ein Teilausdruck e geklammert werden muss oder nicht, hängt von der Priorität des Operationssymbols f ab, zu dessen Domain e gehört. Die Trägermenge von Regword (BS) besteht deshalb aus Funktionen, die, abhängig von der Priorität von f , die Wortdarstellung von e mit oder ohne Klammern zurückgibt: Regword (BS)reg = N → syms(BS)∗. 56 Aus den Prioritäten 0,1,2 von par, seq bzw. iter ergeben sich folgende Interpretation der Operationssymbole von Reg(BS): Für alle f, g : N → syms(BS)∗, B ∈ BS und w ∈ syms(BS)∗, parRegword (BS)(f, g) seq Regword (BS)(f, g) iterRegword (BS)(f ) baseRegword (BS)(B) enclose(True)(w) enclose(False)(w) = = = = = = λn.enclose(n > 0)(f (0) + g(0)), λn.enclose(n > 1)(f (1) g(1)), λn.enclose(n > 2)(f (2)∗), λn.B, (w), w. Ist die Funktion f : N → syms(BS)∗ das Ergebnis der Faltung eines Reg(BS)-Terms t in Regword (BS) (s.u.), dann liefert f (0) eine Wortdarstellung von t, die keine überflüssigen Klammern enthält. Regword(String) ist im Haskell-Modul Compiler.hs durch regWord implementiert. o 2.15 Die Algebren Beh(X, Y ), Pow (X), Lang(X) und Bro(BS) (siehe 2.10) Seien X und Y Mengen. 57 Funktionen von X ∗ nach Y nennen wir Verhaltensfunktionen (behavior functions). Sie bilden die Trägermenge folgender DAut(X, Y )-Algebra Beh(X, Y ): ∗ Beh(X, Y )state = Y X . Für alle f : X ∗ → Y , x ∈ X und w ∈ X ∗, δ Beh(X,Y )(f )(x)(w) = f (xw) und β Beh(X,Y )(f ) = f (). Beh(X, 2) ist im Haskell-Modul Compiler.hs durch behFun implementiert. ∗ Eine zu Beh(X, 2)state = 2X bijektive Menge ist die Potenzmenge P(X ∗) (siehe Mengen und Typen). Daraus ergibt sich die Acc(X)-Algebra Pow (X) mit Pow (X)state = P(X ∗). Für alle L ⊆ X ∗ und x ∈ X, ( δ Pow (X)(L)(x) = {w ∈ X ∗ | xw ∈ L} und β Pow (X)(L) = 1 falls ∈ L, 0 sonst. 58 ∗ Aufgabe Zeigen Sie, dass die Funktion χ : P(X ∗) → 2X , die jeder Teilmenge von X ∗ ihre charakteristische Funktion zuordnet (siehe Mengen und Typen), ein Acc(X)-Homomorphismus von Pow (X) nach Beh(X, 2) ist. o Sei BS eine endliche Menge von Basismengen, die ∅ und 1 enthält, und X = S BS \ 1. P(X ∗) ist nicht nur die Trägermenge der Acc(X)-Algebra Pow (X), sondern auch der folgendermaßen definierten Reg(BS)-Algebra Lang(X) der Sprachen über X: Lang(X)reg = P(X ∗). Für alle B ∈ BS und L, L0 ⊆ X ∗, parLang(X)(L, L0) seq Lang(X)(L, L0) iterLang(X)(L) baseLang(X)(B) = = = = L ∪ L0 , L · L0 , L∗, B. Anstelle von Lang(X) wird in Compiler.hs die Reg(BS)-Algebra regB mit der Trägermen∗ ge 2X implementiert. Sie macht χ zum Reg(BS)-Homomorphismus. Aufgabe Zeigen Sie, dass χ ein Reg(BS)-Homomorphismus von Lang(X) nach regB ist. o 59 Die Menge der Reg(BS)-Grundterme ist nicht nur eine Trägermenge der Reg(BS)-Algebra TReg(BS), sondern auch der wie folgt definierten Acc(X)-Algebra Bro(BS) (accT in Compiler.hs; siehe [2, 15]), die Brzozowski-Automat genannt wird: Bro(BS)state = TReg(BS),reg . Die Interpretationen von δ und β in Bro(BS) werden induktiv über dem Aufbau von Reg(BS)-Grundtermen definiert: Für alle t, u ∈ TReg(BS) und B ∈ BS \ 1, δ Bro(BS)(par(t, u)) = λx.par(δ Bro(BS)(t)(x), δ Bro(BS)(u)(x)), δ Bro(BS)(seq(t, u)) = λx.par(seq(δ Bro(BS)(t)(x), u), if β Bro(BS)(t) = 1 then δ Bro(BS)(u)(x) else reg(∅)), δ Bro(BS)(iter(t)) = λx.seq(δ Bro(BS)(t)(x), iter(t)), δ Bro(BS)(base(1)) = base(∅), δ Bro(BS)(base(B)) = λx.if x ∈ B then base(1) else base(∅), β Bro(BS)(par(t, u)) = max{β Bro(BS)(t), β Bro(BS)(u)}, β Bro(BS)(seq(t, u)) = β Bro(BS)(t) ∗ β Bro(BS)(u), β Bro(BS)(iter(t)) = 1, β Bro(BS)(base(1)) = 1, β Bro(BS)(base(B)) = 0. 60 2.16 Die Erreichbarkeitsfunktion Sei A = (A, Op) eine DAut(X, Y )-Algebra und Z = Astate. Die Erreichbarkeitsfunktion reachA : X ∗ → Z Z von A ist wie folgt induktiv definiert: Für alle x ∈ X und w ∈ X ∗, reachA() = idA, reachA(xw) = reachA(w) ◦ λa.δ A(a)(x). Der Definitionsbereich X ∗ von reachA ist Trägermenge der Mon-Algebra SM(X), der Wertebereich Z Z ist Trägermenge der Mon-Algebra FM(Z) (siehe 2.11). reachA ist Mon-homomorph: reachA(oneSM (X )) = reachA() = idA = oneFM (Z ). Für alle x ∈ X und v, w ∈ X ∗, reachA(mulSM (X )(, w)) = reachA(w) = reachA(w) = reachA(w) ◦ idA = reachA(w) ◦ reachA() = mulFM (Z )(reachA(), reachA(w)), reachA(mulSM (X )(xv, w)) = reachA(xvw) = reachA(x(mulSM (X )(v, w))) = reachA(mulSM (X )(v, w)) ◦ λa.δ A(a)(x) ind. hyp. = (mulFM (Z )(reachA(v), reachA(w)) ◦ λa.δ A(a)(x) 61 = (reachA(w) ◦ reachA(v)) ◦ λa.δ A(a)(x) = reachA(w) ◦ (reachA(v) ◦ λa.δ A(a)(x)) = reachA(w) ◦ reachA(xv) = mulFM (Z )(reachA(xv), reachA(w)). o 2.17 Termfaltung und Zustandsentfaltung Sei Σ = (S, I, C) eine konstruktive Signatur, A = (A, Op) eine Σ-Algebra, V eine S-sortige Menge von “Variablen” und g : V → A eine – Variablenbelegung (valuation) genannte – S-sortige Funktion. In Abhängigkeit von g wertet die wie folgt induktiv definierte T (S, I)-sortige Funktion g ∗ : TΣ(V ) → A, die Extension von g, wohlfundierte Σ-Terme über V in A aus: • Für alle • Für alle • Für alle • Für alle ∗ πk (gQ i∈I I ∈ I, gI∗ = idI . s ∈ S und x ∈ Vs, gs∗(x) = gs(x). c : e → s ∈ F und t ∈ TΣ(V )e, gs∗(c{sel → t}) = cA(ge∗(t)). I ∈ I und {ei}i∈I ⊆ T (S, I), ti ∈ TΣ(V )ei , i ∈ I, und k ∈ I, ∗ ei ({tup → ti | i ∈ I})) = gek (tk ). • Für alle I ∈ I, {ei}i∈I ⊆ T (S, I), k ∈ I und t ∈ TΣ(V )ek , ∗ ∗ g` ei (k{sel → t}) = ιk (gek (t)). i∈I (1) (2) (3) (4) (5) 62 Satz 2.18 ([32], Theorem FREE) g ∗ ist Σ-homomorph und der einzige Σ-Homomorphismus von TΣ(V ) nach A ist, der (2) erfüllt. Offenbar hängt die Einschränkung von g ∗ auf Grundterme nicht von g ab. Sie wird Termfaltung genannt und mit fold A bezeichnet. Umgekehrt stimmt g ∗ mit der Termfaltung fold A(g) : TΣ0 → A(g) überein, wobei Σ0 =def (S, I ∪ {Vs | s ∈ S}, C ∪ {vars : Vs → s | s ∈ S}) A(g) und A(g) ∈ AlgΣ0 definiert ist durch A(g)|Σ = A und vars = g für alle s ∈ S. Aus Satz 2.18 folgt sofort: fold A ist der einzige Σ-Homomorphismus von TΣ nach A. (6) Wegen (6) nennt man TΣ eine initiale Σ-Algebra. Wie die Produkt- oder Summeneigenschaft ist auch Initialität eine universelle Eigenschaft (vgl. Satz 2.2 bzw. 2.7): Alle initialen Σ-Algebren sind Σ-isomorph und jede zu einer initialen Σ-Algebra isomorphe Σ-Algebra ist initial. TΣ wird deshalb auch die initiale Σ-Algebra genannt. 63 Z.B. ist neben TNat auch NN eine initiale Nat-Algebra und neben TList(X) auch SL(X ) eine initiale List(X)-Algebra (siehe 2.11). Aufgabe Wie lauten die Isomorphismen von TNat nach NN bzw. von TList(X) nach SL? o Die Faltung fold Lang(X)(t) eines Reg(BS)-Grundterms – also eines regulären Ausdrucks – t in Lang(X) heißt Sprache von t (siehe 2.15). Umgekehrt nennt man L ⊆ X ∗ eine reguläre Sprache, wenn L zum Bild von fold Lang(X) gehört. Die Haskell-Funktion foldReg von Compiler.hs implementiert die Faltung fold A : TReg(BS) → A in einer beliebigen Reg(BS)-Algebra A. Aufgabe Zeigen Sie fold Bool = β Bro(BS). o Aufgabe Zeigen Sie durch Induktion über den Aufbau von Reg(BS)-Grundtermen, dass für alle t ∈ TReg(BS) die folgende Äquivalenz gilt: ∈ fold Lang(X)(t) ⇔ fold Bool (t) = 1. o 64 Sei Σ = (S, I, D) eine destruktive Signatur, A = (A, Op) eine Σ-Algebra, V eine S-sortige Menge von “Farben” und g : A → V eine – Färbung (coloring) genannte – S-sortige Funktion. In Abhängigkeit von g berechnet die wie folgt definierte T (S, I)-sortige Funktion g # : A → DTΣ(V ), die Coextension von g, zu jedem Zustand a ∈ A das Verhalten von a in Gestalt eines Σ-Coterms über V : • Für alle I ∈ I, gI# = idI . • Für alle s ∈ S und a ∈ As, gs#(a) = gs(a){d → ge#(dA(a)) | d : s → e ∈ D}. • Für alle I ∈ I, (ei)i∈I ∈ T (S, I) und a ∈ AQi∈I ei , # # gQ ei (a) = tup{i → gei (πi (a)) | i ∈ I}. i∈I • Für alle I ∈ I, {ei}i∈I ⊆ T (S, I), k ∈ I und a ∈ Aek , # # g` ei (ιk (a)) = k{sel → gek (a)}. i∈I (1) (2) (3) (4) Nicht g # selbst, wohl aber jedes einzelne Bild g #(a) : XΣ∗ (→ YΣ,V von g # ist induktiv definiert. So ist z.B. (2) eine Kurzform für: 65 falls w = , gs(a) gs#(a)(w) = ge#(dA(a))(w0) falls ∃ d : s → e ∈ D, w0 ∈ XΣ∗ : w = dw0, undefiniert sonst. Satz 2.19 ([32], Theorem COFREE) g # ist Σ-homomorph und der einzige Σ-Homomorphismus von A nach DTΣ(V ) ist, der für alle a ∈ A g #(a)() = g(a) erfüllt. Offenbar hängt die Einschränkung von g # auf Grundcoterme nicht von g ab. Sie wird Zustandsentfaltung genannt und mit unfold A bezeichnet. Umgekehrt stimmt g # mit der Zustandsentfaltung unfold A(g) : A(g) → DTΣ0 überein, wobei Σ0 =def (S, I ∪ {Vs | s ∈ S}, D ∪ {vars : s → Vs | s ∈ S}) A(g) und A(g) ∈ AlgΣ0 definiert ist durch A(g)|Σ = A und vars = g für alle s ∈ S. Aus Satz 2.19 folgt sofort: unfold A ist der einzige Σ-Homomorphismus von A nach DTΣ. (5) Wegen (5) nennt man DTΣ eine finale oder terminale Σ-Algebra. 66 Wie Initialität ist auch Finalität eine universelle Eigenschaft: Alle finalen Σ-Algebren sind Σ-isomorph und jede zu einer finalen Σ-Algebra isomorphe Σ-Algebra ist final. DTΣ wird deshalb auch die finale Σ-Algebra genannt. Z.B. ist neben DTStream(X) auch StreamFun(X ) eine finale Stream(X)-Algebra (siehe 17.5), neben DTDAut(X,Y ) auch Beh(X, Y ) eine finale DAut(X, Y )-Algebra und neben DTAcc(X) auch Pow (X) eine finale Acc(X)-Algebra (siehe 2.15). Beispiel 2.20 Sei Σ = DAut(X, Y ). Die Trägermengen von DTΣ und Beh(X, Y ) sind isomorph: Sei L = {(δ, x) | x ∈ X}. DTΣ besteht aus allen Funktionen von L∗ + L∗β nach 1 + Y , die für alle w ∈ L∗ w auf und wβ auf ein Element von Y abbilden, m.a.W.: DTΣ ∼ = 1 L∗ ×Y L∗ β ∼ = Y L∗ β L∗ β ∼ =X ∗ ∼ = ∗ YX . ξ : Beh(X, Y ) → DTΣ bezeichne den entsprechenden DAut(X, Y )-Isomorphismus. o Aufgabe Wie lautet der Isomorphismus zwischen DTAcc(X) und Pow (X)? o 67 Die Acc(X)-Algebra ist DTAcc(X) ist im Haskell-Modul Compiler.hs durch accC implementiert. Coterme kann man als verallgemeinerte Verhaltensfunktionen betrachten. Auch der Realisierungsbegriff von Abschnitt 2.11 lässt sich von Beh(X, Y ) auf beliebige destruktive Signaturen übertragen: Für alle Σ-Algebren, s ∈ S und a ∈ As, (A, a) realisiert t ∈ DTΣ,s ⇔def unfold A s (a) = t. Aufgabe Zeigen Sie, dass χ : P(X) → 2X ein Acc(X)-Homomorphismus von Pow (X) nach Beh(X, 2) ist. o Sei A = (A, Op) eine Acc(X)-Algebra. Da Pow (X) final ist, gibt es genau einen Acc(X)Homomorphismus unfoldP A : A → Pow (X). 68 Daraus ergeben sich folgende Äquivalenzen: fold Lang(X) ist Acc(X)-homomorph ⇔ fold Lang(X) = unfoldP Bro(BS) : TReg(BS) → P(X ∗) (1) (2) ⇔ unfoldP Bro(BS) ist Reg(BS)-homomorph. (3) Aufgabe Zeigen Sie (2), indem Sie (1) oder (3) beweisen. o (2) folgt auch aus der Form der Gleichungen, die Bro(BS) definieren (siehe Beispiel 17.10). Sei A = (A, Op) eine DAut(X, Y )-Algebra. Da Beh(X, Y ) final ist, gibt es genau einen DAut(X, Y )-Homomorphismus unfoldB A : A → Beh(X, Y ). unfoldB A ordnet jedem Zustand a ∈ Astate eine Verhaltensfunktion zu, die für jedes Eingabewort w ∈ X ∗ die Ausgabe desjenigen Zustandes zurückgibt, den A nach Verarbeitung von w erreicht hat: runA (a) βA unfoldB A(a) = X ∗ −→ Astate −→ Y. ∗ A X runA : Astate → AX state setzt die Transitionsfunktion δ : Astate → Astate auf Wörter fort: 69 Für alle a ∈ Astate, x ∈ X und w ∈ X ∗, runA(a)() =def a, runA(a)(xw) =def runA(δ A(a)(x))(w). (4) (5) runA ist die Erreichbarkeitsfunktion von 2.16 mit vertauschten Argumenten: runA(a)(w) = reachA(w)(a). Außerdem gilt für alle v, w ∈ X ∗: runA(a)(vw) = runA(runA(a)(v))(w). (6) (4) und (6) machen (die dekaskadierte Version von) runA zur Aktion des Monoids X ∗: Für eine beliebige Zustandsmenge Q und ein beliebiges Monoid M mit Multiplikation ∗ und neutralem Element e heißt eine Funktion (·) : Q × M → Q Aktion von M , wenn für alle q ∈ Q und m, m0 ∈ M Folgendes gilt: q · e = q, q · (m ∗ m0) = (q · m) · m0. (7) (8) Aufgabe Sei h der Isomorphismus von DTDAut(X,Y ) nach Beh(X, Y ). Zeigen Sie: runA = h ◦ id# A. o (9) 70 Initiale Automaten Sei a ∈ Astate. Man nennt das Paar (A, a) einen initialen Automaten, der die Verhaltensfunktion unfoldB A(a) : X ∗ → Y realisiert (siehe 2.15). Sei L ⊆ X ∗ und Y = 2. (A, a) erkennt oder akzeptiert L, wenn (A, a) die charakteristische Funktion χ(L) : X ∗ → 2 von L realisiert. ∗ Da χ : P(X ∗) → 2X Acc(X)-homomorph ist (s.o.) und Beh(X, 2) eine finale Acc(X)Algebra, stimmt unfoldB A mit χ ◦ unfoldP A überein. Folglich wird L ⊆ X ∗ genau dann von (A, a) erkannt, wenn L mit unfoldP A(a) übereinstimmt: unfoldP A(a) = L ⇔ χ(unfoldP A(a)) = χ(L) ⇔ unfoldB A(a) = χ(L) ⇔ (A, a) erkennt L. (6) Insbesondere gilt für jeden regulären Ausdruck t ∈ TReg(BS), dass der initiale Automat (Bro(BS), t) die Sprache von t erkennt: (Bro(BS), t) erkennt fold Lang(X)(t) (6) (2) ⇔ unfoldP Bro (BS)(t) = fold Lang(X)(t) ⇔ fold Lang(X)(t) = fold Lang(X)(t). 71 Damit erfüllt (Bro(BS), t) dieselbe Aufgabe wie der klassische Potenzautomat zur Erkennung der Sprache von t, der über den Umweg eines nichtdeterministischen Automaten mit -Übergängen aus t gebildet wird (siehe Beispiel 12.3). Übersicht über die oben definierten Reg(BS)- bzw. DAut(X, Y )-Algebren und ihre jeweiligen Implementierungen in Compiler.hs: 72 Signatur Reg(BS) Acc(X) TReg(BS) RegT TReg(BS) regT initial Bro(BS) accT P(X ∗) Lang(X) Trägermenge 2X ∗ YX 2 Algebra χ(Lang(X)) regB Pow (X) final χ(Pow (X)) Beh(X, 2) behFun final Beh(X, Y ) final ∗ N → syms(BS)∗ DAut(X, Y ) Regword (BS) regWord Bool 73 2.21 Compiler für reguläre Ausdrücke Im Folgenden werden wir einen Parser für die Wortdarstellung eines regulären Ausdrucks t mit dessen Faltung in einer beliebigen Reg(BS)-Algebra A verknüpfen und damit ein erstes Beispiel für einen Compiler erhalten, der die Elemente einer Wortmenge ohne den Umweg über Reg(BS)-Terme nach A – übersetzt. Werden reguläre Ausdrücke als Wörter syms(BS) (siehe 2.14) eingelesen, dann muss dem Erkenner fold χ(Lang(X))(t) eine Funktion parseREG : syms(BS)∗ → M (TReg(BS)) vorgeschaltet werden, die jedes korrekte Eingabewort w in einen oder mehrere Reg(BS)Terme t mit fold Regword (BS)(t)(0) = w überführt. M ist ein monadischer Funktor (siehe 5.1), der die Ausgabe des Parsers steuert und insbesondere Fehlermeldungen erzeugt, falls w keinem Reg(BS)-Term entspricht. REG steht hier für eine konkrete Syntax, d.h. eine kontextfreie Grammatik, deren Sprache mit dem Bild von TReg(BS) unter flip(fold Regword (BS))(0) übereinstimmt (siehe Beispiel 4.1). Sei X eine Menge, G eine kontextfreie Grammatik mit abstrakter Syntax Σ und Sprache L ⊆ X ∗. In Kapitel 5 werden wir einen generischen Compiler für L, der jedes Wort von L in Elemente einer Σ-Algebra A übersetzt, als natürliche Transformation compileG des konstanten Funktors const(X ∗) nach M M formulieren. 74 parseG ist diejenige Instanz von compileG, die Wörter von L in Syntaxbäume (= ΣT Grundterme) übersetzt: parseG = compileGΣ . Im Fall G = REG, Σ = Reg(BS), X = syms(BS) und M (A) = A+1 für alle Σ-Algebren A stimmt compileA G (w) mit der Faltung des durch w dargestellten regulären Ausdrucks t in der Reg(BS)-Algebra A überein: compile ist nat. Transformation T G compileA = M (fold A)(compileGReg(BS) (w)) G (w) = M (fold A)(parseG(w)) = (fold A + id1)(parseG(w)) = (fold A + id1)(parseG(fold Regword (BS)(t)(0))) = (fold A + id1)(t) = fold A(t). Im Haskell-Modul Compiler.hs ist compileREG durch die Funktion regToAlg implementiert, deren Zahlparameter eine von 8 Zielalgebren auswählt. 75 Im folgenden Diagramm sind die wichtigsten Beziehungen zwischen den behandelten Algebren und Homomorphismen zusammengefasst: parseREG 1 + fold Lang(X) 1+χ 1 + Lang(X) 1 + χ(Lang(X)) syms(BS) 1 + TReg(BS) ≺ f f f = = inc = inc inc Regword (BS) π1 ◦ fold + ∪ ∪ Bool≺≺ fold Bool = β Bro(BS) TReg(BS) w w w w w w w w w fold Lang(X) = Bro(BS) unfold δ Bro(BS) g Bro(BS)X Bro(BS) Lang(X) w w w w w w w w w Pow (X) δ Pow (X) g Pow (X)X ∪ χ(Lang(X)) w w w w w w = w w w χ χ Beh(X, 2) δ Beh(X,2) g Beh(X, 2)X 76 2.22 Minimale Automaten Wie zeigt man, dass initiale Automaten bestimmte Verhaltensfunktionen realisieren bzw. Sprachen erkennen? Sei A = (A, Op) eine Acc(X)-Algebra, und f : A → P(X ∗). Da Pow (X) eine finale Acc(X)-Algebra ist (s.o.), erkennt für alle a ∈ Astate der initiale Automat (A, a) genau dann die Sprache f (a), wenn f Acc(X)-homomorph ist. Beispiel 2.23 Sei Pn L = {(x1, . . . , xn) ∈ Z | i=1 xi ist gerade}, P n L0 = {(x1, . . . , xn) ∈ Z∗ | i=1 xi ist ungerade}. ∗ Die Funktion h : eo → Pow (X) (siehe 2.11) mit h(Esum) = L und h(Osum) = L0 ist Acc(Z)-homomorph. Also wird L vom initialen Automaten (eo, Esum) und L0 vom initialen Automaten (eo, Osum) erkannt. o Sei (A, a) ein initialer Automat. Die Elemente der Menge hai =def runA(a)(X ∗) heißen Folgezustände von a in A. 77 Satz 2.24 Sei A = (A, Op) eine DAut(X, Y )-Algebra. (i) Für alle a ∈ A ist hai die (Trägermenge der) kleinste(n) DAut(X, Y )-Unteralgebra von A (siehe Kapitel 3), die a enthält. (ii) Für alle Σ-Homomorphismen h : A → B gilt h(hai) = hh(a)i. (iii) Für alle f : X ∗ → Y ist (hf i, f ) eine minimale Realisierung von f . Beweis. (i): Wir zeigen zunächst durch Induktion über |w|, dass für alle a ∈ A, x ∈ X und w ∈ X ∗ Folgendes gilt: runA(a)(wx) = δ A(runA(a)(w))(x). (5) (7) (4) runA(a)(x) = runA(a)(x) = runA(δ A(a)(x))() = δ A(a)(x). Für alle y ∈ X, (5) runA(a)(ywx) = runA(δ A(a)(y))(wx) ind. hyp. = δ A(runA(δ A(a)(y))(w))(x) (5) = δ A(runA(yw))(x) Wegen (7) gilt δ A(b)(x) ∈ hai für alle b ∈ hai und x ∈ X. Also ist hai eine Unteralgebra von A. Sei B eine Unteralgebra von A, die a enthält. Durch Induktion über |w| erhält man aus (4) und (5), dass runA(a)(w) für alle w ∈ X ∗ zu B gehört. Also ist hai die kleinste Unteralgebra von A, die a enthält. 78 (ii): Da h Σ-homomorph ist, ist h auch mit run verträglich (s.o.), d.h. für alle w ∈ X ∗ gilt h(runA(a)(w)) = runB (h(a))(w). Daraus folgt sowohl h(hai) ⊆ hh(a)i als auch hh(a)i ⊆ h(hai). ∗ (iii): Da Beh(X, Y ) final ist, stimmt unfold B Beh(X,Y ) (s.o.) mit der Identität auf Y X überein. Also ist unfold B Beh(X,Y )(f ) = f und damit (hf i, f ) wegen (i) ein initialer Automat, der f realisiert. Sei (A = (A, Op), a) ein initialer Automat, der f realisiert. Wegen (ii) ist h : hai → hunfoldB A(a)i mit h(b) =def unfoldB A(b) für alle b ∈ hai wohldefiniert und surjektiv. Daraus folgt |hf i| = |hunfoldB A(a)i| ≤ |hai| ≤ |A|. o 79 2.25 Baumautomaten [3, 33, 34, 42] Sei Σ eine konstruktive Signatur und Y eine Menge. Ein (Σ, Y )-Baumautomat (A, out) enthält neben einer Σ-Algebra A = (A, Op) eine S-sortige Funktion out : A → Y . Die Funktion out ◦ fold A : TΣ → Y nennen wir das von (A, out) realisierte Baumverhalten. Wie man leicht sieht, ist die Funktion h : TList(X) → X ∗ nil 7→ cons(x, t) 7→ x · h(t) bijektiv. Folglich verallgemeinert der Begriff eines Baumverhaltens f : TΣ → Y den einer Verhaltensfunktion f : X ∗ → Y . Dementsprechend nennen wir im Fall Y = 2 (S-sortige) Teilmengen von TΣ Baumsprachen und nennen L(A, out) =def χ−1(out ◦ fold A) die vom (Σ, Y )-Baumautomaten (A, out) erkannte Baumsprache und L ⊆ TΣ regulär, wenn es einen endlichen (!) (Σ, 2)-Baumautomaten (A, out) gibt, der L erkennt, d.h. die Gleichung out ◦ fold A = χ(L) erfüllt. Ein initialer Automat (A = (A, Op), a) liefert den (List(X), Y )-Baumautomaten (B, β A) 80 mit Blist = Areg , nilB = a und consB = λ(x, a).δ A(a)(x), der unfoldB A(a) ◦ h realisiert. Umgekehrt liefert ein (List(X), Y )-Baumautomat (B, f ) den initialen Automaten (A, nilB ) mit Areg = Blist, δ A = λa.λx.consB (x, a) und β A = f, der f ◦ fold A ◦ h−1 (im Sinne von 2.17) realisiert. Eine Baumsprache L ⊆ TList(X) ist also genau dann regulär, wenn es einen endlichen initialen Automaten (A, a) gibt, der h(L) erkennt, was wiederum – wegen 3.13 oder 12.3 – genau dann gilt, wenn h(L) – im Sinne von 2.17 – regulär ist. Baumautomaten werden zum Beispiel bei der formalen Behandlung von XML-Dokumenten eingesetzt (siehe Beispiel 4.3). 81 3 Rechnen mit Algebren In diesem Abschnitt werden die beiden wichtigsten einstelligen Algebratransformationen: die Bildung von Unteralgebren bzw. Quotienten, und ihr Zusammenhang zu Homomorphismen vorgestellt. Unteralgebren und Quotienten modellieren Restriktionen bzw. Abstraktionen eines gegebenen Modells. Beide Konstrukte sind aus der Mengenlehre bekannt. Sie werden hier auf S-sortige Mengen fortgesetzt. Sei Σ = (S, I, F ) eine Signatur, A = (Ae)e∈T (S,I) eine typverträgliche T (S, I)-sortige Menge, n > 0 und Rs ⊆ Ans für alle s ∈ S. R = (Rs)s∈S wird wie folgt zur T (S, I)-sortigen Relation geliftet: • For all I ∈ I, RI =def ∆nI. • For all I ∈ I and {ei}i∈I ⊆ T (S, I), RQi∈I ei =def {(a1, . . . , an) ∈ AnQ i∈I ei | ∀ i ∈ I : (πi(a1), . . . , πi(an)) ∈ Rei }, R`i∈I ei =def {(ιi(a1), . . . , ιi(an)) | (a1, . . . , an) ∈ Rei , i ∈ I} ⊆ An` i∈I ei . 82 Lemma LIFT Seien g, h : A → B S-sortige Funktionen und R = (Rs)s∈S und R0 = (Rs0 )s∈S die S-sortigen Relationen mit Rs = {a ∈ As | g(a) = h(a)} und Rs0 = {(g(a), h(a)) | a ∈ As} für alle s ∈ S. Dann gilt Re = {a ∈ Ae | ge(a) = he(a)} und Re0 = {(ge(a), he(a)) | a ∈ Ae} für alle e ∈ T (S, I). o Unteralgebren Sei Σ = (S, I, F ) eine Signatur und A = (A, Op) eine Σ-Algebra. Eine S-sortige Teilmenge R = (Rs)s∈S von A heißt Σ-Invariante, wenn für alle f : e → e0 ∈ F und a ∈ Re f A(a) ∈ Re0 gilt. Man nennt R Σ-Invariante, weil die Zugehörigkeit von Elementen von A zu R invariant gegenüber der Anwendung von Operationenvon Σ ist. R induziert die Σ-Unteralgebra A|R von A: • Für alle e ∈ T (S, I), (A|R )e =def Re. • Für alle f : e → e0 ∈ F und a ∈ Re, f A|R (a) =def f A(a). 83 Beispiel 3.1 S Sei X = BS \ 1. Die Menge fold Lang(X)(TReg(BS)) der regulären Sprachen über X ist eine Reg(BS)-Invariante von Lang(X). Das folgt allein aus der Verträglichkeit von fold Lang(X) mit den Operationen von Reg(BS). Für jede Signatur Σ, jede Σ-Algebra A = (A, Op) und jeden Σ-Homomorphismus h : A → B ist (h(As))s∈S eine Σ-Invariante. Die von ihr induzierte Unteralgebra von A stimmt mit der weiter oben definierten Bildalgebra h(A) überein. Für jede konstruktive Signatur Σ ist TΣ(V ) eine Σ-Unteralgebra von CTΣ(V ). Für jede destruktive Signatur Σ ist coTΣ(V ) eine Σ-Unteralgebra von DTΣ(V ). o Satz 3.2 (1) Sei B = (B, Op0) eine Unteralgebra von A = (A, Op). Die T (S, I)-sortige Funktion incB = (incBe : Be → Ae)e∈T (S,I) ist Σ-homomorph. (2) (Homomorphiesatz) Sei h : C → A ein Σ-Homomorphismus. h(C) ist eine Unteralgebra von A. h0 : C → h(C) c 7→ h(c) ist ein surjektiver Σ-Homomorphismus. 84 Ist h injektiv, dann ist h0 bijektiv. Alle Σ-Homomorphismen h00 : C → h(C) mit inch(C) ◦ h00 = h stimmen mit h0 überein. h A C h0 inch(A) h(A) (3) Sei Σ eine konstruktive Signatur und A eine Σ-Algebra. fold A(TΣ) ist die kleinste ΣUnteralgebra von A und TΣ ist die einzige Σ-Unteralgebra von TΣ. Demnach erfüllen alle zu TΣ isomorphen Σ-Algebren A das Induktionsprinzip, d.h. eine prädikatenlogische Formel ϕ gilt für alle Elemente von A, wenn ϕ von allen Elementen einer Σ-Unteralgebra von A erfüllt wird. (4) Sei A eine Σ-Algebra und die A die einzige Σ-Unteralgebra von A. Dann gibt es für alle Σ-Algebren B höchstens einen Σ-Homomorphismus h : A → B. Beweis von (3). Sei B eine Unteralgebra von A. Da TΣ initial und incB Σ-homomorph ist, kommutiert das folgende Diagramm: 85 fold A A TΣ fold = B incB B Daraus folgt für alle t ∈ TΣ, fold A(t) = incB (fold B (t)) = fold B (t) ∈ B. Also ist das Bild von fold A in B enthalten. Sei B eine Unteralgebra von TΣ. Da TΣ initial ist, folgt incB ◦fold B = idTΣ aus (1). Da idTΣ surjektiv ist, ist auch incB surjektiv. Da incB auch injektiv ist, sind B und TΣ isomorph. Also kann B nur mit TΣ übereinstimmen. Beweis von (4). Seien g, h : A → B Σ-Homomorphismen. Dann ist C = {a ∈ A | g(a) = h(a)} eine Σ-Unteralgebra von A: Sei f : e → e0 ∈ F und a ∈ Ae mit ge(a) = he(a). Da g und h Σ-homomorph sind, gilt ge0 (f A(a)) = f B (ge(a)) = f B (he(a)) = he0 (f A(a)). Da g und h S-sortig sind, folgt f A(a) ∈ Ce aus Lemma LIFT. 86 Da A die einzige Σ-Unteralgebra von A ist, stimmt C mit A überein, d.h. für alle a ∈ A gilt g(a) = h(a). Also ist g = h. o Beispiel 3.3 (siehe Beispiel 3.1) Nach Satz 3.2 (3) ist fold Lang(X)(TReg(BS)) die kleinste Unteralgebra von Lang(X). o Kongruenzen und Quotienten Sei Σ = (S, I, F ) eine Signatur und A = (A, Op) eine Σ-Algebra. Eine S-sortige Teilmenge R = (Rs)s∈S von A2 heißt Σ-Kongruenz, wenn für alle s ∈ S Rs eine Äquivalenzrelation ist und für alle f : e → e0 ∈ F und (a, b) ∈ Re (f A(a), f B (b)) ∈ Re0 gilt. R induziert die Σ-Quotientenalgebra A/R von A: • Für alle e ∈ T (S, I), (A/R)e =def {[a]R | a ∈ Ae}, wobei [a]R = {b ∈ Ae | (a, b) ∈ Re}. • Für alle f : e → e0 ∈ F und a ∈ Ae, f A/R ([a]R ) =def [f A(a)]R . 87 Satz 3.4 (ist dual zu Satz 3.2) (1) Sei A eine Σ-Algebra und R eine Σ-Kongruenz auf A. Die natürliche Abbildung natR : A → A/R, die jedes Element a ∈ A auf seine Äquivalenzklasse [a]R abbildet, ist Σ-homomorph. (2) (Homomorphiesatz) Sei h : A → B ein Σ-Homomorphismus und ker(h) ⊆ A2 der Kern von h, d.h. ker(h) = {(a, b) | h(a) = h(b)}. ker(h) ist eine Σ-Kongruenz. h0 : A/ker(h) → B [a]ker(h) 7→ h(a) ist ein injektiver Σ-Homomorphismus. Ist h surjektiv, dann ist h0 bijektiv. Alle Σ-Homomorphismen h00 : A/ker(h) → B mit h00 ◦ nat = h stimmen mit h0 überein. h B A h0 natker(h) A/ker(h) 88 (3) Sei Σ eine destruktive Signatur, A eine Σ-Algebra und Fin eine finale Σ-Algebra (s.o). Der – Verhaltenskongruenz von A genannte – Kern des eindeutigen Σ-Homomorphismus unfold A : A → Fin ist die größte Σ-Kongruenz auf A und die Diagonale von Fin 2 die einzige Σ-Kongruenz R auf Fin. Demnach erfüllen alle zu Fin isomorphen Σ-Algebren A das Coinduktionsprinzip: Sei E eine Menge von Σ-Gleichungen t = u zwischen Σ-Termen über V , die denselben Typ haben. E gilt in A, wenn es eine Σ-Kongruenz R auf A gibt, die für alle t = u ∈ E und g : V → A das Paar (g ∗(t), g ∗(u)) enthält. (4) Sei B eine Σ-Algebra und die Diagonale von B 2 die einzige Σ-Kongruenz R auf B. Dann gibt es für alle Σ-Algebren A höchstens einen Σ-Homomorphismus h : A → B. Beweis von (3). Sei R eine Kongruenz auf A. Da Fin final und natR Σ-homomorph ist, kommutiert das folgende Diagramm: unfold A Fin A unfold A/R natR A/R 89 Daraus folgt für alle a, b ∈ A, (a, b) ∈ R ⇒ [a]R = [b]R ⇒ unfold A(a) = unfold A/R ([a]R ) = unfold A/R ([b]R ) = unfold A(b). Also ist R im Kern von unfold A enthalten. Sei R eine Kongruenz auf Fin. Da Fin final ist, folgt unfold Fin/R ◦natR = idFin aus (1). Da idFin injektiv ist, ist auch natR injektiv. Da natR auch surjektiv ist, sind Fin und Fin/R isomorph. Also kann R nur die Diagonale von Fin 2 sein. Beweis von (4). Seien g, h : A → B Σ-Homomorphismen. Dann ist R = {(g(a), h(a)) | a ∈ A} eine Σ-Kongruenz auf B: Sei f : e → e0 ∈ F , a ∈ Ae und (ge(a), he(a)) ∈ Re. Da g und h Σ-homomorph sind, gelten f B (ge(a)) = ge0 (f A(a)) und f B (he(a)) = he0 (f A(a)). Da g und h S-sortig sind, folgt (f B (ge(a)), f B (he(a))) = (ge0 (f A(a)), he0 (f A(a))) ∈ Re0 aus Lemma LIFT. Da ∆2B die einzige Σ-Kongruenz auf B ist, stimmt R mit ∆2B überein, d.h. für alle a ∈ A gilt g(a) = h(a). Also ist g = h. o 90 Automatenminimierung durch Quotientenbildung Eine minimale Realisierung einer Verhaltensfunktion f : X ∗ → Y erhält man auch als Quotienten eines gegebenen initialen Automaten A: Im Beweis von Satz 2.24 (iii) wurde der DAut(X, Y )-Homomorphismus h : hai → hf i definiert. Wegen der Surjektivität von h ist hai/ker(h) nach Satz 3.4 (2) DAut(X, Y )isomorph zu hf i. Nach Definition von h ist ker(h) = ker(unfold A) ∩ hai2. Nach Satz 3.4 (3) ist ker(unfold A) die größte Σ-Kongruenz auf A, also die größte binäre Relation R auf A, die für alle a, b ∈ Astate folgende Bedingung erfüllt: (a, b) ∈ R ⇒ β A(a) = β A(b) ∧ ∀ w ∈ X ∗ : (δ A(a)(w), δ A(b)(w)) ∈ R. (1) Ist Astate endlich, dann lässt sich ker(unfold A) schnell und elegant mit dem in Abschnitt 2.3 von [27] und in [31] beschriebene (und in Haskell implementierte) Paull-UngerVerfahren berechnen. Es startet mit R0 = A2state und benutzt die Kontraposition (a, b) 6∈ R ⇐ β A(a) 6= β A(b) ∨ ∀ w ∈ X ∗ : (δ A(a)(w), δ A(b)(w)) 6∈ R (2) von (1), um R0 schrittweise auf den Kern von unfold A zu reduzieren. 91 Transitionsmonoid und syntaktische Kongruenz Sei A = (A, Op) eine DAut(X, Y )-Algebra. Das Bild der Mon-homomorphen Erreichbarkeitsfunktion reachA : X ∗ → (Astate → Astate) von A heißt Transitionsmonoid von A. Satz 3.5 (Transitionsmonoide und endliche Automaten) Sei a ∈ Astate und R der Kern von reachhai : X ∗ → (hai → hai). hai ist genau dann endlich, wenn R endlich viele Äquivalenzklassen hat oder das Transitionsmonoid von hai endlich ist. Beweis. Nach Satz 3.4 (2) ist das Transitionsmonoid von hai Mon-isomorph zum Quotienten X ∗/R. Außerdem ist die Abbildung h : X ∗/R → hai [w]R 7→ δA∗(a)(w) wohldefiniert: Sei (v, w) ∈ R. Dann gilt reachhai(v) = reachhai(w), also insbesondere h([v]R ) = runA(a)(v) = δ hai∗(a)(v) = reachhai(v)(a) = reachhai(w)(a) = δ hai∗(a)(w) = runA(a)(w) = h([w]R ). 92 Da h surjektiv ist, liefert die Komposition h ◦ g mit dem Isomorphismus g : reachhai(X ∗) → X ∗/R eine surjektive Abbildung von reachhai(X ∗) nach hai. Also überträgt sich die Endlichkeit des Transitionsmonoids von hai auf hai selbst. Umgekehrt ist das Transitionsmonoid jedes endlichen Automaten A endlich, weil es eine Teilmenge von Astate → Astate ist. o Sei L ⊆ X ∗. Das Transitionsmonoid von hLi heißt syntaktisches Monoid und der Kern von reachhLi syntaktische Kongruenz von L. Letztere lässt sich als Menge aller Paare (v, w) ∈ X ∗ × X ∗ mit uvu0 ∈ L ⇔ uwu0 ∈ L für alle u, u0 ∈ X ∗ charakterisieren. Satz 3.5 impliziert, dass sie genau dann endlich viele Äquivalenzklassen hat, wenn L von einem endlichen initialen Automaten (A, a) erkannt wird, was wiederum zur Regularität von L äquivalent ist (siehe 3.13 für einen direkten Beweis oder Beispiel 12.3 für den klassischen über die Konstruktion eines nichtdeterministischen Akzeptors von L). Folglich kann die Nichtregularität einer Sprache L oft gezeigt werden, indem aus der Endlichkeit der Zustandsmenge eines Akzeptors von L ein Widerspruch hergeleitet wird. Wäre z.B. L = {xny n | n ∈ N} regulär, dann gäbe es einen endlichen Automaten (A, a) mit unfold A(a) = L. 93 Demnach müsste für alle n ∈ N ein Zustand bn ∈ Areg existieren mit runA(a)(xn) = bn und β A(runA(bn)(y n)) = 1. Da A endlich ist, gäbe es i, j ∈ N mit i 6= j und bi = bj . Daraus würde jedoch unfold A(xiy j ) = β A(runA(a)(xiy j )) = β A(runA(runA(a)(xi))(y j )) = β A(runA(bi)(y j )) = β A(runA(bj )(y j )) = 1 folgen, im Widerspruch dazu, dass xiy j nicht zu L gehört. Also ist L nicht regulär. 3.6 Termsubstitution Sei Σ = (S, I, F ) eine Signatur. Belegungen von Variablen durch Σ-Terme heißen Substitutionen und werden üblicherweise mit kleinen griechischen Buchstaben bezeichnet. Im Gegensatz zu den Belegungen von Kapitel 2 beschränken wir den Wertebereich von Substitutionen σ : V → TΣ(V ) nicht auf die Trägermenge der Algebra TΣ(V ), also auf Terme ohne λ und ite. Um ungewollte Bindungen von Variablen zu vermeiden, muss die Fortsetzung σ ∗ : TΣ(V ) → TΣ(V ) von σ auf Terme anders als die Auswertung g ∗ : TΣ(V ) → A einer Belegung g : V → A von Kapitel 2 definiert werden: 94 • Für alle X ∈ ( BS, e ∈ T (S, I), x ∈ VX und t ∈ TΣ(V )e, λx0.σ[x0/x]∗(t) falls x ∈ var(σ(free(t) \ {x})), ∗ σ (λx.t) = λx.σ[x/x]∗(t) sonst. • Für alle e ∈ T (S, I) t ∈ TΣ(V )2 und u, v ∈ TΣ(V )e, σ ∗(ite(t, u, v)) = ite(σ ∗(t), σ ∗(u), σ ∗(v)). In den restlichen Fällen ist σ ∗ genauso definiert wie g ∗: • Für alle x ∈ V , σ ∗(x) = σ(x). • Für alle x ∈ X ∈ BS, σ ∗(x) = x. • Für alle n > 1 und t1, . . . , tn ∈ TΣ(V ), σ ∗(t1, . . . , tn) = (σ ∗(t1), . . . , σ ∗(tn)). • Für alle f : e → e0 ∈ F und t ∈ TΣ(V )e, σ ∗(f t) = f σ ∗(t). • Für alle X ∈ BS, e ∈ T (S, I), t ∈ TΣ(V )eX und u ∈ TΣ(V )X , σ ∗(t(u)) = σ ∗(t)(σ ∗(u)). σ ∗(t) heißt σ-Instanz von t und Grundinstanz, falls σ alle Variablen von t auf Grundterme abbildet. Man schreibt häufig tσ anstelle von σ ∗(t) sowie {t1/x1, . . . , tn/xn} für die Substitution σ mit σ(xi) = ti für alle 1 ≤ i ≤ n und σ(x) = x für alle x ∈ V \ {x1, . . . , xn}. 95 Satz 3.7 (Auswertung und Substitution) (1) Für alle Belegungen g : V → A und Σ-Homomorphismen h : A → B gilt: (h ◦ g)∗ = h ◦ g ∗. (2) Für alle Substitutionen σ, τ : V → TΣ(V ) gilt: (σ ∗ ◦ τ )∗ = σ ∗ ◦ τ ∗. Beweis. (1) Induktion über den Aufbau von Σ-Termen. (2) folgt aus (1), weil σ ∗ ein ΣHomomorphismus ist. o Termäquivalenz und Normalformen Sei Σ = (S, I, F ) eine konstruktive Signatur. In diesem Abschnitt geht es um Σ-Algebren A, die eine gegebene Menge E von Σ-Gleichungen (s.o.) erfüllen, d.h. für die Folgendes gilt: • für alle t = t0 ∈ E und g : V → A gilt g ∗(t) = g ∗(t0). AlgΣ,E bezeichnet die Klasse aller Σ-Algebren, die E erfüllen. 96 Aus Satz 3.7 (1) folgt sofort, dass AlgΣ,E unter Σ-homomorphen Bildern abgeschlossen, d.h. für alle Σ-Homomorphismen h : A → B gilt: A ∈ AlgΣ,E ⇒ h(A) ∈ AlgΣ,E . Die Elemente der Menge Inst(E ) =def {(tσ, t0σ) | (t, t0) ∈ E, σ : V → TΣ(V )} (6) heißen Instanzen von E. Die E-Äquivalenz ≡E ist definiert als kleinste Σ-Kongruenz, die Inst(E) enthält. Aufgabe Zeigen Sie, dass der Quotient TΣ(V )/≡E E erfüllt. o Satz 3.8 Für alle Belegungen g : V → A in eine Σ-Algebra A, die E erfüllt, faktorisiert g ∗ : TΣ(V ) → A durch TΣ(V )/≡E , d.h. es gibt einen Σ-Homomorphismus h : TΣ(V )/≡E → A mit h ◦ nat≡E = g ∗. 97 V incV g TΣ(V ) g ∗ nat≡E TΣ(V )/≡E (3) h g≺ A Beweis. Da der Kern von g ∗ eine Σ-Kongruenz ist, die Inst(E ) enthält (siehe [29], Satz GLK), ≡E aber die kleinste derartige Relation auf TΣ(V ) ist, ist letztere im Kern von g ∗ enthalten. Folglich ist h : TΣ(V )/≡E → A mit h([t]≡E ) = h(t) für alle t ∈ TΣ(V ) wohldefiniert. (3) kommutiert, was zusammen mit der Surjektivität und Σ-Homomorphie von nat≡E impliziert, dass auch h Σ-homomorph ist. o Die durch den gestrichelten Pfeil angedeutete Eigenschaft von h, der einzige Σ-Homomorphismus zu sein, der (3) kommutativ macht, folgt ebenfalls aus der Surjektivität und Σ-Homomorphie von nat≡E . Zusammen mit TΣ/≡E ∈ AlgΣ,E impliziert Satz 3.8, dass TΣ/≡E initial in AlgΣ,E ist, dass es also für alle A ∈ AlgΣ,E genau einen Σ-Homomorphismus h : TΣ/≡E → A gibt. 98 Da g ∗ im Fall V = ∅ mit fold A übereinstimmt, reduziert sich das obige Diagramm zu folgendem: nat≡E A TΣ fold A (3) h TΣ/≡E Beispiel 3.9 Sei Σ = Mon, x, y, z ∈ V und E = {mul(one, x) = x, mul(x, one) = x, mul(mul(x, y), z) = mul(x, mul(y, z))}. Die freie Mon-Algebra TMon (V ) ist kein Monoid, wohl aber ihr Quotient TMon (V )/ ≡E . Man nennt ihn das freie Monoid (über V ). Aufgabe Zeigen Sie, dass das freie Monoid tatsächlich ein Monoid ist, also E erfüllt, und Mon-isomorph zu V ∗ ist. o Bei der Implementierung von Quotienten werden isomorphe Darstellungen bevorzugt, deren Elemente keine Äquivalenzklassen sind, diese aber eindeutig repräsentieren. Z.B. sind die Wörter über V eindeutige Repräsentanten der Äquivalenzklassen von TMon (V )/≡E . 99 Bei der Berechnung äquivalenter Normalformen beschränkt man sich meist auf die folgende Teilrelation von ≡E , die nur “orientierte” Anwendungen der Gleichungen von E zulässt: Die E-Reduktionsrelation →E besteht aus allen Paaren (u{t/x}, u{t0/x}) mit t = t0 ∈ E, u ∈ TΣ(V ) und σ : V → TΣ(V ). + Die kleinste transitive Relation auf TΣ(V ), die →E enthält, wird mit →E bezeichnet. + Aufgabe Zeigen Sie, dass →E die kleinste transitive und mit Σ verträgliche Relation auf + TΣ(V ) ist, die Inst(E ) enthält. Folgern Sie daraus, dass →E eine Teilmenge von ≡E ist.o + Sei t ∈ TΣ(V ). u ∈ TΣ(V ) heißt E-Normalform von t, wenn t →E u gilt und u zu einer vorgegebenen Teilmenge von TΣ(V ) gehört. Eine Funktion reduce : TΣ(V ) → TΣ(V ) heißt E-Reduktionsfunktion, wenn für alle t ∈ TΣ(V ), reduce(t) eine E-Normalform von t ist. Sei A ∈ AlgΣ,E und g : V → A. Wegen + →E ⊆ ≡E ⊆ ker(g ∗) (siehe obige Aufgabe und den Beweis von Satz 3.8) gilt g ∗(t) = g ∗(reduce(t)) für alle 100 t ∈ TΣ(V ), also kurz: g ∗ ◦ reduce = g ∗. (3) Allgemeine Methoden zur Berechnung von Normalformen werden in [29], §5.2 behandelt. Beispiel 3.10 Normalformen regulärer Ausdrücke E bestehe aus folgenden Reg(BS)-Gleichungen: f (f (x, y), z) = f (x, f (y, z)) par(x, y) = par(y, x) seq(x, par(y, z)) = par(seq(x, y), seq(x, z)) seq(par(x, y), z) = par(seq(x, z), seq(y, z)) par(x, x) = x par(mt, x) = x par(x, mt) = x seq(eps, x) = x seq(x, eps) = x seq(mt, x) = mt seq(x, mt) = mt f (ite(x, y, z), z 0) = ite(x, f (y, z 0), f (z, z 0)) f (z 0, ite(x, y, z)) = ite(x, f (z 0, y), f (z 0, z)) (Assoziativität von f ∈ {par, seq}) (Kommutativität von par) (Linksdistributivität von seq über par) (Rechtsdistributivität von seq über par) (Idempotenz von par) (Neutralität von mt bzgl. par) (Neutralität von eps bzgl. seq) (Annihilation) (f ∈ {par, seq}) (f ∈ {par, seq}) Demnach entfernt eine E-Reduktionsfunktion mt und Mehrfachkopien von Summanden aus Summen sowie eps aus Produkten, ersetzt alle Produkte, die mt enthalten, durch mt, 101 distribuiert seq über par und linearisiert geschachtelte Summen und Produkte rechtsassoziativ. Angewendet auf Reg(BS)-Grundterme entspricht sie deren Faltung in der Reg(BS)Algebra regNorm (siehe Compiler.hs). S Sei X = BS. Da Lang(X) E erfüllt, gilt (3) für A = Lang(X). Algebren, die E erfüllen, heißen idempotente Semiringe. Da E weder den Sternoperator iter : reg → reg noch die Konstanten B : 1 → reg enthält, brauchen diese in einem Semiring nicht definiert zu sein. Auch die Idempotenz von par ist keine Anforderung an Semiringe. Kleene-Algebren sind Semiringe, auf denen ein Sternoperator definiert ist und die neben E weitere (den Sternoperator betreffende) Gleichungen erfüllen. Die Elemente von Beh(X, Y ) (siehe 2.7) heißen formale Potenzreihen, wenn Y ein Semiring ist (siehe [37], Kapitel 9). 3.11 Die Brzozowski-Gleichungen Die folgende Menge BRE von – Brzozowski-Gleichungen genannten – Reg(BS)Gleichungen hat in TReg(BS) genau eine Lösung, d.h. es gibt genau eine Erweiterung von TReg(BS) zur Acc(X)-Algebra, die BRE erfüllt (siehe Beispiel 17.4). In Abschnitt 2.7 wurde diese Lösung unter dem Namen Bro(BS) eingeführt. Existenz und Eindeutigkeit folgen aus Satz 17.1 und werden dort aus dem in Satz 3.2 (3) eingeführten 102 Induktionsprinzip abgeleitet. δ(eps) δ(mt) δ(B) δ(par(t, u)) δ(seq(t, u)) δ(iter(t)) β(eps) β(mt) β(B) β(par(t, u)) β(seq(t, u)) β(iter(t)) = = = = = = = = = = = = λx.mt λx.mt λx.ite(x ∈ B, eps, mt) λx.par(δ(t)(x), δ(u)(x)) λx.par(seq(δ(t)(x), u), ite(β(t), δ(u)(x), mt)), λx.seq(δ(t)(x), iter(t)) 1 0 0 max{β(t), β(u)} β(t) ∗ β(u) 1 t und u sind hier Variablen der Sorte reg. Nach obiger Lesart definiert BRE Destruktoren (δ und β) auf der Basis von Konstruktoren von Reg(BS). Umgekehrt lässt sich BRE auch als Definition der Konstruktoren auf der Basis der Destruktoren δ und β auffassen: Nach Satz 17.7 hat BRE nämlich in der finalen Acc(X)-Algebra Pow (X) genau eine coinduktive Lösung, d.h. es gibt genau eine Erweiterung von Lang(X) zur Reg(BS)-Algebra, die BRE erfüllt (siehe Beispiel 17.10). o 103 3.12 Optimierter Brzozowski-Automat Der Erkenner Bro(BS) regulärer Sprachen (siehe Abschnitt 2.11) benötigt viel Platz, weil die wiederholten Aufrufe von δ Bro(BS) aus t immer größere Ausdrücke erzeugen. Um das zu vermeiden, ersetzen wir Bro(BS) durch die Acc(X)-Algebra Norm(BS) (norm in Compiler.hs), die bis auf die Interpretation von δ mit Bro(BS) übereinstimmt. δ Norm(BS) normalisiert die von δ Bro(BS) berechneten Folgezustände mit der in Beispiel 3.10 beschriebenen Reduktionsfunktion reduce : TReg(BS)(V ) → TReg(BS)(V ). Für alle t ∈ TReg(BS), δ Norm(BS)(t) =def reduce ◦ δ Bro(BS)(t). (1) fold Lang(X) ◦ reduce = fold Lang(X). (2) Gemäß Beispiel 3.10 gilt 104 Es bleibt zu zeigen, dass für alle t ∈ TReg(BS) die initialen Automaten (Bro(BS), t) und (Norm(BS), t) dieselben Sprachen erkennen, d.h. unfold Norm(BS)(t) = unfold Bro(BS)(t). (3) Wir beweisen (3) durch Induktion über die Länge der Wörter über X. β Norm(BS)(runNorm(BS)(t)()) = β Norm(BS)(t) = β Bro(BS)(t) = β Bro(BS)(runBro(BS)(t)()). Für alle x ∈ X und w ∈ X ∗, β Norm(BS)(runNorm(BS)(t)(xw)) = β Norm(BS)(runNorm(BS)(δ Norm(BS)(t)(x))(w)) = unfold Norm(BS)(δ Norm(BS)(t)(x))(w) ind. hyp. = unfold Bro(BS)(δ Norm(BS)(t)(x))(w) (1) = unfold Bro(BS)(reduce(δ Bro(BS)(t))(x))(w) = fold Lang(X)(reduce(δ Bro(BS)(t))(x))(w) (2) = fold Lang(X)(δ Bro(BS)(t)(x))(w) = unfold Bro(BS)(δ Bro(BS)(t)(x))(w) = β Bro(BS)(runBro(BS)(δ Bro(BS)(t)(x))(w)) = β Bro(BS)(runBro(BS)(t)(xw)). Also gilt (3): unfold Norm(BS)(t) = {w ∈ X ∗ | β Norm(BS)(runNorm(BS)(t)(w)) = 1} = {w ∈ X ∗ | β Bro(BS)(runBro(BS)(t)(w)) = 1} = unfold Bro(BS)(t). Im Haskell-Modul Compiler.hs entspricht der Erkenner unfold Norm(BS)(t) dem Aufruf regToAl "" w 4, wobei w die Wortdarstellung von t ist. o 105 3.13 Erkenner regulärer Sprachen sind endlich Aus der Gültigkeit von BRE in Pow (X) lassen sich die folgenden Gleichungen für runPow (X) : P(X ∗) → P(X ∗)X ∗ ableiten (siehe 2.9): Für alle w ∈ X ∗, B ∈ BS und L, L0 ⊆ P(X ∗), ( 1 falls w = , runPow (X)(epsLang(X))(w) = ∅ sonst, runPow (X)(mtLang(X))(w) = ∅, C falls w = , Lang(X) runPow (X)(B )(w) = 1 falls w ∈ C, ∅ sonst, runPow (X)(parLang(X)(L, L0))(w) = runPow (X)(L)(w) ∪ runPow (X)(L0)(w), runPow (X)(seq Lang(X)(L, L0))(w) = {uv | u ∈ runPow (X)(L)(w), v ∈ L0} S ∪ uv=w (if ∈ runPow (X)(L)(u) then runPow (X)(L0)(v) else ∅), (4) (5) (6) (7) (8) 106 runPow (X)(iterLang(X)(L))(w) = {uv | u ∈ runPow (X)(L)(w), v ∈ iterPow (X)(L)} S T ∪ u1...unv=w (if ∈ ni=1 runPow (X)(L)(ui) then {uv 0 | u ∈ runPow (X)(L)(v), v 0 ∈ iterPow (X)(L)} else ∅) (9) (siehe z.B. [37], Theorem 10.1). Wir erinnern an Satz 2.24 (iii), aus dem folgt, dass für alle L ⊆ X ∗ der Unterautomat (hLi, L) von (Pow (X), L) ein minimaler Erkenner von L ist. Ist L die Sprache eines regulären Ausdrucks t, ist also L = fold Lang(X)(t), dann ist hLi = {runPow (X)(fold Lang(X)(t))(w) | w ∈ X ∗}. Daraus folgt durch Induktion über den Aufbau von t, dass hLi endlich ist: Im Fall t ∈ {eps, mt} ∪ {B | B ∈ BS} besteht hLi wegen (4), (5) und (6) aus zwei, einem bzw. drei Zuständen. Im Fall t = par(t0, t00) folgt |hLi| ≤ |hfold Lang(X)(t0)i| ∗ |hfold Lang(X)(t00)i| aus (7). Im Fall t = seq(t0, t00) folgt |hLi| ≤ |hfold Lang(X)(t0)i| ∗ 2|hfold Im Fall t = iter(t0) folgt |hLi| ≤ 2|hfold Lang(X) (t0 )i| Lang(X) (t00 )i| aus (8). aus (9). 107 Damit ist ohne den üblichen Umweg über Potenzautomaten (siehe Beispiel 12.3) gezeigt, dass reguläre Sprachen von endlichen Automaten erkannt werden. 108 4 Kontextfreie Grammatiken (CFGs) Sie ordnen einer konstruktiven Signatur Σ eine konkrete Syntax und damit eine vom Compiler verstehbare Quellsprache zu, so dass er diese in eine als Σ-Algebra formulierte Zielsprache übersetzen kann. Auch wenn das zu die Quellsprache bereits als konstruktive Signatur Σ und die Zielsprache als Σ-Algebra gegeben sind, benötigt der Compiler eine kontextfreie Grammatik, um Zeichenfolgen in Elemente der Algebra zu übersetzen. Eine kontextfreie Grammatik (CFG) G = (S, BS, R) besteht aus • einer endlichen Menge S von Sorten, die auch Nichtterminale oder Variablen genannt werden, • einer endlichen Menge BS nichtleerer Basismengen, deren Singletons Terminale genannt und mit ihrem jeweiligen einzigen Element gleichgesetzt werden. • einer endlichen Menge R von Regeln s → w mit s ∈ S und w ∈ (S ∪ BS)∗, die auch Produktionen genannt werden. n > 0 Regeln s → w1, . . . , s → wn mit derselben linken Seite s werden oft zu der einen Regel s → w1| . . . |wn zusammengefasst. 109 Beispiel 4.1 Sei BS eine endliche Menge von Basismengen, die ∅ und 1 enthält, syms(BS) wie in 2.14 definiert und R = {reg → reg + reg, reg → reg reg, reg → reg ∗, reg → (reg)} ∪ {reg → B | B ∈ BS}. REG =def ({reg}, syms(BS), R) ist eine CFG. o Oft genügt es, bei der Definition einer CFG nur deren Regeln und Basismengen anzugeben. Automatisch bilden dann die Symbole, die auf der linken Seite einer Regel vorkommen, die Menge S der Sorten, während alle anderen Wörter und Symbole (außer dem senkrechten Strich |; s.o.) auf der rechten Seite einer Regel Terminale oder Namen mehrelementiger Basismengen sind. Beispiel 4.2 Die Regeln der CFG JavaLight für imperative Programme mit Konditionalen und Schleifen lauten wie folgt: 110 Commands → Command → Sum Sumsect Prod Prodsect Factor Disjunct Conjunct Literal → → → → → → → → Command Commands | Command {Commands} | String = Sum; | if Disjunct Command else Command | if Disjunct Command | while Disjunct Command Prod Sumsect {+, −} Prod Sumsect | Factor Prodsect {∗, /} Factor Prodsect | Z | String | (Sum) Conjunct || Disjunct | Conjunct Literal && Conjunct | Literal !Literal | Sum Rel Sum | 2 | (Disjunct) String, {+, −}, {∗, /}, Z, Rel und 2 sind die mehrelementigen Basismengen von JavaLight. String bezeichnet die Menge aller Zeichenfolgen außer den in Regeln von JavaLight vorkommenden Symbolen und Wörtern außer String. Rel bezeichnet eine Menge nicht näher spezifizierter binärer Relationen auf Z. Ein aus der Sorte Commands ableitbares JavaLight-Programm ist z.B. fact = 1; while x > 1 {fact = fact*x; x = x-1;} o 111 Beispiel 4.3 XMLstore (siehe [19], Abschnitt 2) Store → Orders Order P erson Emails Email Items Item Stock ItemS Suppliers Id → → → → → → → → → → → hstorei hstocki Stock h/stocki h/storei | hstorei Orders hstocki Stock h/stocki h/storei Order Orders | Order horderi hcustomeri P erson h/customeri Items h/orderi hnamei String h/namei | hnamei String h/namei Emails Email Emails | hemaili String h/emaili Item Items | Item hitemi Id hpricei String h/pricei h/itemi ItemS Stock | ItemS hitemi Id hquantityi Z h/quantityi Suppliers h/itemi hsupplieri P erson h/supplieri | Stock hidi String h/idi 112 Die Sprache von XMLstore beschreibt XML-Dokumente wie z.B. das folgende: <store> <order> <customer> <name> John Mitchell </name> <email> [email protected] </email> </customer> <item> <id> I18F </id> <price> 100 </price> </item> </order> <stock> <item> <id> IG8 </id> <quantity> 10 </quantity> <supplier> <name> Al Jones </name> <email> [email protected] </email> <email> [email protected] </email> </supplier> </item> <item> <id> J38H </id> <quantity> 30 </quantity> <item> <id> J38H1 </id> <quantity> 10 </quantity> <supplier> <name> Richard Bird </name> </supplier> </item> <item> <id> J38H2 </id> <quantity> 20 </quantity> <supplier> <name> Mick Taylor </name> </supplier> </item> </item> </stock> </store> 113 Nicht-linksrekursive CFGs Sei G = (S, BS, R) eine CFG und X = S BS. X ist die Menge der Eingabesymbole, die Compiler für G verarbeiten. Demgegenüber tauchen auf den rechten Seiten der Regeln von G nur (Namen für) komplette Basismengen auf! Die klassische Definition einer linksrekursiven Grammatik verwendet die (Links-)Ableitungsrelation →G = {(vsw, vαw) | s → α ∈ R, v, w ∈ (S ∪ BS)∗}. + ∗ →G und →G bezeichnen den transitiven bzw. reflexiv-transitiven Abschluss von →G. + G heißt linksrekursiv, falls es s ∈ S und w ∈ (S ∪ BS)∗ mit s →G sw gibt. Z.B. ist REG linksrekursiv, JavaLight und XMLstore jedoch nicht (siehe Beispiele 4.1-4.3). 114 Linksassoziative Auswertung erzwingt keine Linksrekursion Sind alle Regeln, deren abstrakte Syntax binäre Operationen darstellen, dann werden aus diesen Operationen bestehende Syntaxbäume rechtsassoziativ ausgewertet. Bei ungeklammerten Ausdrücke wie x+y−z−z 0 oder x/y∗z/z 0 führt aber nur die linkassoziative Faltung zum gewünschten Ergebnis. Die gegebene Grammatik muss deshalb um Sorten und Regeln erweitert werden, die bewirken, dass aus der linkassoziativen eine semantisch äquivalente rechtsassoziative Faltung wird. Im Fall von JavaLight bewirken das die Sorten Sumsect und Prodsect und deren Regeln. Die Namen der Sorten weisen auf deren Interpretation als Mengen von Sektionen hin, also von Funktionen wie z.B. (∗5) : Z → Z. Angewendet auf eine Zahl x, liefert (∗5) das Fünffache von x. Die linkassoziative Faltung ((x+y)−z)−z 0 bzw. ((x/y)∗z)/z 0 der obigen Ausdrücke entspricht daher der – von den Regeln für Sumsect und Prodsect bewirkten – rechtsassoziativen Faltung ((−z 0) ◦ ((−z) ◦ (+y)))(x) bzw. ((/z 0) ◦ ((∗z) ◦ (/y)))(x). Die Sektionssorten von JavaLight würden automatisch eingeführt werden, wenn man die folgende Entrekursivierung auf eine linksrekursive Variante der Grammatik anwendet. 115 Verfahren zur Eliminierung von Linksrekursion Sei G = (S, BS, R) eine CFG und S = {s1, . . . , sn}. Führe für alle 1 ≤ i ≤ n die beiden folgenden Schritte in der angegebenen Reihenfolge durch: • Für alle 1 ≤ j < i und Regelpaare (si → sj v, sj → w) ersetze die Regel si → sj v durch die neue Regel si → wv. • Falls vorhanden, streiche die Regel si → si. • Für alle Regelpaare (si → siw, si → ev) mit e ∈ (S ∪ BS) \ {si} ersetze die Regel o si → siw durch die drei neuen Regeln si → evs0i, s0i → ws0i und s0i → w. Die Verwendung von jeweils drei Sorten für arithmetische bzw. Boolesche Ausdrücke (Sum, Prod und Factor bzw. Disjunct, Conjunct und Literal ) bewirkt ebenfalls eine bestimmte Auswertungsreihenfolge und zwar diejenige, die sich aus den üblichen Prioritäten arithmetischer bzw. Boolescher Operationen ergibt. 116 Abstrakte Syntax Sei G = (S, BS, R) eine CFG und Z = {B ∈ BS | |B| = 1} (Terminale von G). Die konstruktive Signatur Σ(G) = (S, BS, F (G)) mit F (G) = {fr : 1 → s | r = (s → w) ∈ R, w ∈ Z ∗} ∪ {fr : e1 × · · · × en → s | r = (s → w0e1w1 . . . enwn) ∈ R, n > 0, w0 . . . wn ∈ Z ∗, e1, . . . , en ∈ S ∪ BS \ Z} heißt abstrakte Syntax von G. Beispiel 4.4 Die Signatur Reg(BS) ist eine Teilsignatur der abstrakten Syntax der CFG REG von Beispiel 4.1. Aufgabe Zu welcher Regel von REG fehlt in Reg(BS) der entsprechende Konstruktor? o 117 Die Konstruktoren von Σ(G) lassen sich i.d.R. direkt aus den Terminalen von G basteln. So wird manchmal für den aus der Regel r = (s → w0e1w1 . . . enwn) mit wi ∈ Z ∗ entstandenen Konstruktor fr die (Mixfix-)Darstellung w0 w1 . . . wn gewählt. So könnte beispielsweise der Konstruktor f : Disjunct × Command × Command für die JavaLight-Regel Commands → if Disjunct Command else Command (siehe Beispiel 4.2) if else genannt werden. Um Verwechslungen zwischen Terminalen und Konstruktoren vorzubeugen, werden wir hier jedoch keine Terminale als Namen für Konstruktoren verwenden. Umgekehrt kann jede endlich verzweigende konstruktive Signatur Σ = (S, I, F ) in eine CFG G(Σ) = (S, BS ∪ {(, ), , }, R) mit Σ(G(Σ)) = Σ überführt werden, wobei R = {s → f (e1, . . . , en) | f : e1 × · · · × en → s ∈ F }. Σ(G)-Grundterme werden Syntaxbäume von G genannt. Alle ihre Knoten sind mit Operationssymbolen markiert. 118 Beispiel 4.5 SAB Die Grammatik SAB besteht aus den Sorten S, A, B, den Terminalen a, b und den Regeln r1 = S → aB, r2 = S → bA, r3 = S → , r4 = A → aS, r5 = A → bAA, r6 = B → bS, r7 = B → aBB. Demnach lauten die Konstruktoren der abstrakten Syntax von SAB wie folgt: f1 : B → S, f2 : A → S, f3 : 1 → S, f4 : S → A, f5 : A × A → A, f6 : S → B, f7 : B × B → B. f1 f7 f6 f6 f1 f3 f6 ε f3 ε Syntaxbaum des Eingabewortes aababb Mit markierte Blätter eines Syntaxbaums werden künftig weglassen. 119 Die folgende SAB-Algebra SABcount berechnet die Anzahl #a(w) bzw. #b(w) der Vorkommen von a bzw. b im Eingabewort w: SABcount S = SABcount A = SABcount B = N2, f1SABcount = f4SABcount = λ(i, j).(i + 1, j), f2SABcount = f6SABcount = λ(i, j).(i, j + 1), f3SABcount = (0, 0), f5SABcount = λ((i, j), (k, l)).(i + k, j + l + 1), f7SABcount = λ((i, j), (k, l)).(i + k + 1, j + l). o 120 Beispiel 4.6 Σ(JavaLight) = (S, I, F ) S = { Commands, Command , Sum, Sumsect, Prod , Prodsect, Factor , Disjunct, Conjunct, Literal } I = { 1, 2, {+, −}, {∗, /}, Z, String, Rel } F = { seq : Command × Commands → Commands, embed : Command → Commands, block : Commands → Command , assign : String × Sum → Command , cond : Disjunct × Command × Command → Command , cond1, loop : Disjunct × Command → Command , sum : Prod × Sumsect → Sum, sumsect : {+, −} × Prod × Sumsect → Sumsect, nilS : 1 → Sumsect, prod : Factor × Prodsect → Prod , prodsect : {∗, /} × Factor × Prodsect → Prodsect, nilP : 1 → Prodsect, embedI : Z → Factor , var : String → Factor , encloseS : Sum → Factor , 121 disjunct : Conjunct × Disjunct → Disjunct, embedC : Conjunct → Disjunct, conjunct : Literal × Conjunct → Conjunct, embedL : Literal → Conjunct, not : Literal → Literal , atom : Sum × Rel × Sum → Literal , embedB : 2 → Literal , encloseD : Disjunct → Literal } Z.B. hat das JavaLight-Programm fact = 1; while x > 1 {fact = fact ∗ x; x = x − 1; } folgenden Syntaxbaum: 122 Seq Assign fact Embed Sum Prod EmbedI Loop NilS NilP 1 EmbedC Block EmbedL Seq Atom Sum Prod Var x > Sum NilS NilP Assign Prod EmbedI 1 fact NilS NilP Sum Prod Var fact Embed Assign NilS x Prodsect * Var x NilP Sum Prod Var x NilP Sumsect - Prod EmbedI NilS NilP 1 javaToAlg "prog" 1 (siehe Java.hs) übersetzt das JavaLight-Programm in der Datei prog in den zugehörigen Syntaxbaum und schreibt diesen in die Datei Pix/javaterm.svg. Mit https://cloudconvert.org kann diese schnell in ein anderes Format konvertiert werden. 123 Beispiel 4.7 Σ(XMLstore) = (S , I, ∅, F ) S = = I = F = { { { { Store, Orders, Order, P erson, Emails, Email, Items, Item, Stock, ItemS, Suppliers, Id } 1, String, Id , Z } store : Stock → Store, storeO : Orders × Stock → Store, orders : P erson × Items × Orders → Orders, embedP : P erson × Items → Orders, person : String → P erson, personE : String × Emails → P erson, emails : Email × Emails → Emails, none : 1 → Emails, email : String → Email, items : Id × String × Items → Items, embedI : Id × String → Items, stock : Id × Z × Supplier × Stock → Stock, embedS : Id × Z × Supplier → Stock, supplier : P erson → Suppliers, parts : Stock → Suppliers, id : String → Id } 124 StoreO EmbedP PersonE Stock EmbedI John Mitchell Emails Id 10 Supplier Id 100 IG8 Email None I18F [email protected] EmbedS PersonE Id 30 Parts Al Jones Emails Email J38H Emails Id 10 Supplier [email protected] Email None J38H1 [email protected] Stock PersonE EmbedS Id 20 Supplier Richard Bird None J38H2 PersonE Mick Taylor None Syntaxbaum des XML-Dokumentes von Beispiel 4.3 xmlToAlg "xmldoc" 1 (siehe Compiler.hs) übersetzt das XMLstore-Dokument in der Datei xmldoc in den zugehörigen Syntaxbaum übersetzt und schreibt diesen in die Datei Pix/xmlterm.svg. xmlToAlg "xmldoc" 2 (siehe Compiler.hs) übersetzt xmldoc in eine Listen-ProdukteSummen-Darstellung und schreibt diese in die Datei Pix/xmllist.svg. Für Beispiel 4.3 sieht sie folgendermaßen aus: 125 () [] [] () () John Mitchell [] [email protected] [] () () IG8 10 One J38H 30 Two () Al Jones [] [] I18F 100 [email protected] [email protected] () J38H1 10 One () J38H2 20 One Richard Bird [] Sei G = (S, BS, R) eine CFG, X = S Mick Taylor [] BS und Z = {B ∈ BS | |B| = 1}. Wort- und Ableitungsbaumalgebra Neben TΣ(G) lassen sich auch die Menge der Wörter über X und die Menge der Ableitungsbäume von G zu Σ(G)-Algebren erweitern. 126 Word (G), die Wortalgebra von G • Für alle s ∈ S, Word (G)s =def X ∗. Word (G) • Für alle w ∈ Z ∗ und r = (s → w) ∈ R, fr () =def w. • Für alle n > 0, w0 . . . wn ∈ Z ∗, e1, . . . , en ∈ S ∪ BS \ Z, r = (s → w0e1w1 . . . enwn) ∈ R und (v1, . . . , vn) ∈ (X ∗)n, frWord (G)(v1, . . . , vn) =def w0v1w1 . . . vnwn. Beispiel 4.8 Nochmal die Regeln von SAB (siehe Beispiel 4.5): r1 = S → aB, r2 = S → bA, r3 = S → , r4 = A → aS r5 = A → bAA, r6 = B → bS, r7 = B → aBB. Alle drei Trägermengen der Wortalgebra Word (SAB) sind durch {a, b}∗ gegeben. Die Konstruktoren von Σ(SAB) werden in Word (SAB) wie folgt interpretiert: Für alle v, w ∈ {a, b}∗, Word (SAB) Word (SAB) (w) = f4 (w) = aw, f1 Word (SAB) Word (SAB) f2 (w) = f6 (w) = bw, Word (SAB) f3 = , Word (SAB) f5 (v, w) = bvw, Word (SAB) f7 (v, w) = avw. o 127 t ∈ TΣ(G) heißt G-Syntaxbaum für w ∈ X ∗, falls fold Word (G)(t) = w gilt. G ist eindeutig, wenn fold Word (G) injektiv ist. Die Sprache L(G) von G ist die Menge der Wörter über X, die sich aus der Faltung eines Syntaxbaums in Word (G) ergeben: L(G) =def fold Word (G)(TΣ(G)). Z.B. ist L(REG) (siehe 4.1) die Menge aller Wörter über syms(BS) (siehe 2.14), die reguläre Ausdrücke über BS darstellen, formal: L(REG) = {w ∈ syms(BS)∗ | ∃ t ∈ TReg(BS) : fold Regword (BS)(t)(0) = w}. Zwei Grammatiken G und G0 heißen äquivalent, wenn ihre Sprachen übereinstimmen. Die Theorie formaler Sprachen liefert eine äquivalente Definition von L(G), die die oben definierte Ableitungsrelation →G verwendet: Für alle s ∈ S, + L(G)s = {w ∈ BS ∗ | s →G w}. 128 javaToAlg "prog" 2 (siehe Java.hs) übersetzt das JavaLight-Programm in der Datei prog in die Interpretation des zugehörigen Syntaxbaums in Word (JavaLight) und schreibt diese in die Datei javasource. Die Inhalte von prog und javasource stimmen also miteinander überein! Abl(G), die Ableitungsbaumalgebra von G Für alle s ∈ S ist Abl(G) ist das kleinste (S ∪BS)-Tupel von Bäumen, deren innere Knoten mit Sorten und deren Blätter mit Basismengen markiert sind, und die folgende Eigenschaft haben: • Für alle B ∈ BS, Abl(G)B = {B}. • Für alle r = (s → (e1, . . . , en)) ∈ R und (t1, . . . , tn) ∈ Abl(G)e1 × . . . × Abl(G)en , s(t1, . . . , tn) ∈ Abl(G)s. s(t1, . . . , tn) repräsentiert den Baum mit Wurzelmarkierung s und maximalen Unterbäumen t1, . . . , tn. Abl(G) interpretiert die Konstruktoren von Σ(G) wie folgt: Abl(G) • Für alle w ∈ Z ∗ und r = (s → w) ∈ R, fr () =def s(w). 129 • Für alle n > 0, w0 . . . wn ∈ Z ∗, e1, . . . , en ∈ S ∪ BS \ Z, r = (s → w0e1w1 . . . enwn) ∈ R und (t1, . . . , tn) ∈ Abl(G)e1 × . . . × Abl(G)en , frAbl(G)(t1, . . . , tn) =def s(w0, t1, w1, . . . , tn, wn). Commands Command Commands fact = Sum ; Command Prod Sumsect while Disjunct Factor Prodsect Command Conjunct 1 Commands Literal Sum > Sum Prod Sumsect Factor Prodsect x Command fact = Sum ; Prod Sumsect Factor Prodsect 1 Commands Command Prod Sumsect Factor fact x = Sum ; Prodsect Prod * Factor Prodsect Factor Prodsect x x Sumsect - Prod Sumsect Factor Prodsect 1 Ableitungsbaum von fact = 1; while x > 1 {fact = fact*x; x = x-1;} 130 javaToAlg "prog" 3 (siehe Java.hs) übersetzt das JavaLight-Programm in der Datei prog in den zugehörigen Ableitungsbaum und schreibt diesen in die Datei Pix/javaderi.svg. Beispiel 4.9 Zwei Modelle der Ausdrücke von JavaLight Wir interpretieren hier zunächst nur die Sorten und Operationen von Σ(JavaLight), die mit Ausdrücken zu tun haben, also alle außer Command und Commands. Der erste Modell A = (A, Op) ignoriert darüberhinaus Programmvariablen (Strings), d.h. der Konstruktor var : String → Factor bleibt uninterpretiert. ASum = AProd = AFactor = Z ASumsect = AProdsect = Z → Z ADisjunct = AConjunct = ALiteral = 2 embedDA : AConjunct embedLA : ALiteral encloseS A : ASum encloseDA : ADisjunct embedI A : Z embedB A : 2 x → → → → → → 7→ ADisjunct AConjunct AFactor ALiteral AFactor ALiteral x 131 sumA : AProd × ASumsect → ASum prodA : AFactor × AProdsect → AProd (x, f ) 7→ f (x) sumsectA : {+, −} × AProd × ASumsect → ASumsect prodsectA : {∗, /} × AFactor × AProdsect → AProdsect (op, x, f ) 7→ λy.f (y op x) nilS A : 1 → ASumsect nilP A : 1 → AProdsect 7→ λx.x disjunctA : AConjunct × ADisjunct → ADisjunct (x, y) 7→ x ∨ y conjunctA : ALiteral × AConjunct → AConjunct (x, y) 7→ x ∧ y notA : ALiteral → ALiteral x 7→ ¬x 132 atomA : ASum × Rel × ASum → ALiteral (x, rel, y) 7→ x rel y Sei Store = String → Z (Menge der Belegungen von Programmvariablen durch ganze Zahlen). Das zweite Modell B = (B, Op) liftet jede Trägermenge M ∈ {Z, Z → Z, 2} von A zur Funktionsmenge Store → M : BSum = BProd = BFactor = Store → Z BSumsect = BProdsect = Store → (Z → Z) BDisjunct = BConjunct = BLiteral = Store → 2 B interpretiert embedD, embedL, encloseS und encloseD wie A als Identitäten. varB : String → BFactor x 7→ λstore.store(x) Die restlichen Operationen von Σ(JavaLight) werden zustandsabhängig gemacht: embedI B : Z → BFactor embedB B : 2 → BLiteral a 7→ λstore.a 133 sumB : BProd × BSumsect → BSum prodB : BFactor × BProdsect → BProd (f, g) 7→ λstore.g(store)(f (store)) sumsectB : {+, −} × BProd × BSumsect → BSumsect prodsectB : {∗, /} × BFactor × AProdsect → BProdsect (op, f, g) 7→ λstore.λx.g(store)(x op f (store)) nilS B : 1 → BSumsect nilP B : 1 → BProdsect 7→ λstore.λx.x disjunctB : BConjunct × BDisjunct → BDisjunct (f, g) 7→ λstore.(f (store) ∨ g(store)) conjunctB : BLiteral × BConjunct → BConjunct (f, g) 7→ λstore.(f (store) ∧ g(store)) notB : BLiteral → BLiteral f 7→ λstore.¬f (store) 134 atomB : BSum × Rel × BSum → BLiteral (f, rel, g) 7→ λstore.(f (store) rel g(store)) In Abschnitt 11.5 wird B als Teil der JavaLight-Algebra javaState in Haskell implementiert. 135 5 Parser und Compiler für CFGs Sei G = (S, BS, R) eine CFG, X = X übersetzt werden sollen. S BS und A eine Σ(G)-Algebra, in die Wörter über In Anlehnung an den klassischen Begriff eines semantisch korrekten Compilers [22, 41] verlangen wir, dass die Semantiken Sem und Mach seiner Quell- bzw. Zielsprache in der durch das folgende Funktionsdiagramm ausgedrückten Weise miteinander zusammenhängen: TΣ(G) fold Sem g Sem fold A (1) encode A evaluate g Mach Hierbei sind • Sem die ebenfalls als Σ(G)-Algebra gegebene Semantik der Quellsprache L(G), • Mach ein in der Regel unabhängig von Σ(G) definiertes Modell der Zielsprache, meist in Form einer abstrakten Maschine, • evaluate ein Interpreter, der Zielprogramme in der abstrakten Maschine Mach ausführt, 136 • encode eine Funktion, die Sem auf Mach abbildet und die gewünschte Arbeitsweise des Compilers auf semantischer Ebene reflektiert. Die Initialität der Termalgebra TΣ(G) erlaubt es uns, den Beweis der Kommutativität von (1) auf die Erweiterung von encode und evaluate zu Σ(G)-Homomorphismen zu reduzieren. Dazu muss zunächst Mach zu einer Σ(G)-Algebra gemacht werden, was z.B. bedeuten kann, die elementaren Funktionen der Zielsprache so in einer Signatur Σ0 zusammenzufassen, dass TΣ0 mit A übereinstimmt, jeder Konstruktor von Σ(G) einem Σ0-Term entspricht, Sem eine Σ0-Algebra ist und evaluate Σ0-Terme in Sem faltet. Die Darstellung von Σ(G)Konstruktoren durch Σ0-Terme bestimmt dann möglicherweise eine Definition von encode, die sowohl encode als auch evaluate Σ(G)-homomorph macht. So wurde z.B. in [41] die Korrektheit eines Compilers gezeigt, der imperative Programme in Datenflussgraphen übersetzt. Damit sind alle vier Abbildungen in Diagramm (1), also auch und die beiden Kompositionen evaluate ◦ fold A und encode ◦ fold Mach Σ(G)-homomorph. Da TΣ(G) eine initiale Σ(G)Algebra ist, sind beide Kompositionen gleich. Also kommutiert (1). Während fold A Syntaxbäume in der Zielsprache auswertet, ordnet fold Word (G) (siehe Kapitel 4) einem Syntaxbaum t das Wort der Quellsprache zu, aus dem ein Parser für G t berechnen soll. 137 In der Theorie formaler Sprachen ist der Begriff Parser auf Entscheidungsalgorithmen beschränkt, die anstelle von Syntaxbäumen lediglich einen Booleschen Wert liefern, der angibt, ob ein Eingabewort zur Sprache der jeweiligen Grammatik gehört oder nicht. Demgegenüber definieren wir einen Parser für G als eine S-sortige Funktion parseG : X ∗ → M (TΣ(G)), die entweder Syntaxbäume oder, falls das Eingabewort nicht zur Sprache von G gehört, Fehlermeldungen erzeugt. Welche Syntaxbäume bzw. Fehlermeldungen ausgegeben werden sollen, wird durch eine Monade M festgelegt. 5.1 Funktoren und Monaden Funktoren, natürlichen Transformationen und Monaden sind kategorientheoretische Grundbegriffe, die heutzutage jeder Softwaredesigner kennen sollte, da sie sich in den Konstruktionsund Transformationsmustern jedes denkbaren statischen, dynamischen oder hybriden Systemmodells wiederfinden. Die hier benötigten kategorientheoretischen Definitionen lauten wie folgt: Eine Kategorie K besteht aus • einer – ebenfalls mit K bezeichneten – Klasse von K-Objekten, • für alle A, B ∈ K einer Menge K(A, B) von K-Morphismen, 138 • einer assoziativen Komposition ◦ : K(A, B) × K(B, C) → K(A, C) (f, g) 7−→ g ◦ f, • einer Identität idA ∈ K(A, A), die bzgl. ◦ neutral ist, d.h. für alle B ∈ K und f ∈ K(A, B) gilt f ◦ idA = f = idB ◦ f . Im Kontext einer festen Kategorie K schreibt man meist f : A → B anstelle von f ∈ K(A, B). Wir haben hier mit vier Kategorien zu tun: Set, Set2 und SetS , deren Objekte alle Mengen, alle Mengenpaare bzw. alle S-sortigen Mengen und deren Morphismen alle Funktionen, alle Funktionspaare bzw. alle S-sortigen Mengen sind, sowie die Unterkategorie AlgΣ von SetS , deren Objekte alle Σ-Algebren und deren Morphismen alle Σ-Homomorphismen sind. Seien K, L Kategorien. Ein Funktor F : K → L ist eine Funktion, die jedem K-Objekt ein L-Objekt und jedem K-Morphismus f : A → B einen L-Morphismus F (f ) : F (A) → F (B) zuordnet sowie folgende Gleichungen erfüllt: • Für alle K-Objekte A, F (idA) = idF (A), (2) • Für alle K-Morphismen f : A → B and g : B → C, F (g ◦ f ) = F (g) ◦ F (f ). (3) 139 Zwei Funktoren F : K → L und G : L → M kann man wie andere Funktionen sequentiell zu weiteren Funktoren komponieren: Für alle K-Objekte und -Morphismen A, (GF )(A) =def G(F (A)). Beispiele Sei B ∈ L. Der konstante Funktor const(B) : K → L ordnet jedem K-Objekt das L-Objekt B zu und jedem K-Morphismus die Identität auf B. Der Identitätsfunktor Id K : K → K ordnet jedem K-Objekt und jedem K-Morphismus sich selbst zu. Der Diagonalfunktor ∆K : K → K2 ordnet jedem K-Objekt A das Objektpaar (A, A) und jedem K-Morphismus f das Morphismenpaar (f, f ) zu. Der Produktfunktor × : Set2 → Set ordnet jedem Mengenpaar (A, B) die Menge A × B und jedem Funktionspaar (f : A → B, g : C → D) die Funktion f × g =def λ(a, c).(f (a), g(c)) zu. 140 Der Listenfunktor Star : Set → Set ordnet jeder Menge A die Menge A∗ der Wörter über A zu und jeder Funktion f : A → B die Funktion Star (f ) : A∗ → B ∗ 7→ (a1, . . . , an) 7→ (f (a1), . . . , f (an)) Der Mengenfunktor P : Set → Set ordnen jeder Menge A die Potenzmenge P(A) zu und jeder Funktion f : A → B die Funktion P(f ) : P(A) → P(B) C 7→ {f (c) | c ∈ C} Sei E eine Menge von Fehlermeldungen, Ausnahmewerten o.ä. Der Ausnahmefunktor + E : Set → Set ordnet jeder Menge A die Menge A + E zu (siehe Kapitel 2) und jeder Funktion f : A → B die Funktion f +E :A+E → B+E (a, 1) 7→ (f (a), 1) (e, 2) 7→ (e, 2) Sei S eine Menge. 141 Der Potenz- oder Leserfunktor S : Set → Set über S ordnet jeder Menge A die Menge S → A zu und jeder Funktion f : A → B die Funktion f S : AS → B S g 7→ f ◦ g Der Copotenz- oder Schreiberfunktor × S : Set → Set über S ordnet jeder Menge A die Menge A × S zu und jeder Funktion f : A → B die Funktion f ×S :A×S → B×S (a, s) 7→ (f (a), s) Der Transitionsfunktor ( × S)S : Set → Set komponiert den Leser- mit dem Schreiberfunktor über S: Er ordnet also jeder Menge A die Menge (A×S)S zu und jeder Funktion f : A → B die Funktion (f × S)S : (A × S)S → (B × S)S g 7→ λs.(f (π1(g(s))), π2(g(s))) Aufgabe Zeigen Sie, dass die hier definierten Funktionen tatsächlich Funktoren sind, also (2) und (3) erfüllen, und dass sie sich von Set auf SetS fortsetzen lassen. o 142 Seien F, G : K → L Funktoren. Eine natürliche Transformation τ : F → G ordnet jedem K-Objekt A einen L-Morphismus τA : F (A) → G(A) derart, dass für alle KMorphismen f : A → B folgendes Diagramm kommutiert: τA F (A) G(A) F (f ) g F (B) G(f ) τB g G(B) Ein Funktor M : K → K heißt Monade, wenn es zwei natürliche Transformationen η : Id K → M (Einheit) und µ : M ◦ M → M (Multiplikation) gibt, die für alle A ∈ K das folgende Diagramm kommutativ machen: M (A) ηM (A) M (ηA) M (M (A)) ≺ M (A) (4) M (idA) µA g ≺ M (A) (5) M (idA) M (M (M (A))) M (µA) g M (M (A)) µM (A) M (M (A)) (6) µA µA g M (A) 143 Beispiele Viele der o.g. Funktoren sind Monaden. Einheit bzw. Multiplikation sind wie folgt definiert: Seien A, E, S Mengen. • Listenfunktor: ηA : A → A∗ a 7→ (a) µA : (A∗)∗ → A∗ (w1, . . . , wn) 7→ w1 · . . . · wn • Mengenfunktor: ηA : A → P(A) a 7→ {a} µA : P(P(A)) → P(A) S S 7→ S • Ausnahmefunktor: ηA : A → A + E a 7→ (a, 1) µA : (A + E) + E → A + E ((a, 1), 1) 7→ (a, 1) ((e, 2), 1) 7→ (e, 2) (e, 2) 7→ (e, 2) 144 • Leserfunktor: ηA : A → A S µA : (AS )S → AS a 7→ λs.a f 7→ λs.f (s)(s) • Schreiberfunktor: Hier muss S die Trägermenge eines Monoids M = (S, ∗, e) sein. ηA : A → A × S µA : (A × S) × S → A × S a 7→ (a, e) ((a, s), s0) 7→ (a, s ∗ s0) • Transitionsfunktor: ηA : A → (A × S)S µA : ((A × S)S × S)S → (A × S)S a 7→ λs.(a, s) f 7→ λs.π1(f (s))(π2(f (s))) Aufgabe Zeigen Sie, dass für diese Beispiele (4)-(6) gilt. o Seien A und B Mengen. Der bind-Operator = : M (A) × (A → M (B)) → M (B) wird wie folgt aus M und der Multiplikation von M abgeleitet: 145 Für alle A ∈ K und f : A → M (B), (= f ) = µB ◦ M (f ). (7) Intuitiv stellt man sich ein monadisches Objekt m ∈ M (A) als Berechnung vor, die eine – evtl. leere – Menge von Werten in A erzeugt. Ein Ausdruck der Form m = f wird dann wie folgt ausgewertet: Die von m berechneten Werte a ∈ A werden als Eingabe an die Berechnung f übergeben und von f (a) verarbeitet. Die Betrachtung der Elemente von M (A) als Berechnungen, die eine Ausgabe in A produzieren, lässt sich besonders gut am Beispiel der Transitionsmonade begründen. Aus der Multiplikation der Transitionsmonade und der allgemeinen Definition des bindOperators ergibt sich nämlich die folgende Charakterisierung des bind-Operators der Transitionsmonade: Für alle g : S → A × S und f : A → (S → B × S), g = f = µB (M (f )(g)) = µB ((f × S)S (g)) = µB (λs.(f (π1(g(s))), π2(g(s)))) = λs.π1((λs.(f (π1(g(s))), π2(g(s))))(s))(π2((λs.(f (π1(g(s))), π2(g(s))))(s))) = λs.π1(f (π1(g(s))), π2(g(s)))(π2(f (π1(g(s))), π2(g(s)))) = λs.f (π1(g(s)))(π2(g(s))). 146 Die Anwendung der Funktion (g = f ) : S → B ×S auf den Zustand s besteht demnach • in der Anwendung von g auf s, die die Ausgabe a = π1(g(s)) und den Folgezustand s0 = π2(g(s)) liefert, • und der darauffolgenden Anwendung von f (a) auf s0. Sei A, B, C Mengen, a ∈ A, m ∈ M (A), m0 ∈ M (M (A)), f : A → M (B), g : B → M (C) und h : A → B. Aus (4)-(7) erhält man die folgenden Eigenschaften von =: m = ηA ηA(a) = f (m = f ) = g = = = m, f (a), m = λa.f (a) = g. (8) (9) (10) (2)-(4) und (7) implizieren die folgenden Charakterisierungen von M (h) bzw. µA: M (h)(m) = m = ηB ◦ h, (11) µA(m0) = m0 = idM (A). Mit dem bind-Operator werden monadische Objekte sequentiell verknüpft. Plusmonaden haben zusätzlich eine parallele Komposition, die – analog zu η und µ – für Monaden M : Set → Set als natürliche Transformation ⊕ von M × M = × ◦ ∆ ◦ M nach M definiert wird. Mit ⊕ lässt sich z.B. das Backtracking bzw. der Nichtdeterminismus eines monadischen Compilers realisieren (siehe Kapitel 6). 147 Die Komposition von Monaden führt zu weiteren Monaden: Sei M eine Monade mit Einheit η, Multiplikation µ und paralleler Komposition ⊕ und S eine Menge. • Lesermonade über (M, ⊕): M 0 =def λA.M (A)S Die Morphismenabbildung von M , η, µ und ⊕ werden wie folgt auf M 0 fortgesetzt: Sei h : A → B. M 0(h) : M 0(A) → M 0(B) f 7→ M (h) ◦ f ηA : A → M 0(A) µA : M 0(M 0(A)) → M 0(A) f 7→ λs.f (s) = λg.g(s) ⊕ : M 0(A) × M 0(A) → M 0(A) (f, g) 7→ λs.f (s) ⊕ g(s) 148 • Transitionsmonade über (M, ⊕): M 0 =def λA.M (A × S)S Die Morphismenabbildung von M , η, µ und ⊕ werden wie folgt auf M 0 fortgesetzt: Sei h : A → B. M 0(h) : M 0(A) → M 0(B) f 7→ λs.f (s) = λ(a, s).η(h(a), s) ηA : A → M 0(A) a 7→ λs.η(a, s) µA : M 0(M 0(A)) → M 0(A) f 7→ λs.f (s) = λ(g, s).g(s) ⊕ : M 0(A) × M 0(A) → M 0(A) (f, g) 7→ λs.f (s) ⊕ g(s) Die Implementierung von Monaden in Haskell wird in Kapitel 15 behandelt, monadische Compiler in Kapitel 16. Letztere sind Transitionsmonaden über Ausnahmemonaden, wobei S die Menge X ∗ der zu verarbeitenden Wörter ist. Weitere Monadenbeispiele finden sich z.B. in [28], Kapitel 7. 149 Compilermonaden Sei S eine Menge, M : SetS → SetS eine Monade mit Einheit η, bind-Operator =, natürliche Transformationen ⊕ : M × M → M und set : M → P (wobei P hier den Mengenfunktor für S-sortige Mengen bezeichnet) und E = {m ∈ M (A) | setA(m) = ∅, A ∈ SetS } (“Menge der Ausnahmewerte”). M heißt Compilermonade, wenn für alle Mengen A, B, m, m0, m00 ∈ M (A), e ∈ E, f : A → M (B), h : A → B und a ∈ A Folgendes gilt: (m ⊕ m0) ⊕ m00 = m ⊕ (m0 ⊕ m00), M (h)(e) = e, M (h)(m ⊕ m0) = M (h)(m) ⊕ M (h)(m0), setA(m ⊕ m0) = setA(m) ∪ setA(m0), (CM 1) (CM 2) (CM 3) setA(ηA(a)) = {a}, S setB (m = f ) = {setB (f (a)) | a ∈ setA(m)}. 150 Nach Definition der Einheit η P und des bind-Operators =P der Mengenmonade P machen die letzten beiden Gleichungen set zum Monadenmorphismus. Aus ihnen folgt nämlich: setA ◦ ηA = ηAP , setB (m = f ) = setA(m) =P setB ◦ f. Außerdem erhält man für alle S-sortigen Mengen A, S-sortigen Funktionen h : A → B und m ∈ M (A): S setB (M (h)(m)) = setB (m = ηB ◦ h) = {setB (ηB (h(a)) | a ∈ setA(m)} S = {{h(a)} | a ∈ setA(m)} = h(setA(m)). Satz 5.2 Listen-, Mengen- und Ausnahmefunktoren sind Compilermonaden. Beweis. Sei A eine Menge, ⊕ = · und setA : A∗ → P(A) definiert durch setA() = ∅ und setA(s) = {a1, . . . , an} für alle s = (a1, . . . , an) ∈ A+. Damit ist Star eine Compilermonade. Sei A eine Menge, ⊕ = ∪ und setA : P(A) → P(A) definiert durch idP(A). Damit ist P eine Compilermonade. 151 Seien A und E disjunkte Mengen, ⊕ = λ(m, m0).m und setA : A + E → P(A) definiert durch setA(e) = ∅ für alle e ∈ E und setA(a) = {a} für alle a ∈ A. Damit ist λA.A + E eine Compilermonade. o Monadenbasierte Parser und Compiler S Sei G = (S, BS, R) eine CFG, X = BS, Σ(G) = (S, I, F ) und M : SetS → SetS eine Compilermonade. Wie bereits in Kapitel 1 informell beschrieben wurde, soll ein Compiler für G in die als Σ(G)-Algebra A formulierten Zielsprache einen Parser für G mit der Faltung in A der vom Parser erzeugten Syntaxbäume komponieren: compileA G ∗ parseG M (fold A ) = X −→ M (TΣ(G)) −→ M (A). (12) 152 Gilt (12), dann überträgt sich die Kommutativität von Diagramm (1) wie folgt auf die Kommutativität des folgenden Diagramms: X compileA G ∗ compileSem G M (A) M (evaluate) (13) g M (Sem) M (encode) g M (Mach) (12) A M (evaluate) ◦ compileA G = M (evaluate) ◦ M (fold ) ◦ parseG (1) M ist Funktor = M (evaluate ◦ fold A) ◦ parseG = M (encode ◦ fold Sem ) ◦ parseG M ist Funktor M (encode) ◦ M (fold Sem ) ◦ parseG = M (encode) ◦ compileSem G . = (12) Da TΣ(G) initial ist, stimmt fold TΣ(G) mit der Identität auf TΣ(G) überein. Also gilt: parseG = idM (TΣ(G)) ◦ parseG = M (idTΣ(G) ) ◦ parseG = M (fold TΣ(G) ) ◦ parseG (12) T = compileGΣ(G) . 153 Da TΣ(G) eine Σ(G)-Algebra und fold A Σ(G)-homomorph ist, ist (12) ein Spezialfall folgender Bedingung: Für alle Σ(G)-Homomorphismen h : A → B, B M (h) ◦ compileA G = compileG . (14) T Sei parseG = compileGΣ(G) und unparseG =def fold Word (G). Die Korrektheit von parseG lässt sich wie folgt formalisieren: Für alle w ∈ X ∗, P(unparseG)(setTΣ(G) (parseG(w))) ⊆ {w}, (15) in Worten: Die Faltung jedes von parseG(w) berechneten Syntaxbaums in der Algebra Word (G) stimmt mit w überein. Wegen P(unparseG) ◦ setTΣ(G) ◦ parseG = setWord (G) ◦ M (unparseG) ◦ parseG Word (G) = setWord (G) ◦ compileG ist (15) äquivalent zu Word (G) setWord (G)(compileG (w)) ⊆ {w}. (16) (15) erlaubt die Leerheit von setTΣ(G) (parseG(w)). Der Parser parseG ist vollständig, wenn er jedes Wort w ∈ L(G) in mindestens einen Syntaxbaum für w übersetzt, d.h. er erfüllt folgende Bedingung: Word (G) ∀ w ∈ L(G) : setWord (G)(compileG (w)) 6= ∅. (17) 154 Zusammenfassend ergibt sich folgende Definition: Ein generischer Compiler für G ist eine AlgΣ(G)-sortige Menge ∗ compileG = (compileA G : X → M (A))A∈AlgΣ(G) , die (14), (16) und (17) erfüllt. Sei W = Word (G). (16) und (17) machen setW ◦ compileW G zu der Summenextension (siehe Kapitel 2) [λw.{w}, λw.∅] : L(G) + X ∗ \ L(G) → P(X ∗). L(G) incL(G) X∗ ≺ incX ∗\L(G) X ∗ \ L(G) setW ◦ compileW G λw.{w} λw.∅ g ≺ P(X ∗) U.a. ist dann die Einschränkung von parseG auf L(G) rechtsinvers zu unparseG: setW ◦ M (unparseG) ◦ parseG ◦ incL(G) = setW ◦ M (fold W ) ◦ parseG ◦ incL(G) (12) = setW ◦ compileW G ◦ incL(G) = λw.{w}. 155 Schließlich gilt (14) genau dann, wenn compileG : const(X ∗) → M ◦ U eine natürliche Transformation ist, wobei const(X ∗), U : AlgΣ(G) → SetS die Funktoren bezeichnen, die • jeder Σ(G)-Algebra A die S-sortige Menge (X ∗)s∈S bzw. die Trägermenge von A und • jedem Σ(G)-Homorphismus h die S-sortige Funktion (idX ∗ )s∈S bzw. die h zugrundeliegende S-sortige Funktion zuordnen. 156 6 LL-Compiler Der in diesem Kapitel definierte generische Compiler überträgt die Arbeitsweise eines klassischen LL-Parsers auf Compiler mit Backtracking. Das erste L steht für seine Verarbeitung des Eingabewortes von links nach rechts, das zweite L für seine – implizite – Konstruktion einer Linksableitung. Da diese Arbeitsweise dem mit der Wurzel beginnenden schrittweisen Aufbau eines Syntaxbaums entspricht, werden LL-Parser auch top-down-Parser genannt. S Sei G = (S, BS, R) eine nicht-linksrekursive CFG, X = BS, Z = {B ∈ BS | |B| = 1}, M eine Compilermonade, errmsg : X ∗ → E, A eine Σ(G)-Algebra und s ∈ S. compileG heißt LL-Compiler, wenn ∗ compileA G,s : X → M (As ) wie folgt definiert ist: Für alle w ∈ X ∗, A (1) compileA G,s (w) = transs (w) = λ(a, w).if w = then ηA (a) else errmsg(w), wobei für alle für alle s ∈ S ∪ BS ∗ ∗ transA s : X → M (As × X ) wie folgt definiert ist: 157 Fall 1: s ∈ BS. Für alle x ∈ X und w ∈ X ∗, transA s (xw) = if x ∈ s then ηA×X ∗ (x, w) else errmsg(xw) transA s () = errmsg() Fall 2: s ∈ S. Für alle w ∈ X ∗, transA s (w) = M tryrA(w). (2) r=(s→e)∈R Für alle r = (s → (e1, . . . , en)) ∈ R und w ∈ X ∗, transA e1 (w) = λ(a1 , w1 ). transA (w ) = λ(a , w ). 1 2 2 e2 tryrA(w) = ... transA (w ) = λ(a , w ).η A n−1 n n A×X ∗ (fr (ai1 , . . . , aik ), wn ), en (3) wobei {i1, . . . , ik } = {1 ≤ i ≤ n | ei ∈ S ∪ BS \ Z}. Während alle Summanden von (2) auf das gesamte Eingabewort w angewendet werden, wird es von tryrA Symbol für Symbol verarbeitet: Zunächst wird transA e1 auf w angewendet, A A dann transA e2 auf das von transe1 nicht verarbeitete Suffix w1 von w, transe3 auf das von transA e2 nicht verarbeitete Suffix w2 von w1 , usw. 158 Gibt es 1 ≤ j ≤ n derart, dass transA ej (w) scheitert, d.h. existiert kein aus ej ableitbares Präfix von w, dann übergibt tryrA das gesamte Eingabewort zur Parsierung an den nächsten Teilcompiler tryrA0 der Argumentliste von ⊕ in (2) (Backtracking). A Ist transA ei (w) jedoch für alle 1 ≤ i ≤ n erfolgreich, dann schließt der Aufruf von tryr mit der Anwendung von frA auf die Zwischenergebnisse ai1 , . . . , aik ∈ A. Klassische LL-Parser sind deterministisch, d.h. sie erlauben kein Backtracking, sondern setzen voraus, dass die ersten k Symbole des Eingabewortes w bestimmen, welcher der A Teilcompiler trys→e aufgerufen werden muss, um zu erkennen, dass w zu L(G)s gehört. CFGs, die diese Voraussetzung erfüllen, heißen LL(k)-Grammatiken. Im Gegensatz zur Nicht-Linksrekursivität lässt sich die LL(k)-Eigenschaft nicht immer durch eine Transformation der Grammatik erzwingen, auch dann nicht, wenn sie eine von einem deterministischen Kellerautomaten erkennbare Sprache erzeugt! Monadische Ausdrücke werden in Haskell oft in der do-Notation wiedergegeben. Sie verdeutlicht die Korrespondenz zwischen monadischen Berechnungen einerseits und imperativen Programmen andererseits. Die Rückübersetzung der do-Notation in die ursprünglichen monadischen Ausdrücke ist induktiv wie folgt definiert: 159 Sei m ∈ M (A), a ∈ A und m0 ∈ M (B). do m; a ← m0 = m = λa. do m0 do m; m0 = m do m0 Gleichung (10) von Kapitel 5 impliziert die Assoziativität des Sequentialisierungsoperators (;), d.h. do m; m0; m00 ist gleichbedeutend mit do (do m; m0); m00 und do m; (do m0; m00). Beispiel 6.1 SAB (siehe Beispiel 4.5) Die Regeln r1 = S → aB, r2 = S → bA, r3 = S → , r4 = A → aS, r5 = A → bAA, r6 = B → bS, r7 = B → aBB von SAB liefern nach obigem Schema die folgende Transitionsfunktion des LL-Compilers in eine beliebige SAB-Algebra alg: Für alle x, z ∈ {a, b} und w ∈ {a, b}∗, trans_z(xw) = if x = z then η(z,w) else errmsg(xw) trans_z() = errmsg() 160 trans_S(w) = try_r1(w) ⊕ try_r2(w) ⊕ try_r3(w) trans_A(w) = try_r4(w) ⊕ try_r5(w) trans_B(w) = try_r6(w) ⊕ try_r7(w) try_r1(w) try_r2(w) try_r3(w) try_r4(w) try_r5(w) try_r6(w) try_r7(w) = do (x,w) <- trans_a(w); (c,w) <- trans_B(w); = do (x,w) <- trans_b(w); (c,w) <- trans_A(w); = η(f_r3^alg,w) = do (x,w) <- trans_a(w); (c,w) <- trans_S(w); = do (x,w) <- trans_b(w); (c,w) <- trans_A(w); (d,w) <- trans_A(w); = do (x,w) <- trans_b(w); (c,w) <- trans_S(w); = do (x,w) <- trans_a(w); (c,w) <- trans_B(w); (d,w) <- trans_B(w); η(f_r1^alg(c),w) η(f_r2^alg(c),w) η(f_r4^alg(c),w) η(f_r5^alg(c,d),w) η(f_r6^alg(c),w) η(f_r7^alg(c,d),w) o 161 Sei W = Word (G). Um später zeigen zu können, dass der LL-Compiler vollständig ist, setzen wir voraus, dass • für alle s ∈ S, v ∈ L(G)s und w ∈ X ∗ r = (s → (e1, . . . , en)) ∈ R und für alle 1 ≤ i ≤ n vi ∈ L(G)ei mit v1 . . . vn = v und setW 2 (tryrW (w)) ⊆ setW 2 (transW s (w)) existieren. (LLC ) Gibt es keine Anordnung der Regeln in (2), die diese Bedingung erfüllt, dann müssen ggf. neue Sorten für die Vorkommen einer Sorte in bestimmten Kontexten eingeführt und die Regeln von R entsprechend modifiziert werden. Beispiel 6.2 Ein solcher Fall würde z.B. in JavaLight+ auftreten (siehe Kapitel 13), wenn wir dort anstelle der drei Sorten ExpSemi , ExpBrac und ExpComm die zunächst naheliegende eine Sorte Exp und die folgenden Regeln verwenden würden: 162 Command Exp Sum Sumsect Prod Prodsect Factor Disjunct Conjunct Literal Actuals Actuals0 → → → → → → → → → → → → String = Exp; | write Exp; | . . . Sum | Disjunct Prod Sumsect ... | Factor Prodsect ... | String | String Actuals | . . . Conjunct | . . . Literal | . . . String | String Actuals | . . . () | (Actuals0 Exp) | Exp, Actuals0 (A) (B) (C) Ein LL-Compiler für Command würde z.B. die Eingabe z = x<=11; als syntaktisch inkorrekt betrachten, weil der Teilcompiler für Exp zunächst nach dem längsten aus Sum ableitbaren Präfix von x<=11 sucht, x als solches erkennt und deshalb das Wort x<=11 nicht bis zum Ende liest. Die Ersetzung von Regel (B) durch Exp → Disjunct|Sum löst das Problem nicht, denn nun würde der Compiler z.B. die Eingabe z = x+11; als syntaktisch inkorrekt betrachten, weil der Teilcompiler für Exp zunächst nach dem längsten aus Disjunct ableitbaren Präfix 163 von x+11 sucht, x als solches erkennt und deshalb das Wort x+11 nicht bis zum Ende liest. Ersetzt man hingegen (A)-(C) durch Command ExpSemi ExpBrac ExpComm Actuals0 → → → → → String = ExpSemi | write ExpSemi | . . . Sum; | Disjunct; Sum) | Disjunct) Sum, | Disjunct, ExpBrac | ExpComm Actuals0 dann wird alles gut: Jetzt erzwingt das auf Sum oder Disjunct folgende Terminal (Semikolon, schließende Klammer bzw. Komma), dass die Compiler für ExpSemi , ExpBrac und ExpComm die jeweilige Resteingabe stets bis zu diesem Terminal verarbeiten. Natürlich genügt ein Compiler für alle drei Sorten. Man muss ihn lediglich mit dem jeweiligen Terminal parametrisieren (siehe Java2.hs). o Satz 6.4 transA ist wohldefiniert. Beweis durch Noethersche Induktion. Da S endlich und G nicht linksrekursiv ist, ist die folgende Ordnung > auf S ∪ BS Noethersch, d.h., es gibt keine unendlichen Ketten s1 > s2 > s3 > · · · : s > s0 ⇔def + ∃ w ∈ (S ∪ BS)∗ : s →G s0w. 164 Wir erweitern > zu einer ebenfalls Noetherschen Ordnung auf X ∗ × (S ∪ BS): (v, s) (w, s0) ⇔def |v| > |w| oder (|v| = |w| und s > s0). Nach Definition von transs(w) gibt es r = (s → e1 . . . en) ∈ R mit A A A transA s (w) = . . . transe1 (w) . . . transe2 (w1 ) . . . transen (wn−1 ) . . . Da w1, . . . , wn echte Suffixe von w sind, gilt s > e1 und |w| > |wi| für alle 1 ≤ i < n, also (w, s) (w, e1) und (w, s) (wi−1, ei) für alle 1 < i ≤ n. Die rekursiven Aufrufe von transA haben also bzgl. kleinere Argumente. Folglich terminiert jeder Aufruf von transA, m.a.W.: transA ist wohldefiniert. o Der Beweis, dass compileG Gleichung (15) von Kapitel 5 erfüllt, verwendet die folgenden Zusammenhänge zwischen einer Monade M und ihrem bind-Operator: Lemma 6.5 Sei M : SetS → SetS eine Monade und h : A → B eine S-sortige Funktion. Für alle m ∈ M (A), f : A → M (A) und g : B → M (B), M (h)(m = f ) = m = M (h) ◦ f, M (h)(m) = g = m = g ◦ h. (4) (5) 165 Sei Σ eine Signatur, m1, . . . , mn ∈ M (A), h : A → B Σ-homomorph, für alle 1 ≤ i ≤ n, fi : A → · · · → A → M (A), gi : B → · · · → B → M (B), und t ∈ TΣ(V ) mit var(t) = {x1, . . . , xn}, fi(a1) . . . (ai−1) = mi fi+1(a1) . . . (ai−1), fn+1(a1) . . . (an) = ηA(fa∗(t)) für alle a = (a1, . . . , an) ∈ A und gi(b1) . . . (bi−1) = M (h)(mi) gi+1(b1) . . . (bi−1), gn+1(b1) . . . (bn) = ηB (gb∗(t)) für alle b = (b1, . . . , bn) ∈ B, wobei fa : V → A und gb : V → B durch fa(xi) = ai und gb(xi) = bi für alle 1 ≤ i ≤ n definiert sind. Dann gilt M (h)(f1) = g1. (6) Beweis von (4). M (h)(m = f ) (10) in Kap. 5 = = (m = f ) = ηB ◦ h m = λa.f (a) = ηB ◦ h (11) in Kap. 5 = (11) in Kap. 5 m = λa.M (h)(f (a)) = m = M (h) ◦ f. 166 Beweis von (5). M (h)(m) = g = (m = ηB ◦ h) = g (9) in Kap. 5 = (10) in Kap. 5 = m = λa.ηB (h(a)) = g m = λa.g(h(a)) = m = g ◦ h. Beweis von (6). (4) M (h)(f1) = M (h)(m1 f2) = m1 = M (h) ◦ f2 = m1 = λa1.M (h)(f2(a1)) (4) = m1 = λa1.M (h)(m2 = f3(a1)) = m1 = λa1.m2 = M (h) ◦ f3(a1) = m1 = λa1.m2 = λa2.M (h)(f3(a1)(a2)) = · · · = m1 = λa1.m2 = · · · = λan.M (h)(fn+1(a1) . . . (an)) = m1 = λa1.m2 = · · · = λan.M (h)(ηA(fa∗(t))) = m1 = λa1.m2 = · · · = λan.ηB (h(fa∗(t))) = m1 = λa1.m2 = · · · = λan.ηB ((h ◦ fa)∗(t)) h◦fa =gh(a) = ∗ m1 = λa1.m2 = · · · = λan.ηB (gh(a) (t)) (7) 167 (5) g1 = M (h)(m1) = g2 = m1 = g2 ◦ h = m1 = λa1.g2(h(a1)) = m1 = λa1.M (h)(m2) = g3(h(a1)) = m1 = λa1.m2 = g3(h(a1)) ◦ h = m1 = λa1.m2 = λa2.g3(h(a1))(h(a2)) = · · · = m1 = λa1.m2 = · · · = λan.gn+1(h(a1)) . . . , (h(an)) ∗ = m1 = λa1.m2 = · · · = λan.ηB (gh(a) (t)) (8) o Aus (7) und (8) folgt (6). Satz 6.6 Sei h : A → B ein Σ(G)-Homomorphismus. Der oben definierte LL-Compiler erfüllt Gleichung (14) aus Kapitel 5, also A compileB G = M (h) ◦ compileG . (9) Beweis. Sei transB = M (h × X ∗) ◦ transA. (10) Dann gilt (9): Für alle w ∈ X ∗, (1) B compileB G (w) = trans (w) = λ(b, w).if w = then ηB (b) else errmsg(w) 168 (10) = M (h × X ∗)(transA(w)) = λ(b, w).if w = then ηB (b) else errmsg(w) (11) in Kap. 5 = (transA(w) = (ηB×X ∗ ◦ (h × X ∗))) = λ(b, w).if w = then ηB (b) else errmsg(w) = (transA(w) = λ(a, w).ηB×X ∗ (h(a), w)) = λ(b, w).if w = then ηB (b) else errmsg(w) (10) in Kap. 5 = transA(w) = λ(a, w).ηB×X ∗ (h(a), w) = λ(b, w).if w = then ηB (b) else errmsg(w) (9) in Kap. 5 = transA(w) = λ(a, w).if w = then ηB (h(a)) else errmsg(w) (CM 1) = transA(w) = λ(a, w).if w = then ηB (h(a)) else M (h)(errmsg(w)) (9),(11) in Kap. 5 = transA(w) = λ(a, w).if w = then ηA(a) = ηB ◦ h else errmsg(w) = ηB ◦ h = transA(w) = λ(a, w).(if w = then ηA(a) else errmsg(w)) = ηB ◦ h (10) in Kap. 5 = (transA(w) = λ(a, w).if w = then ηA(a) else errmsg(w)) = ηB ◦ h = compileA G (w) = ηB ◦ h (11) in Kap. 5 = M (h)(compileA G (w)). 169 Beweis von (10) durch Noethersche Induktion bzgl. der im Beweis von Satz 6.4 definierten Ordnung : Fall 1: s ∈ BS. Für alle x ∈ X und w ∈ X ∗, ∗ M (h × X ∗)(transA s (xw)) = if x ∈ s then M (h × X )(ηA×X ∗ (x, w)) else M (h × X ∗)(errmsg(xw)) η ist nat. Transformation, (CM 1 ) = (h×X ∗ )(x,w)=(h(x),w)=(x,w) = if x ∈ s then ηB×X ∗ ((h × X ∗)(x, w)) else errmsg(xw) if x ∈ s then ηB×X ∗ (x, w) else errmsg(xw) = transB s (xw), (CM 1) ∗ B M (h × X ∗)(transA s ()) = M (h × X )(errmsg()) = errmsg() = transs (). Fall 2: s ∈ S. Sei r = (s → w0) ∈ R. Für alle w ∈ X ∗, M (h × X ∗)(tryrA(w)) A transe1 (w) = λ(a1, w1). (3) . ) = M (h × X ∗)( .. transA (w ) = λ(a , w ).η A ∗ (f (a , . . . , a ), w ) n−1 n n A×X j j n en r 1 k A transe1 (w) = λx1. . ∗ = M (h × X )( .. ) transA (w ) = λx .η A ∗ (f (π (x ), . . . , π (x )), π (x )) en n−1 n A×X r 1 j1 1 jk 2 n 170 M (h × X ∗)(transA e1 (w)) = λx1 . . .. 6.5 (6) = ) ∗ A M (h × X )(trans (w )) n−1 en B ∗ = λxn.ηB×X (fr (π1(xj1 ), . . . , π1(xjk )), π2(xn)) ∗ A M (h × X )(transe1 (w)) = λ(b1, w1). . = .. M (h × X ∗)(transA (w )) = λ(b , w ).η B ∗ (f (b , . . . , b ), w ) n−1 n n B×X j1 jk n r en B transe1 (w) = λ(b1, w1). ind. hyp. . .. = transB (w ) = λ(b , w ).η B ∗ (f (b , . . . , b ), w ) en n−1 n n B×X r j1 jk (3) = tryrB (w). n (11) Daraus folgt (10): (2) ∗ A M (h × X ∗)(transA s (w)) = M (h × X )(⊕r=(s→e)∈R tryr (w)) (CM 2) (11) (2) = ⊕r=(s→e)∈R M (h × X ∗)(tryrA(w)) = ⊕r=(s→e)∈R tryrB (w) = transB s (w). o 171 Lemma 6.7 Sei M : SetS → SetS eine Compilermonade, f : AN → A und m1, . . . , mn ∈ M (A). setA(m1 = λa1. . . . mn = λan.ηA(f (a1, . . . , an))) V = {f (a1, . . . , an) | ni=1 ai ∈ setA(mi)}. Beweis. setA(m1 = λa1. . . . mn = λan.ηA(f (a1, . . . , an))) S = {setA(m2 = λa2. . . . mn = λan.ηA(f (a1, . . . , an))) | a1 ∈ setA(m1)} S S = { {setA(m3 = λa3. . . . mn = λan.ηA(f (a1, . . . , an))) | a2 ∈ setA(m2)} | a1 ∈ setA(m1)} = S {setA(m3 = λa3. . . . mn = λan.ηA(f (a1, . . . , an))) | a2 ∈ setA(m2), a1 ∈ setA(m1)} = ... S V = {setA(ηA(f (a1, . . . , an))) | ni=1 ai ∈ setA(mi)} V S = {{f (a1, . . . , an)} | ni=1 ai ∈ setA(mi)} V = {f (a1, . . . , an) | ni=1 ai ∈ setA(mi)}. o 172 Satz 6.8 Der oben definierte LL-Compiler ist korrekt, d.h. für alle w ∈ X ∗ gilt: Word (G) setWord (G)(compileG (w)) ⊆ {w} (12) (siehe (16) in Kapitel 5). Beweis. Sei W = Word (G). Für alle w ∈ X ∗ und s ∈ S ∪ BS gelte folgende Bedingung: 0 ∀ (v, v 0) ∈ setW 2 (transW s (w)) : vv = w. (13) Dann gilt auch (14): setW (compileW G,s (w)) (1) 0 0 0 = setW (transW s (w) = λ(v, v ).if v = then ηW (v) else errmsg(v )) S = {setW (if v 0 = then ηW (v) else errmsg(v 0)) | (v, v 0) ∈ setW 2 (transW s (w))} (13) S ⊆ {setW (if v 0 = then ηW (v) else errmsg(v 0)) | vv 0 = w} S = {if v 0 = then setW (ηW (v)) else setW (errmsg(v 0)) | vv 0 = w} S = {if v 0 = then {v} else ∅ | vv 0 = w} = {w}. Beweis von (15) durch Noethersche Induktion bzgl. der im Beweis von Satz 6.4 definierten Ordnung . 173 Fall 1: s ∈ BS. Sei x ∈ X, w ∈ X ∗ und (v, v 0) ∈ setW 2 (transW s (xw)). Dann gilt (v, v 0) ∈ setW 2 (if x ∈ s then ηW 2 (x, w) else errmsg(xw)) = if x ∈ s then setW 2 (ηW 2 (x, w)) else setW 2 (errmsg(xw)) = if x ∈ s then {(x, w)} else ∅, also vv 0 = xw. Fall 2: s ∈ S. Sei w ∈ X ∗ und (v, v 0) ∈ setW 2 (transW s (w)). Dann gilt L (2) W (v, v 0) ∈ setW 2 (transW (w))) = set ( 2 W s r=(s→e)∈R tryr (w)) (CM 3) S W ⊆ r=(s→e)∈R setW 2 (tryr (w)). Also gibt es r = (s → e1 . . . en) ∈ R mit (v, v 0) ∈ setW 2 (tryrW (w)). Sei w0 = w. Dann gilt (v, v 0) ∈ setW 2 (tryrW (w0)) (3) = setW 2 (transW e1 (w0 ) = λ(v1 , w1 ). ... W transW en (wn−1 ) = λ(vn , wn ).ηW 2 (fr (vj1 , . . . , vjk ), wn )) V Lemma 6 .7 = {(frW (vj1 , . . . , vjk ), wn) | ni=1(vi, wi) ∈ setW 2 (transW ei (wi−1 ))} V = {(v1 . . . vn, wn) | ni=1(vi, wi) ∈ setW 2 (transW (14) ei (wi−1 ))}. 174 V Also gibt es v1, . . . , vn, w1, . . . , wn ∈ X ∗ mit ni=1(vi, wi) ∈ setW 2 (transW ei (wi−1 )), V n v = v1 . . . vn und v 0 = wn. Nach Induktionsvoraussetzung folgt i=1 viwi = wi−1, also vv 0 = v1 . . . vnwn = w0 = w. o Satz 6.9 Der oben definierte LL-Compiler ist vollständig, d.h. für alle w ∈ L(G) gilt: Word (G) setW (compileG (w)) 6= ∅. (15) Beweis. Sei W = Word (G). Für alle s ∈ S ∪ BS, v ∈ L(G)s und w ∈ X ∗ gelte: (v, w) ∈ setW 2 (transW s (vw)). (16) Dann gilt auch (15): Sei w ∈ L(G). Word (G) setW (compileG,s (w)) (1) 0 0 0 = setW (transW s (w) = λ(v, v ).if v = then ηW (v) else errmsg(v )) S = {setW (if v 0 = then ηW (v) else errmsg(v 0)) | (v, v 0) ∈ setW 2 (transW s (w))} S = {setW (ηW (v)) | (v, ) ∈ setW 2 (transW s (w))} ∪ S 0 {setW (errmsg(v 0)) | (v, v 0) ∈ setW 2 (transW s (w)), v 6= } S S 0 = {{v} | (v, ) ∈ setW 2 (transW (w))} ∪ {∅ | (v, v 0) ∈ setW 2 (transW s s (w)), v 6= } = {v | (v, ) ∈ setW 2 (transW s (w))} (16) 6= ∅. 175 Beweis von (16) durch Noethersche Induktion bzgl. der im Beweis von Satz 6.4 definierten Ordnung . Fall 1: s ∈ BS. Dann ist v ∈ X und damit setW 2 (transW s (vw)) = setW 2 (ηW 2 (v, w)) = {(v, w)}. Fall 2: s ∈ S. Wegen (LLC ) gibt es r = (s → (e1, . . . , en)) ∈ R und für alle 1 ≤ i ≤ n vi ∈ L(G)ei mit v1 . . . vn = v und setW 2 (tryrW (w)) ⊆ setW 2 (transW s (w)). (17) Nach Induktionsvoraussetzung folgt n ^ (vi, vi+1 . . . vnw) ∈ setW 2 (transW ei (vi . . . vn w)). (18) i=1 Mit wi =def vi+1 . . . vnw für alle 0 ≤ i ≤ n ist (18) äquivalent zu: n ^ (vi, wi) ∈ setW 2 (transW ei (wi−1 )). (19) i=1 Aus (14), (17) und (19) folgt schließlich (v, w) = (v1 . . . vn, wn) ∈ setW 2 (tryrW (w0)) = setW 2 (tryrW (w)) ⊆ setW 2 (transW s (w)). o 176 7 LR-Compiler LR-Compiler lesen ein Wort w wie LL-Compiler von links nach rechts, konstruieren dabei jedoch eine Rechtsreduktion von w, d.h. die Umkehrung einer Rechtsableitung. Da dies dem schrittweisen, mit den Blättern beginnenden Aufbau eines Syntaxbaums entspricht, werden LR-Compiler auch bottom-up-Compiler genannt. Im Gegensatz zum LL-Compiler ist die entsprechende Übersetzungsfunktion eines LRCompilers iterativ. Die Umkehrung der Ableitungsrichtung (Reduktion statt Ableitung) macht es möglich, die Compilation durch einen Automaten, also eine iterativ definierte Funktion, zu steuern. Während LL-Compiler keine linksrekursiven CFGs verarbeiten können, sind LR-Compiler auf LR(k)-Grammatiken beschränkt (s.u.). Sei G = (S, BS, R) eine CFG und X = S BS. Wir setzen jetzt voraus, dass S das Symbol start enthält und dieses nicht auf der rechten Seite einer Regel von R auftritt. 177 Ablauf der LR-Übersetzung auf Ableitungsbäumen start φ ε vw Ableitungsbäume Eingabe v w Ableitungsbäume Eingabe vw ε Ableitungsbaum Eingabe G heißt LR(k)-Grammatik, falls das Vorauslesen von k noch nicht verarbeiteten Eingabesymbolen genügt, um zu entscheiden, ob ein weiteres Zeichen gelesen oder eine Reduktion durchgeführt werden muss, und, wenn ja, welche. Außerdem müssen die Basismengen von BS paarweise disjunkt sein. Beispiel 7.1 Die CFG G = ({S, A}, {∗, b}, {S → A, A → A ∗ A, A → b}) ist für kein k eine LR(k)-Grammatik. 178 Nach der Reduktion des Präfixes b ∗ b des Eingabewortes b ∗ b ∗ b zu A ∗ A liegt ein shiftreduce-Konflikt vor. Soll man A ∗ A mit der Regel A → A ∗ A zu A reduzieren oder erst die Resteingabe ∗b lesen und dann b mit A → b zu A reduzieren? Die Resteingabe determiniert liefert keine Antwort. o first- und follow-Wortmengen Sei CS = BS ∪ Z, k > 0, α ∈ (S ∪ BS)∗ und s ∈ S. ∗ ∗ first k (α) = {β ∈ CS k | ∃ γ ∈ CS ∗ : α →G βγ} ∪ {β ∈ CS <k | α →G β} ∗ follow k (s) = {β ∈ CS k | ∃ α, γ ∈ CS ∗ : start →G αsβγ} ∪ ∗ {β ∈ CS <k | ∃ α ∈ CS ∗ : start →G αsβ} first(α) = first 1(α) follow (s) = follow 1(s) Simultane induktive Definition der first-Mengen first() = {} C ∈ CS ∧ α ∈ (S ∪ BS)∗ ⇒ first(Cα) = {C} (s → α) ∈ R ∧ β ∈ (S ∪ BS)∗ ∧ C ∈ first(αβ) ⇒ C ∈ first(sβ) (1) (2) (3) 179 Sei G eine CFG. Wir definieren den LR(1)-Compiler für G in mehreren Schritten. Zunächst definieren wir einen Erkenner für die Sprache L(G)start. Während Erkenner für reguläre Sprachen reguläre Ausdrücke auf Funktionen des Typs X ∗ → 2 abbilden (siehe Kapitel 2 und 3), bildet der folgende Erkenner (recognizer) Wörter über den Sorten und Basismengen von G auf jene Funktionen ab: recog1 : (S ∪ BS)∗ → 2X ∗ formuliert. Sei γ, α, ϕ ∈ (S ∪ BS)∗, x ∈ X und w ∈ X ∗. recog1(γα)(xw) = recog1(γαx)(w) falls ∃ s → αβ ∈ R, v ∈ (S ∪ BS)∗ : ∗ start →G γsv, β 6= , x ∈ first(β) ∩ Z shift (read) recog1(γα)(xw) = recog1(γαB)(w) falls ∃ s → αβ ∈ R, B ∈ BS, v ∈ (S ∪ BS)∗ : ∗ start →G γsv, β 6= , x ∈ B ∈ first(β) shift (read) 180 recog1(γα)(w) = recog1(γs)(w) falls ∃ s → α ∈ R, B ∈ BS, v ∈ (S ∪ BS)∗ : ∗ start →G γsv, s 6= start, w = ∈ follow (s) ∨ head(w) ∈ follow (s) ∩ Z ∨ head(w) ∈ B ∈ follow (s) reduce recog1(ϕ)() = 1 falls start → ϕ ∈ R accept recog1(ϕ)(w) = 0 sonst reject recog1 ist genau dann wohldefiniert, wenn G eine LR(1)-Grammatik ist. recog1 ist korrekt bzgl. L(G)start, d.h. für alle w ∈ X ∗ gilt: recog1() = χ(L(G)start). (1) Die Funktion recog1 ist iterativ definiert. Um (1) benötigt man daher eine Invariante. Sie lautet wie folgt: Für alle w ∈ X ∗, ∗ recog1(ϕ)(w) = 1 ⇐⇒ start →G ϕw. (2) (2) zeigt man durch Induktion über |w|. Aus (2) folgt sofort (1). 181 Im zweiten Schritt wird das erste Argument von recog1 durch den Inhalt eines Zustandskellers ersetzt. Die zugrundeliegende endliche (!) Zustandsmenge Q ist die Bildmenge der Funktion state : (S ∪ BS)∗ → P(Quad) ∗ ϕ 7→ {(s, α, β, u) ∈ Quad | ∃ γ, v : start →G γsv, ϕ = γα, u = v = ∨ u = head(v) ∈ BS ∪ Z} wobei Quad die Menge aller Quadrupel (s, α, β, u) ∈ S × (S ∪ BS)∗ × (S ∪ BS)∗ × (BS ∪ Z ∪ 1) mit s → αβ ∈ R ist. Die Bedingungen in der Definition von recog1 werden durch Abfragen der Form (s, α, β, x) ∈ state(ϕ) ersetzt: recog1(γα)(xw) = recog1(γαx)(w) falls ∃ (s, α, β, ) ∈ state(γα) : β 6= , x ∈ first(β) ∩ Z recog1(γα)(xw) = recog1(γαB)(w) falls ∃ (s, α, β, ) ∈ state(γα), B ∈ BS : β 6= , x ∈ B ∈ first(β) recog1(γα)(w) = recog1(γs)(w) falls ∃ (s, α, , u) ∈ state(γα) : s 6= start, w = = u ∨ head(w) = u ∈ Z ∨ head(w) ∈ u ∈ BS 182 recog1(ϕ)() = 1 falls (start, ϕ, , ) ∈ state(ϕ) recog1(ϕ)(w) = 0 sonst Der LR-Automat für G hat die Eingabemenge S ∪ BS, die Zustandsmenge QG = {state(ϕ) | ϕ ∈ (S ∪ BS)∗} und die (goto-Tabelle genannte) partielle (!) Transitionsfunktion δG : QG (→ QS∪BS G state(ϕ) 7→ λs.state(ϕs) Simultane induktive Definition von QG und δG start → α ∈ R ⇒ (start, , α, ) ∈ q0 (s, α, s0β, u) ∈ q ∧ s0 → γ ∈ R ∧ v ∈ first(βu) ⇒ (s0, , γ, v) ∈ q (s, α, s0β, u) ∈ q, s0 ∈ S ∪ BS ⇒ (s, αs0, β, u) ∈ δG(q)(s0) (3) (4) (5) In der Definition von recog1 wird jedes Wort von (S ∪ BS)∗ durch eine gleichlange Liste von Zuständen des LR-Automaten ersetzt: 183 h : (S ∪ BS)∗ → Q∗G 7→ q0 =def state() (s1, . . . , sn) 7→ (state(s1 . . . sn), state(s1 . . . sn−1), . . . , state(s1), state()) Im Folgenden benutzen wir gelegentlich die Haskell-Funktionen (:) und (++), um auf Wörtern zu operieren (siehe Kapitel 9). ∗ Aus recog1 wird recog2 : Q∗G → 2X : Für alle q, qi ∈ QG, qs ∈ Q∗G, x ∈ X und w ∈ X ∗, recog2(q : qs)(xw) = recog2(δG(q)(x) : q : qs, w) falls ∃ (s, α, β, ) ∈ q : β 6= , x ∈ first(β) ∩ Z recog2(q : qs)(xw) = recog2(δG(q)(B) : q : qs, w) falls ∃ (s, α, β, ) ∈ q, B ∈ BS : β 6= , x ∈ B ∈ first(β) 184 recog2(q1 : · · · : q|α| : q : qs)(w) = recog2(δG(q)(s) : q : qs)(w) falls ∃ (s, α, , u) ∈ q1 : s 6= start, w = = u ∨ head(w) = u ∈ Z ∨ head(w) ∈ u ∈ BS recog2(q : qs)() = 1 falls ∃ ϕ : (start, ϕ, , ) ∈ q recog2(qs)(w) = 0 sonst Offenbar gilt recog1 = recog2 ◦ h, also insbesondere recog2(q0) = χ(L(G)start) (6) wegen (1). Um die Suche nach bestimmten Elementen eines Zustands in den Iterationsschritten von recog2 zu vermeiden, verwenden wir die – Aktionstabelle für G genannte – Funktion actG : QG × (BS ∪ Z ∪ 1) → R ∪ {shift, error }, die wie folgt definiert ist: 185 Für alle u ∈ BS ∪ Z ∪ 1, shift falls ∃ (s, α, β, ) ∈ q : β 6= , u ∈ first(β), actG(q, u) = s → α falls ∃ (s, α, , u) ∈ q, error sonst. Unter Verwendung von δG und actG erhält man eine kompakte Definition von recog2: Für alle q, qi ∈ QG, qs ∈ Q∗G, x ∈ X und w ∈ X ∗, recog2(q : qs)(xw) = recog2(δG(q)(x) : q : qs)(w) falls x ∈ Z, actG(q, x) = shift recog2(q : qs)(xw) = recog2(δG(q)(B) : q : qs)(w) falls ∃ B ∈ BS : x ∈ B, actG(q, B) = shift recog2(q1 : · · · : q|α| : q : qs)(w) = recog2(δG(q)(s) : q : qs)(w) falls ∃ u ∈ BS ∪ Z ∪ 1 : actG(q1, u) = s → α, w = = u ∨ head(w) = u ∈ Z ∨ head(w) ∈ u ∈ BS 186 recog2(q : qs)() = 1 falls actG(q, ) = start → α recog2(qs)(w) = 0 sonst Beispiel 7.2 SAB2 G = ({S, A, B}, {c, d, ∗}, R) R = {S → A, A → A ∗ B, A → B, B → c, B → d} LR-Automat für G q0 = {(S, , A, ), (A, , A ∗ B, ), (A, , B, ), (A, , A ∗ B, ∗), (A, , B, ∗), (B, , c, ), (B, , d, ), (B, , c, ∗), (B, , d, ∗)} q1 = δG(q0)(A) = {(S, A, , ), (A, A, ∗B, ), (A, A, ∗B, ∗)} q2 = δG(q0)(B) = {(A, B, , ), (A, B, , ∗)} q3 = δG(q0)(c) = {(B, c, , ), (B, c, , ∗)} = δG(q5)(c) q4 = δG(q0)(d) = {(B, d, , ), (B, d, , ∗)} = δG(q5)(d) q5 = δG(q1)(∗) = {(A, A∗, B, ), (A, A∗, B, ∗), (B, , c, ), (B, , d, ), (B, , c, ∗), (B, , d, ∗)} q6 = δG(q5)(B) = {(A, A ∗ B, , ), (A, A ∗ B, , ∗)} 187 goto-Tabelle für G A B c d ∗ q0 q1 q2 q3 q4 q1 q5 q5 q6 q3 q4 Aktionstabelle für G q0 q1 q2 q3 q4 q5 q6 c shift error error error error shift error d shift error error error error shift error ∗ error shift A → B B → c B → d error A → A ∗ B error S → A A → B B → c B → d error A → A ∗ B 188 Ein Erkennerlauf recog2(q0)(c ∗ d) = recog2(q3q0)(∗d) wegen actG(q0, c) = shift und δG(q0)(c) = q3 = recog2(q2q0)(∗d) wegen actG(q3, ∗) = B → c und δG(q0)(B) = q2 = recog2(q1q0)(∗d) wegen actG(q2, ∗) = A → B und δG(q0)(A) = q1 = recog2(q5q1q0)(d) wegen actG(q1, ∗) = shift und δG(q1)(∗) = q5 = recog2(q4q5q1q0)() wegen actG(q5, d) = shift und δG(q5)(d) = q4 = recog2(q6q5q1q0)() wegen actG(q4, ) = B → d und δG(q5)(B) = q6 = recog2(q1q0)() wegen actG(q6, ) = A → A ∗ B und δG(q0)(A) = q1 = 1 wegen actG(q1, ) = S → A o Für den dritten und letzten Schritt zum LR(1)-Compiler benötigen wir die abstrakte Syntax Σ(G) von G (siehe Kapitel 4). Sei A eine Σ(G)-Algebra. Aus recog2 wird der generische Compiler ∗ ∗ ∗ X compileA G : QG × A → M (A) . 189 Er startet mit q0 = state() im ansonsten leeren Zustandskeller. Die Bedeutung der Liste von A-Elementen im Definitionsbereich von compileA G entnimmt man am besten der folgenden Formalisierung der Korrektheit von compileG: • Für alle w ∈ X ∗ und t ∈ TΣ(G),start, A Word (G) (t) = w, compileA G (q0 , )(w) = η(fold (t)) ⇒ fold compileA G (q0 , )(w) = error(w) ⇒ w 6∈ L(G)start . (1) (2) Die Invariante von compileG, aus der (1) folgt, ist komplizierter die des Erkenners recog1 (s.o.): • Für alle α = w0s1w1 . . . snwn mit wi ∈ Z ∗ und si ∈ S ∪ BS, qs ∈ Q∗G, ai ∈ A, w ∈ X ∗, und t ∈ TΣ(G)({x1, . . . , xn}), ∗ ∗ compileA G (state(α) : qs, [a1 , . . . , an ])(w) = η(gA (t)) ⇒ gW (t) = αw, (3) wobei gA : {x1, . . . , xn} → A und gW : {x1, . . . , xn} → Word (G) xi auf ai bzw. si abbilden. Aus (3) ergibt sich die folgende iterative Definition von compileA G: 190 Für alle n ∈ N, q, qi ∈ QG, qs ∈ Q∗G, ai ∈ A, as ∈ A∗, x ∈ X und w ∈ X ∗, A compileA G (q : qs, as)(xw) = compileG (δG (q)(x) : q : qs, as)(w) falls x ∈ Z, actG(q, x) = shift A compileA G (q : qs, as)(xw) = compileG (δG (q)(B) : q : qs, as ++[x])(w) falls ∃ B ∈ BS : x ∈ B, actG(q, B) = shift compileA G (q1 : · · · : qn : q : qs, as ++[ai1 , . . . , aik ])(w) = A compileA G (δG (q)(s) : q : qs, as ++[fr (ai1 , . . . , aik )])(w) falls ∃ u ∈ BS ∪ Z ∪ 1 : actG(q1, u) = r = (s → e1 . . . en), {i1, . . . , ik } = {1 ≤ i ≤ n | ei ∈ S ∪ BS}, w = = u ∨ head(w) = u ∈ Z ∨ head(w) ∈ u ∈ BS A compileA G (q : qs, [ai1 , . . . , aik ])() = η(fr (ai1 , . . . , aik )) falls actG(q, ) = r = (start → e1 . . . en), {i1, . . . , ik } = {1 ≤ i ≤ n | ei ∈ S ∪ BS} compileA G (qs, as)(w) = errmsg(w) sonst 191 Im Fall A = TΣ(G) bestehen die Listen as, [ai1 , . . . , aik ] und [frA(ai1 , . . . , aik )] aus Syntaxbäumen. Die zweite Gleichung zeigt ihren schrittweisen Aufbau: ai ai 1 k as fr ai 1 ai k as 192 Beispiel 7.3 SAB2 Hier ist der um die schrittweise Konstruktion des zugehörigen Syntaxbaums erweiterte Erkennerlauf von Beispiel 7.2: T (G) ([0], [])(c ∗ d) T (G) ([3, 0], [])(∗d) T (G) ([2, 0], [fB→c])(∗d) T (G) ([1, 0], [fA→B (fB→c)])(∗d) T (G) ([5, 1, 0], [fA→B (fB→c)])(d) T (G) ([4, 5, 1, 0], [fA→B (fB→c)])() T (G) ([6, 5, 1, 0], [fA→B (fB→c), fB→d])() T (G) ([1, 0], [fA→A∗B (fA→B (fB→c), fB→d)])() compileGΣ = compileGΣ = compileGΣ = compileGΣ = compileGΣ = compileGΣ = compileGΣ = compileGΣ = η(fS→A(fA→A∗B (fA→B (fB→c), fB→d))) In der graphischen Darstellung dieses Parserlaufs sind die Knoten der Syntaxbäume nicht mit Konstruktoren, sondern mit den Regeln markiert, aus denen sie hervorgehen, wobei der Pfeil zwischen der linken und rechten Seite einer Regel durch den Unterstrich ersetzt wurde. o 193 Beispiel 7.4 Auf den folgenden Seiten steht die vom C-Compiler-Generator yacc (“yet another compiler-compiler”) aus der folgenden LR(1)-Grammatik G erzeugte Zustandsmenge – deren Elemente hier nur aus den ersten drei Komponenten der o.g. Quadrupel bestehen – zusammen mit der auf die einzelnen Zustände verteilten Einträge der goto- und Aktionstabelle: $accept prog statems assign exp -> -> -> -> -> prog $end statems exp . statems assign ; | ID : = exp exp + exp | exp * exp | (exp) | NUMBER | ID So besteht z.B. der Zustand 0 aus den beiden Tripeln ($accept, , $end) und (statems, , ). Die beim Lesen eines Punktes im Zustand 0 ausgeführte Aktion ist eine Reduktion mit Regel 3, also mit statems → . Der Folgezustand von 0 ist bei Eingabe von prog bzw. statems der Zustand 1 bzw. 2. Link zur graphischen Darstellung des Parserlaufs auf dem Eingabewort ID : = NUM ; ID : = ID + NUM ; NUM * ID + ID . Den Sonderzeichen entsprechen in der input-Spalte des Parserlaufs und den u.a. Tabellen passende Wortsymbole. Die Knoten der Syntaxbäume sind wie in Beispiel 7.3 mit Regeln markiert. 194 195 196 Im Folgenden sind die goto- bzw. Aktionstabelle noch einmal getrennt wiedergegeben. op (open) und cl (close) bezeichnen eine öffnende bzw. schließende Klammer. end steht für das leere Wort . Wieder wird auf den Pfeil zwischen linker und rechter Seite einer Regel verzichtet. 197 198 199 Im Folgenden werden die Regeln von G um C-Code erweitert, der eine Σ(G)-Algebra implementiert, die dem Zustandsmodell von JavaLight (siehe 11.5) ähnelt. 200 o 201 LR(k) LALR(k) SLR(k) LL(k) eindeutige kf. Gramm. A aAa|a nicht LR(k) S B E C D aB|eE Cc|Dd Cd|Dc b b LR(1), nicht LALR(1) S B C D Ba|aCd Cc|Dd b b LALR(1), nicht SLR(k) S A B C D E aA|bB Ca|Db Cc|Da E E ε LL(1), nicht LALR(k) Hierarchie der CFG-Klassen Zur Definition von LL(k)-Grammatiken verweisen wir auf die einschlägige Literatur. Kurz gesagt, sind das diejenigen nicht-linksrekursiven CFGs, deren LL-Parser ohne Backtracking auskommen. 202 eindeutige kontextfreie det. kf. Sprachen =LR(1)-Spr. =SLR(1)-Spr. =LALR(1)-Spr. LL(k)Spr. Sprachen Hierarchie der entsprechenden Sprachklassen Für jeden Grammatiktyp T bedeutet die Formulierung L ist eine T -Sprache lediglich, dass eine T -Grammatik existiert, die L erzeugt. 203 Während der LL-Compiler von Kapitel 6 – nach Beseitigung von Linksrekursion – jede kontextfreie Grammatik verarbeitet, selbst dann, wenn sie mehrdeutig ist, zeigt die obige Grafik, dass die Forderung, dabei ohne Backtracking auszukommen, die Klasse der kompilierbaren Sprachen erheblich einschränkt: Unter dieser Bedingung ist die bottom-up-Übersetzung offenbar mächtiger als die top-down-Compilation. Umgekehrt wäre es den Versuch wert (z.B. in Form einer Bachelorarbeit), in Anlehnung an den obigen Compiler für LR(1)-Grammatiken einen bottom-up-Compiler mit Backtracking zu entwickeln. Da die Determinismusforderung wegfiele, bräuchten wir keinen Lookahead beim Verarbeiten der Eingabe, womit die Zustände generell nur aus Tripeln bestünden – wie im Beispiel 7.4. 204 8 Haskell: Typen und Funktionen Die Menge 1 wird in Haskell unit-Typ genannt und mit () bezeichnet. () steht auch für das einzige Element von 1. Die Menge 2 entspricht dem Haskell-Typ Bool . Ihre beiden Elemente 0 und 1 werden mit False bzw. True bezeichnet. Alle Typen von Haskell sind aus Standardtypen wie Bool , Int oder F loat, Typvariablen sowie Typkonstruktoren wie × (Produkt), + (Summe oder disjunkte Vereinigung) oder → (Funktionsmenge) aufgebaut. Jeder Typ bezeichnet eine Menge, jeder Typkonstruktor eine Funktion auf Mengen von Mengen. Typnamen beginnen stets mit einem Großbuchstaben, Typvariablen mit einem Kleinbuchstaben. Typvariablen stehen für Mengen, Individuenvariablen für Elemente einer Menge. Beide müssen mit einem Kleinbuchstaben beginnen. Das (kartesische) Produkt A1 × · · · × An von Mengen A1, . . . , An wird in Haskell wie seine Elemente, die n-Tupel (a1, . . . , an), mit runden Klammern und Kommas notiert: (A1, . . . , An). 205 Die Summe oder disjunkte Vereinigung SumAn von Mengen A1, . . . , An wird durch einen (Haskell-)Datentyp implementiert (siehe Kapitel 10). Funktionen werden benannt und durch rekursive Gleichungen definiert (s.u.) oder als λAbstraktion λp.e (Haskell-Notation: \p -> e) dargestellt, wobei p ein Muster für die möglichen Argumente (Parameter) von λp.e ist, z.B. p = (x, (y, z)). Muster bestehen aus Individuenvariablen und (Individuen-)Konstruktoren. Jede Variable kommt in einem Muster höchstens einmal vor. (Die λ-Abstraktionen von Kapitel 2 haben nur Variablen als Muster.) Der “Rumpf” e der λ-Abstraktion λp.e ist ein aus beliebigen Funktionen und Variablen zusammengesetzter Ausdruck. Ein Ausdruck der Form f (e) heißt Funktionsapplikation (auch: Funktionsanwendung oder -aufruf). Ist f eine λ-Abstraktion, dann nennt man f (e) eine λ-Applikation. Die λ-Applikation (λp.e)(e0) is auswertbar, wenn der Ausdruck e0 das Muster p matcht. Beim Matching werden die Variablen von p in e durch Teilausdrücke von e0 ersetzt. Die Auswertung einer Applikation von e wie z.B. (λ(x, y).x ∗ y + 5 + x)(7, 8), besteht in der Bildung der Instanz 7 ∗ 8 + 5 + 7 der λ-Abstraktion λ(x, y).x ∗ y + 5 + x und deren anschließender Auswertung: (λ(x, y).x ∗ y + 5 + x)(7, 8) ; 7 ∗ 8 + 5 + 7 ; 56 + 5 + 7 ; 68 206 Die ghci-Befehle :type \(x,y)->x*y+5+x bzw. :type (\(x,y)->x*y+5+x)(7,8) liefern die Typen Num a => (a,a) -> a bzw. Num a => a der λ-Abstraktion λ(x, y).x ∗ y + 5 + x bzw. λ-Applikation (λ(x, y).x ∗ y + 5 + x)(7, 8). Backslash (\) und Pfeil (->) sind offenbar die Haskell-Notationen des Symbols λ bzw. des Punktes einer λ-Abstraktion. Num ist die Typklasse für numerische Typen. Allgemein werden Typklassen in Kapitel 5 behandelt. Link zur schrittweisen Auswertung der λ-Applikation (λ(x, y).x ∗ y + 5 + x)(7, 8) Der Redex, d.i. der Teilausdruck, der im jeweils nächsten Schritt ersetzt wird, ist rot gefärbt. Das Redukt, d.i. der Teilausdruck, durch den der Redex ersetzt wird, ist grün gefärbt. Link zur schrittweisen Auswertung der λ-Applikation (λx.x(true, 4, 77) + x(false, 4, 77))(λ(x, y, z).if x then y + 5 else z ∗ 6) 207 Eine geschachelte λ-Abstraktion λp1.λp2. . . . .λpn.e kann durch λp1 p2 . . . pn.e abgekürzt werden. Sie hat einen Typ der Form t1 → (t2 → . . . (tn → t) . . . ), wobei auf diese Klammerung verzichtet werden kann, weil Haskell Funktionstypen automatisch rechtsassoziativ klammert. Anstelle der Angabe eines λ-Ausdrucks kann eine Funktion benannt und dann mit f mit Hilfe von Gleichungen definiert werden: f = \p -> e ist äquivalent zu f p = e (applikative Definition) Funktionen, die andere Funktionen als Argumente oder Werte haben, heißen Funktionen höherer Ordnung. Der Typkonstruktor → ist rechtsassoziativ. Also ist die Deklaration (+) :: Int -> (Int -> Int) ist äquivalent zu (+) :: Int -> Int -> Int Die Applikation einer Funktion ist linksassoziativ. Also ist ((+) 5) 6 ist äquivalent zu (+) 5 6 (+) ist zwar als Präfixfunktion deklariert, kann aber auch infix verwendet werden. Dann entfallen die runden Klammern um den Infixoperator: 5 + 6 ist äquivalent zu (+) 5 6 208 Das Gleiche gilt für jede Funktion f eines Typs der Form A → B → C. Besteht f aus Sonderzeichen, dann wird f bei der Präfixverwendung in runde Klammern gesetzt, bei der Infixverwendung nicht. Beginnt f mit einem Kleinbuchstaben und enthält f keine Sonderzeichen, dann wird f bei der Infixverwendung in Akzentzeichen gesetzt, bei der Präfixverwendung nicht: mod :: Int -> Int -> Int mod 9 5 ist äquivalent zu 9 `mod` 5 Die Infixnotation wird auch verwendet, um die in f enthaltenen Sektionen (Teilfunktionen) des Typs A → C bzw. B → C zu benennen. Z.B. sind die folgenden Sektionen Funktionen des Typs Int -> Int, während (+) und mod den Typ Int -> Int -> Int haben. (+5) (9`mod`) ist äquivalent zu ist äquivalent zu (+) 5 mod 9 ist äquivalent zu ist äquivalent zu \x -> x+5 \x -> 9`mod`x Eine Sektion wird stets in runde Klammern eingeschlossen. Die Klammern gehören zum Namen der jeweiligen Funktion. 209 Der Applikationsoperator ($) :: (a -> b) -> a -> b f $ a = f a führt die Anwendung einer gegebenen Funktion auf ein gegebenes Argument durch. Sie ist rechtsassoziativ und hat unter allen Operationen die niedrigste Priorität. Daher kann durch Benutzung von $ manch schließende Klammer vermieden werden: f1 $ f2 $ ... $ fn a ; f1 (f2 (...(fn a)...))) Demgegenüber ist der Kompositionsoperator (.) :: (b -> c) -> (a -> b) -> a -> c (g . f) a = g (f a) zwar auch rechtsassoziativ, hat aber – nach den Präfixoperationen – die höchste Priorität. (f1 . f2 . ... . fn) a ; f1 (f2 (...(fn a)...))) 210 U.a. benutzt man den Kompositionsoperator, um in einer applikativen Definition Argumentvariablen einzusparen. So sind die folgenden drei Definitionen einer Funktion f : a → b → c äquivalent zueinander: f a b = g (h a) b f a = g (h a) f = g . h Welchen Typ hat hier g bzw. h? Auch die folgenden drei Definitionen einer Funktion f : a → b sind äquivalent zueinander: f a = g . h a f a = (g.) (h a) f = (g.) . h Welchen Typ hat hier g bzw. h? 211 Monomorphe und polymorphe Typen Ein Typ ohne Typvariablen heißt monomorph. Ein Typ mit Typvariablen wie z.B. a -> Int -> b heißt polymorph. Eine Funktion mit monomorphem oder polymorphem Typ heißt monomorphe bzw. polymorphe Funktion. Eine Funktion heißt mono- bzw. polymorph, wenn ihr Typ mono- bzw. polymorph ist. Ein Typ u heißt Instanz eines Typs t, wenn u durch Ersetzung der Typvariablen von t aus t entsteht. Typvariablen stehen für Mengen, Individuenvariablen stehen für Elemente einer Menge. Sie müssen ebenfalls mit einem Kleinbuchstaben beginnen. Eine besondere Individuenvariable ist der Unterstrich (auch Wildcard genannt). Er darf nur auf der linken Seite einer Funktionsdefinition vorkommen, was zur Folge hat, dass er für einen Teil eines Argumentmusters der gerade definierten Funktion steht, der ihre Werte an Stellen, die das Muster matchen, nicht beeinflusst (siehe Beispiele im nächsten Kapitel). Die oben definierten Funktionen ($) und (.) sind demnach polymorph. 212 Weitere polymorphe Funktionen höherer Ordnung Identität id :: a -> a id a = a id = \a -> a äquivalente Definition const :: a -> b -> a const a b = a const a = \b -> a const = \a -> \b -> a const = \a b -> a konstante Funktion äquivalente Definitionen update :: Eq a => (a -> b) -> a -> b -> a -> b update f a b a' = if a == a' then b else f a' update f :: a -> b -> a -> b update f a :: b -> a -> b Funktionsupdate (nicht im Prelude) äquivalente Schreibweisen update(f) update(f)(a) (update f) a 213 update f a b :: a -> b update(f)(a)(b) ((update f) a) b update f a b a' :: b update(f)(a)(b)(a') (((update f) a) b) a' flip :: (a -> b -> c) -> b -> a -> c flip f b a = f a b Vertauschung der Argumente flip mod 11 ist äquivalent zu (`mod` 11) (s.o.) curry :: ((a,b) -> c) -> a -> b -> c curry f a b = f (a,b) Kaskadierung (Currying) uncurry :: (a -> b -> c) -> (a,b) -> c uncurry f (a,b) = f a b Dekaskadierung 214 9 Haskell: Listen Sei A eine Menge. Die Menge A∗ (siehe Kapitel 2) wird in Haskell mit eckigen Klammern notiert, also durch [A] — ebenso wie ihre Elemente: Für (a1, . . . , an) ∈ A∗ schreibt man [a1, . . . , an]. Eine n-elementige Liste kann extensional oder als funktionaler Ausdruck dargestellt werden: [a1, . . . , an] ist äquivalent zu a1 : (a2 : (. . . (an : []) . . . )) Die Konstante [] (leere Liste) vom Typ [A] und die Funktion (:) (Anfügen eines Elementes von A ans linke Ende einer Liste) vom Typ A → [A] → [A] heißen Konstruktoren, weil sie nicht wie andere Funktionen Werte berechnen, sondern dazu dienen, die Elemente eines Typs aufzubauen. Auch werden sie benötigt, um die Zugehörigkeit eines Elementes eines Summentyps zu einem bestimmten Summanden wiederzugeben (siehe Kapitel 4). Die Klammern in a1 : (a2 : (. . . (an : []) . . . )) können weggelassen werden, weil der Typ von (:) keine andere Klammerung zulässt. Die durch mehrere Gleichungen ausgedrückten Fallunterscheidungen bei den folgenden Definitionen von Funktionen auf Listen ergeben sich aus verschiedenen Mustern der Funktionsargumente bzw. Bedingungen an die Argumente (Boolesche Ausdrücke hinter |). 215 Seien x, y, s Individuenvariablen. s ist ein Muster für alle Listen, [] das Muster für die leere Liste, [x] ein Muster für alle einelementigen Listen, x : s ein Muster für alle nichtleeren Listen, x : y : s ein Muster für alle mindestens zweielementigen Listen, usw. length :: [a] -> Int length (_:s) = length s+1 length _ = 0 length [3,44,-5,222,29] ; 5 Link zur schrittweisen Auswertung von length [3,44,-5,222,29] head :: [a] -> a head (a:_) = a head [3,2,8,4] ; 3 tail :: [a] -> [a] tail (_:s) = s tail [3,2,8,4] ; [2,8,4] (++) :: [a] -> [a] -> [a] (a:s)++s' = a:(s++s') _++s = s [3,2,4]++[8,4,5] ; [3,2,4,8,4,5] 216 (!!) :: [a] -> Int -> a (a:_)!!0 = a (_:s)!!n | n > 0 = s!!(n-1) [3,2,4]!!1 ; 2 init :: [a] -> [a] init [_] = [] init (a:s) = a:init s init [3,2,8,4] ; [3,2,8] last :: [a] -> a last [a] = a last (_:s) = last s last [3,2,8,4] ; 4 take take take take :: Int -> [a] -> [a] take 3 [3,2,4,8,4,5] ; [3,2,4] 0 _ = [] n (a:s) | n > 0 = a:take (n-1) s _ [] = [] drop drop drop drop :: Int -> [a] -> [a] drop 4 [3,2,4,8,4,5] ; [4,5] 0 s = s n (_:s) | n > 0 = drop (n-1) s _ [] = [] 217 Funktionslifting auf Listen map :: (a -> b) -> [a] -> [b] map f (a:s) = f a:map f s map _ _ = [] map (+1) [3,2,8,4] ; [4,3,9,5] map ($ 7) [(+1),(+2),(*5)] ; [8,9,35] map ($ a) [f1,f2,...,fn] ; [f1 a,f2 a,...,fn a] Link zur schrittweisen Auswertung von map(+3)[2..9] zipWith :: (a -> b -> c) -> [a] -> [b] -> [c] zipWith f (a:s) (b:s') = f a b:zipWith f s s' zipWith _ _ _ = [] zipWith (+) [3,2,8,4] [8,9,35] ; [11,11,43] zip :: [a] -> [b] -> [(a,b)] zip = zipWith (,) zip [3,2,8,4] [8,9,35] ; [(3,8),(2,9),(8,35)] 218 Strings sind Listen von Zeichen Strings werden als Listen von Zeichen betrachtet, d.h. die Typen String und [Char] sind identisch. Z.B. haben die folgenden Booleschen Ausdrücke den Wert True: "" == [] "H" == ['H'] "Hallo" == ['H','a','l','l','o'] Also sind alle Listenfunktionen auf Strings anwendbar. words :: String -> [String] und unwords :: [String] -> String zerlegen bzw. konkatenieren Strings, wobei Leerzeichen, Zeilenumbrüche ('\n') und Tabulatoren ('\t') als Trennsymbole fungieren. unwords fügt Leerzeichen zwischen die zu konkatenierenden Strings. lines :: String -> [String] und unlines :: [String] -> String zerlegen bzw. konkatenieren Strings, wobei nur Zeilenumbrüche als Trennsymbole fungieren. unlines fügt '\n' zwischen die zu konkatenierenden Strings. 219 Listenfaltung Faltung einer Liste von links her f f foldl f state [a ,a ,a ,a ,a ] 1 2 3 4 5 Endzustand f f f state Anfangszustand a1 a2 a3 a4 a5 Eingaben foldl :: (a -> b -> a) -> a -> [b] -> a foldl f a (b:s) = foldl f (f a b) s foldl _ a _ = a a ist Zustand, b ist Eingabe f ist Zustandsüberführung Link zur schrittweisen Auswertung von foldl(+)(0)[1..5] foldl1 :: (a -> a -> a) -> [a] -> a foldl1 f (a:s) = foldl f a s sum = foldl (+) 0 and = foldl (&&) True minimum = foldl1 min product or maximum = foldl (*) 1 = foldl (||) False = foldl1 max 220 concat = foldl (++) [] concatMap :: (a -> [b]) -> [a] -> [b] concatMap f = concat . map f Parallele Faltung zweier Listen von links her fold2 f state [a1,a2,a3,a4,a5] [b1,b2,b3,b4,b5] f f f f f state a1 b1 a2 b2 a3 b3 a4 b4 a5 b5 fold2 :: (a -> b -> c -> a) -> a -> [b] -> [c] -> a fold2 f a (b:s) (c:s') = fold2 f (f a b c) s s' fold2 _ a _ _ = a 221 listsToFun :: Eq a => b -> [a] -> [b] -> a -> b listsToFun = fold2 update . const Beginnend mit const b, erzeugt listsToFun b schrittweise aus einer Argumentliste as und einer Werteliste bs die entsprechende Funktion: ( bs!!i falls i = max{k | as!!k = a, k < length(bs)}, listsToFun b as bs a = b sonst. Faltung einer Liste von rechts her entspricht der Auswertung ihrer Konstruktordarstellung in einer Algebra A, die die Konstruktoren (:) :: b -> [b] -> [b] und [] :: [b] als Funktion (:)A bzw. Konstante []A interpretiert (siehe Kapitel 2). (:)A : foldr f a [b1,b2,b3,b4,b5] f f (:)A : f f (:)A : (:)A : f b1 b2 b3 b4 b5 a b1 b2 b3 b4 b5 (:)A : [] []A 222 foldr :: (b -> a -> a) -> a -> [b] -> a foldr f a (b:s) = f b $ foldr f a s foldr _ a _ = a Der Applikationsoperator $ als Parameter von Listenfunktionen foldr ($) a [f1,f2,f3,f4] ; f1 $ f2 $ f3 $ f4 a foldl (flip ($)) a [f4,f3,f2,f1] ; f1 $ f2 $ f3 $ f4 a map f [a1,a2,a3,a4] map ($a) [f1,f2,f3,f4] ; ; [f a1,f a2,f a3,f a4] [f1 a,f2 a,f3 a,f4 a] zipWith ($) [f1,f2,f3,f4] [a1,a2,a3,a4] ; [f1 a1,f2 a2,f3 a3,f4 a4] 223 Listenlogik any :: (a -> Bool) -> [a] -> Bool any f = or . map f any (>4) [3,2,8,4] ; True all :: (a -> Bool) -> [a] -> Bool all f = and . map f all (>2) [3,2,8,4] ; False elem :: Eq a => a -> [a] -> Bool elem a = any (a ==) elem 2 [3,2,8,4] ; True notElem :: Eq a => a -> [a] -> Bool notElem a = all (a /=) notElem 9 [3,2,8,4] ; True filter :: (a -> Bool) -> [a] -> [a] filter (<8) [3,2,8,4] ; [3,2,4] filter f (a:s) = if f a then a:filter f s else filter f s filter f _ = [] 224 Jeder Aufruf von map, zipWith, filter oder einer Komposition dieser Funktionen entspricht einer Listenkomprehension: map f s = [f a | a <- s] zipWith f s s' = [f a b | (a,b) <- zip s s'] filter f s = [a | a <- s, f a] zip(s)(s’) ist nicht das kartesische Produkt von s und s’. Dieses entspricht der Komprehension [(a,b) | a <- s, b <- s’]. Allgemeines Schema von Listenkomprehensionen: [e(x1, . . . , xn) | x1 ← s1, . . . , xn ← sn, be(x1, . . . , xn)] :: [a] • x1, . . . , xn sind Variablen, • s1, . . . , sn sind Listen, • e(x1, . . . , xn) ist ein Ausdruck des Typs a, • xi ← si heißt Generator und steht für xi ∈ si, • be(x1, . . . , xn) heißt Guard und ist ein Boolescher Ausdruck. Jede endlichstellige Relation lässt sich als Listenkomprehension implementieren, z.B. die Menge aller Tripel (a, b, c) ∈ A1 × A2 × A3, die ein Prädikat p : A1 × A2 × A3 → Bool erfüllen, durch [(a,b,c) | a <- a1, b <- a2, c <- a3, p(a,b,c)]. 225 10 Haskell: Datentypen und Typklassen Zunächst das allgemeine Schema einer Datentypdefinition: data DT x_1 ... x_m = C_1 typ_11 ... typ_1n_1 | ... | C_k typ_k1 ... typ_kn_k typ11, . . . , typknk sind beliebige Typen, die außer x1, . . . , xm keine Typvariablen enthalten. DT heißt rekursiv, wenn DT in mindestens einem dieser Typen vorkommt. Die durch DT implementierte Menge besteht aus allen Ausdrücken der Form C_i e_1 ... e_n_i, wobei 1 ≤ i ≤ n und für alle 1 ≤ j ≤ ni ej ein Element des Typs typij ist. Als Funktion hat Ci den Typ typ_i1 -> ... -> typ_in_i -> DT a_1 ... a_m. Alle mit einem Großbuchstaben beginnenden Funktionssymbole und alle mit einem Doppelpunkt beginnenden Folgen von Sonderzeichen werden vom Haskell-Compiler als Konstruktoren eines Datentyps aufgefasst und müssen deshalb irgendwo im Programm in einer Datentypdefinition vorkommen. 226 Die Unterschiede in der Schreibweise von Konstruktoren bei Infix- bzw. Präfixverwendung sind dieselben wie bei anderen Funktionen. Beispiel 10.1 Der Haskell-Standardtyp für Listen data [a] = [] | a : [a] Für jede Menge A besteht [A] aus • allen endlichen Ausdrücken a1 : . . . : an : [] mit a1, . . . , an ∈ A und • allen unendlichen Ausdrücken a1 : a2 : a3 : . . . mit {ai | i ∈ N} ⊆ A. [A] ist die größte Lösung der Gleichung M = {[]} ∪ {a : s | a ∈ A, s ∈ M } (1) in der Mengenvariablen M und damit [A] eine Haskell-Implementierung der Menge CTList(A) aller List(A)-Grundterme. Als Elemente von [Int] lauten die List(Z)-Grundterme blink und blink’ wie folgt: blink,blink' :: [Int] blink = 0:blink' blink' = 1:blink 227 Die endlichen Ausdrücke von [A] bilden die kleinste Lösung von (1) und damit eine HaskellImplementierung der Menge TList(A) der List(A)-Grundterme endlicher Tiefe (siehe 2.13). o Beispiel 10.2 (siehe 2.13) TReg(BS) ist isomorph zur kleinsten und CTReg(BS) zur größten Lösung der Gleichung M = {par(t, u) | t, u ∈ M } ∪ {seq(t, u) | t, u ∈ M } ∪ {iter(t) | t ∈ M } ∪ {base(B) | B ∈ BS} (2) in der Mengenvariablen M . Beide Mengen werden deshalb durch folgenden Datentyp implementiert: data RegT bs = Par (RegT bs) (RegT bs) | Seq (RegT bs) (RegT bs) | Iter (RegT bs) | Base bs o Summentypen Die Summe oder disjunkte Vereinigung A1 + · · · + An =def {(a, 1) | a ∈ A1} ∪ · · · ∪ {(a, n) | a ∈ An} von n > 1 Mengen A1, . . . , An (siehe Kapitel 2) wird durch einen nicht-rekursiven Datentyp mit n Konstruktoren C1, . . . , Cn implementiert, welche die Summanden voneinander 228 trennen, m.a.W.: es gibt eine Bijektion zwischen A1 + · · · + An und der Menge {C1(a) | a ∈ A1} ∪ · · · ∪ {Cn(a) | a ∈ An}. Z.B. implementiert der Standardtyp data Maybe a = Nothing | Just a die binäre Summe 1 + A, die A um ein Element zur Darstellung “undefinierter” Werte erweitert. Damit lassen sich partielle Funktionen totalisieren wie die Funktion lookup, mit der der Graph einer Funktion von A nach B modifiziert wird (siehe Kapitel 2): lookup :: Eq a => a -> [(a,b)] -> Maybe b lookup a ((a',b):r) = if a == a' then Just b else lookup a r lookup _ _ = Nothing Der Standardtyp Either implementiert beliebige binäre Summen: data Either a b = Left a | Right b Die Menge aller ganzen Zahlen kann als dreistellige Summe implementiert werden: data INT = Zero | Plus PosNat | Minus PosNat data PosNat = One | Succ PosNat 229 PosNat implementiert die Menge aller positiven natürlichen Zahlen (und ist rekursiv). Datentypen mit Destruktoren Um auf die Argumente eines Konstruktors zugreifen zu können, ordnet man ihnen Namen zu, die field labels genannt werden und Destruktoren im Sinne von Kapitel 2 wiedergeben. In obiger Definition von DT wird C_i typ_i1 ... typ_in_i erweitert zu: C_i {d_i1 :: typ_i1, ..., d_in_i :: typ_in_i} Wie Ci , so ist auch dij eine Funktion. Als solche hat sie den Typ DT a1 ... am -> typ_ij Destruktoren sind invers zu Konstruktoren. Z.B. hat der folgende Ausdruck den Wert ej : d_ij (C_i e_1 ... e_ni) Destruktoren nennt man in OO-Sprachen Attribute, wenn ihre Wertebereiche aus Standardtypen zusammengesetzt ist, bzw. Methoden (Zustandstransformationen), wenn der 230 Wertebereich mindestens einen Datentyp mit Destruktoren enthält. Außerdem schreibt man dort in der Regel x.d ij anstelle von d ij(x). Mit Destruktoren lautet das allgemeine Schema einer Datentypdefinition also wie folgt: data DT a_1 ... a_m = C_1 {d_11 :: typ_11,..., d_1n_1 :: typ_1n_1} | ... | C_k {d_k1 :: typ_k1,..., d_kn_k :: typ_kn_k} Elemente von DT können mit oder ohne Destruktoren definiert werden: obj = C_i e_i1 ... e_in_i ist äquivalent zu obj = C_i {d_i1 = e_i1,..., d_in_i = e_in_i} Die Werte einzelner Destruktoren von obj können wie folgt verändert werden: obj' = obj {d_ij_1 = e_1',..., d_ij_m = e_m'} obj 0 unterscheidet sich von obj dadurch, dass den Destruktoren d ij 1,...,d ij m neue Werte, nämlich e 1’,...,e m’zugewiesen wurden. 231 Destruktoren dürfen nicht rekursiv definiert werden. Folglich deutet der Haskell-Compiler jedes Vorkommen von attrij auf der rechten Seite einer Definitionsgleichung als eine vom gleichnamigen Destruktor verschiedene Funktion und sucht nach deren Definition. Dies kann man nutzen, um dij doch rekursiv zu definieren, indem in der zweiten Definition von obj (s.o.) die Gleichung d ij = ej durch d ij = d ij ersetzt und d ij lokal definiert wird: obj = C_i {d_i1 = e_1,..., d ij = d_ij,..., d_in_i = en_i} where d_ij ... = ... Ein Konstruktor darf nicht zu mehreren Datentypen gehören. Ein Destruktor darf nicht zu mehreren Konstruktoren unterschiedlicher Datentypen gehören. Beispiel Listen mit Destruktoren könnten in Haskell durch folgenden Datentyp definiert werden: data ListD a = Nil | Cons {hd :: a, tl :: ListD a} Man beachte, dass die Destrukturen hd :: ListD a -> a und tl :: ListD a -> ListD a, 232 die den Kopf bzw. Rest einer nichtleeren Liste liefern, partielle Funktionen sind, weil sie nur auf mit dem Konstruktor Cons gebildete Elemente von ListD(A) anwendbar sind. o Die Destruktoren eines Datentyps DT sind immer dann totale Funktionen, wenn DT genau einen Konstruktor hat. Wie das folgende Beispiel nahelegt, ist das aus semantischer Sicht keine Einschränkung: Jeder Datentyp ohne Destruktoren ist isomorph zu einem Datentyp mit genau einem Konstruktor und einem Destruktor. Beispiel 10.3 Listen mit totalen Destruktoren (siehe 2.13) DTcoList(A) ist isomorph zur größten Lösung der Gleichung M = {coListC(Nothing)} ∪ {coListC(Just(a, s)) | a ∈ A, s ∈ M } (3) in der Mengenvariablen M und wird deshalb durch folgenden Datentyp implementiert: data ColistC a = ColistC {split :: Maybe (a,ColistC a)} Wie man leicht sieht, ist die größte Lösung von (3) isomorph zur größten Lösung von (1), also zu CTList(A). Die Einschränkung von CTList(A) auf unendliche Listen ist isomorph zu DTStream(A) und wird daher durch folgenden Datentyp implementiert: 233 data StreamC a = (:<) {hd :: a, tl :: StreamC a} Als Elemente von StreamC(Int) lauten die Stream(Z)-Coterme blink und blink’ wie folgt: blink,blink' :: StreamC Int blink = 0:<blink' blink' = 1:<blink o Beispiel 10.4 (siehe 2.13) DTDAut(X,Y ) ist isomorph zur größten Lösung der Gleichung M = {DA(f )(y) | f : X → M , y ∈ Y } in der Mengenvariablen M und wird deshalb durch folgenden Datentyp implementiert: data DAutC x y = DA {deltaC :: x -> DAutC x y, betaC :: y} Als Elemente von DAutC (Int) lauten die Acc(Z)-Coterme esum und osum wie folgt: esum,osum :: DAutC Int Bool esum = DA {deltaC = \x -> if even x then esum else osum, betaC = True} osum = DA {deltaC = \x -> if odd x then esum else osum, betaC = False} o 234 Typklassen stellen Bedingungen an die Instanzen einer Typvariablen. Die Bedingungen bestehen in der Existenz bestimmter Funktionen, z.B. class Eq a where (==), (/=) :: a -> a -> Bool (/=) = (not .) . (==) Eine Instanz einer Typklasse besteht aus den Instanzen ihrer Typvariablen sowie Definitionen der in ihr deklarierten Funktionen. instance Eq (Int,Bool) where (x,b) == (y,c) = x == y && b == c instance Eq a => Eq [a] where s == s' = length s == length s' && and $ zipWith (==) s s' Auch (/=) könnte hier definiert werden. Die Definition von (/=) in der Klasse Eq als Negation von (==) ist nur ein Default! Der Typ jeder Funktion einer Typklasse muss die - in der Regel eine - Typvariable der Typklasse mindestens einmal enthalten. Sonst wäre die Funktion ja gar nicht von (der jeweiligen Instanz) der Typvariable abhängig. 235 10.5 Mengenoperationen auf Listen insert :: Eq a => a -> [a] -> [a] insert a s@(b:s') = if a == b then s else b:insert a s' insert a _ = [a] union :: Eq a => [a] -> [a] -> [a] union = foldl $ flip insert Mengenvereinigung unionMap :: Eq a => (a -> [b]) -> [a] -> [b] unionMap f = foldl union [] . map f concatMap für Mengen subset :: Eq a => [a] -> [a] -> Bool s `subset` s' = all (`elem` s') s Mengeninklusion Unterklassen Typklassen können wie Objektklassen andere Typklassen erben. Die jeweiligen Oberklassen werden vor dem Erben vor dem Pfeil => aufgelistet. class Eq a => Ord a where (<=), (<), (>=), (>) :: a -> a -> Bool 236 max, min :: a -> a -> a a < b = a <= b && a /= b a >= b = b <= a a > b = b < a max x y = if x >= y then x else y min x y = if x <= y then x else y Ausgeben Vor der Ausgabe von Daten eines Typs T wird automatisch die T-Instanz der Funktion show aufgerufen, die zur Typklasse Show a gehört. class Show a where show :: a -> String show x = shows x "" shows :: a -> String -> String shows = showsPrec 0 showsPrec :: Int -> a -> String -> String 237 Das String-Argument von showsPrec wird an die Ausgabe des Argumentes vom Typ a angefügt. Steht deriving Show am Ende der Definition eines Datentyps, dann werden dessen Elemente in der Darstellung ausgegeben, in der sie im Programmen vorkommen. Für andere Ausgabeformate müssen entsprechende Instanzen von show oder showsPrec definiert werden. Einlesen Bei der Eingabe von Daten eines Typs T wird automatisch die T-Instanz der Funktion read aufgerufen, die zur Typklasse Read a gehört: class Read a where readsPrec :: Int -> String -> [(a,String)] reads :: String -> [(a,String)] reads = readsPrec 0 read :: String -> a read s = case [x | (x,t) <- reads s, ("","") <- lex t] of [x] -> x 238 [] _ -> error "PreludeText.read: no parse" -> error "PreludeText.read: ambiguous parse" reads s liefert eine Liste von Paaren, bestehend aus dem als Element vom Typ a erkannten Präfix von s und der jeweiligen Resteingabe (= Suffix von s). lex :: String -> [(a,String)] ist eine Standardfunktion, die ein evtl. aus mehreren Zeichen bestehendes Symbol erkennt, vom Eingabestring abspaltet und sowohl das Symbol als auch die Resteingabe ausgibt. Der Generator ("","") <- lex t in der obigen Definition von read s bewirkt, dass nur die Paare (x,t) von reads s berücksichtigt werden, bei denen die Resteingabe t aus Leerzeichen, Zeilenumbrüchen und Tabulatoren besteht. Steht deriving Read am Ende der Definition eines Datentyps, dann werden dessen Elemente in der Darstellung erkannt, in der sie in Programmen vorkommen. Für andere Eingabeformate müssen entsprechende Instanzen von readsPrec definiert werden. Jede Instanz von readsPrec ist – im Sinne von Kapitel 5 – ein Parser in die Listenmonade. Da die Implementierung von Parsern und Compilern in Haskell erst in späteren Kapiteln behandelt wird, geben wir an dieser Stelle keine Beispiele für readsPrec an. 239 11 Algebren in Haskell Sei Σ = (S, I, F ) eine Signatur, I = {x1, . . . , xk }, S = {s1, . . . , sm} und F = {f1 : e1 → e01, . . . , fn : en → e0n}. Jede Σ-Algebra entspricht einem Element des folgenden polymorphen Datentyps: data Sigma x1 ... xk s1 ... sm = Sigma {f1 :: e1 -> e1',..., fn :: en -> en'} Die Sorten und Operationssymbole von Σ werden durch Typvariablen bzw. Destruktoren wiedergegeben und durch die Trägermengen bzw. (kaskadierten) Funktionen der jeweiligen Algebra instanziiert. Um eine Signatur Σ in Haskell zu implementieren, genügt es daher, den Datentyp ihrer Algebren nach obigem Schema zu formulieren. Der Datentyp Sigma(x1) . . . (xk ) repräsentiert im Gegensatz zu den Datentypen der Beispiele 10.1-10.4, die Trägermengen einzelner Algebren implementieren, die Klasse aller ΣAlgebren. 240 11.1 Erweiterung von Term- und anderen Trägermengen zu Algebren (siehe 2.13 und 2.14) data Nat nat = Nat {zero :: nat, succ :: nat -> nat} natT implementiert TN at, listT implementiert TList(X): natT :: Nat Int natT = Nat {zero = 0, succ = (+1)} data List x list = List {nil :: list, cons :: x -> list -> list} listT implementiert TList(X) (siehe 10.1): listT :: List x [x] listT = List {nil = [], cons = (:)} Die folgende Funktion implementiert die Faltung fold alg : TList(X) → alg von List(X)Grundtermen endlicher Tiefe in einer beliebigen List(X)-Algebra alg: foldList :: List x list -> [x] -> list foldList alg [] = nil alg foldList alg (x:s) = cons alg x $ foldList alg s 241 data Reg bs reg = Reg {par,seq :: reg -> reg -> reg, iter :: reg -> reg, base :: bs -> reg,} regT implementiert TReg(BS), regWord implementiert Regword (BS) (siehe 2.14): regT :: bs -> Reg bs (RegT bs) (siehe 10.2) regT = Reg {par = Par, seq = Seq, iter = Iter, base = Base} regWord :: Show bs => bs -> Reg bs (Int -> String) regWord bs = Reg {par = \f g n -> enclose (n > 0) $ f 0 ++ '+':g 0, seq = \f g n -> enclose (n > 1) $ f 1 ++ '.':g 1, iter = \f n -> enclose (n > 2) $ f 2 ++ "*", base = \b -> show . const b} where enclose b w = if b then '(':w++")" else w Die folgende Funktion implementiert die Faltung fold alg : TReg(BS) → alg von regulären Ausdrücken (= Reg(BS)-Grundtermen) in einer beliebigen Reg(BS)-Algebra alg: foldReg :: Reg bs reg -> RegT bs -> reg foldReg alg t = case t of Par t u -> par alg (f t) $ f u Seq t u -> seq alg (f t) $ f u 242 Iter t -> iter alg $ f t Base b -> base alg b where f = foldReg alg instance Show bs => Show (RegT bs) where showsPrec = flip $ foldReg regWord data Stream x s = Stream {head :: s -> x, tail :: s -> list} streamC :: Stream x (StreamC x) streamC = Stream {head = hd, tail = tl} (siehe 10.3) Die Stream(Z)-Algebra zo (siehe 2.11) kann wie folgt implementiert werden: data ZO = Blink | Blink' zo :: Stream Int Blinks zo = Stream {head = \case Blink -> 0; Blink' -> 1, tail = \case Blink -> Blink'; Blink' -> Blink} Die finale Stream(X)-Algebra StreamFun(X) (siehe 17.5) kann wie folgt implementiert werden: 243 streamFun :: Stream x (Int -> x) streamFun = Stream {head = ($0), tail = \s n -> s $ n+1} Die folgenden Funktionen implementieren die Entfaltungen von Elementen einer beliebigen Stream(X)-Algebra alg zu Elementen von StreamFun(X) bzw. DTStream(X): unfoldStreamF :: Stream x list -> list -> Int -> x unfoldStreamF alg s = \case 0 -> head_ alg s n -> unfoldStreamF alg (tail_ alg s) $ n-1 unfoldStream :: Stream x list -> list -> StreamC x unfoldStream alg s = head alg s :< unfoldStream alg $ tail alg s data DAut x y state = DAut {delta :: state -> x -> state, beta :: state -> y} Der Datentyp DAutC(X)(Y) von Beispiel 10.4 ist eine DAut(X,Y)-Algebra: dAutC :: DAut x y (DAutC x y) dAutC = DAut {delta = deltaC, beta = betaC} (siehe 10.4) Die Acc(Z)-Algebra eo (siehe 2.11) kann wie folgt implementiert werden: 244 data EO = Esum | Osum deriving Eq eo :: DAut Int Bool EO eo = DAut {delta = \case Esum -> f . even; Osum -> f . odd, beta = (== Esum)} where f b = if b then Esum else Osum Die finale DAut(X, Y )-Algebra Beh(X, Y ) (siehe 2.15) kann wie folgt implementiert werden: behFun :: DAut x y ([x] -> y) behFun = DAut {delta = \f x -> f . (x:), beta = ($ [])} Die folgenden Funktionen implementieren die Entfaltungen von Elementen einer beliebigen DAut(X, Y )-Algebra alg zu Elementen von Beh(X, Y ) bzw. DTDAut(X,Y ): unfoldDAutF :: DAut x y state -> state -> [x] -> y unfoldDAutF alg s = \case [] -> beta alg s x:w -> unfoldDAutF alg (delta alg s x) w unfoldDAut :: DAut x y state -> state -> StateC x y unfoldDAut alg s = DA {deltaC = unfoldDAut alg . delta alg s, betaC = beta alg s} 245 Nach Beispiel 2.23 realisieren die initialen Automaten (eo, Esum) und (eo, Osum) die Verhaltensfunktion even ◦ sum : Z∗ → 2 bzw. odd ◦ sum : Z∗ → 2. Da eo Acc(Z)-isomorph zur Unteralgebra von A = DAutC(Z)(Bool ) mit der Trägermenge {esum, osum} ist, werden die beiden Funktionen auch von den initialen Automaten (A, esum) und (A, osum) realisiert. Es gelten also folgende Gleichungen: unfoldDAutF eo Esum = even . sum = unfoldDAutF dAutC esum unfoldDAutF eo Osum = odd . sum = unfoldDAutF dAutC osum o (siehe Beispiel 4.2 und Java.hs) data JavaLight commands command sum_ sumsect prod prodsect factor disjunct conjunct literal = JavaLight {seq_ :: command -> commands -> commands, embed :: command -> commands, block :: commands -> command, assign :: String -> sum_ -> command, cond :: disjunct -> command -> command -> command, cond1,loop :: disjunct -> command -> command, sum_ :: prod -> sumsect -> sum_, sumsect :: String -> prod -> sumsect -> sumsect, nilS :: sumsect, 246 prod prodsect nilP embedI var encloseS disjunct embedC conjunct embedL not_ atom embedB encloseD :: :: :: :: :: :: :: :: :: :: :: :: :: :: factor -> prodsect -> prod, String -> factor -> prodsect -> prodsect, prodsect, Int -> factor, String -> factor, sum_ -> factor, conjunct -> disjunct -> disjunct, conjunct -> disjunct, literal -> conjunct -> conjunct, literal -> conjunct, literal -> literal, sum_ -> String -> sum_ -> literal, Bool -> literal, disjunct -> literal} 11.3 Die Termalgebra von JavaLight Zunächst wird die Menge der JavaLight-Terme analog zu den TList(X) und TReg(BS) (siehe 10.1 bzw. 10.2) durch Datentypen implementiert und zwar jeweils einen für jede Sorte von JavaLight: data Commands data Command = Seq (Command,Commands) | Embed Command deriving Show = Block Commands | Assign (String,Sum) | Cond (Disjunct,Command,Command) | Cond1 (Disjunct,Command) | 247 data data data data data data data data Sum Sumsect Prod Prodsect Factor Disjunct Conjunct Literal = = = = = = = = Loop (Disjunct,Command) deriving Show Sum (Prod,Sumsect) deriving Show Sumsect (String,Prod,Sumsect) | NilS deriving Show Prod (Factor,Prodsect) deriving Show Prodsect (String,Factor,Prodsect) | NilP deriving Show EmbedI Int | Var String | EncloseS Sum deriving Show Disjunct (Conjunct,Disjunct) | EmbedC Conjunct deriving Show Conjunct (Literal,Conjunct) | EmbedL Literal deriving Show Not Literal | Atom (Sum,String,Sum) | EmbedB Bool | EncloseD Disjunct deriving Show javaTerm :: JavaLight Commands Command Sum Sumsect Prod Prodsect Factor Disjunct Conjunct Literal javaTerm = JavaLight {seq_ = curry Seq, embed = Embed, block = Block, assign = curry Assign, cond = curry3 Cond, cond1 = curry Cond1, loop = curry Loop, sum_ = curry Sum, sumsect = curry3 Sumsect, nilS = NilS, prod = curry Prod, prodsect = curry3 Prodsect, nilP = NilP, embedI = EmbedI, var = Var, encloseS = EncloseS, disjunct = curry Disjunct, embedC = EmbedC, conjunct = curry Conjunct, embedL = EmbedL, not_ = Not, atom = curry3 Atom, embedB = EmbedB, encloseD = EncloseD} 11.4 Die Wortalgebra von JavaLight javaWord :: JavaLight String String String String String String String String String String 248 javaWord = JavaLight {seq_ embed block assign cond cond1 loop sum_ sumsect nilS prod prodsect nilP embedI var encloseS disjunct embedC conjunct embedL not_ atom embedB encloseD = = = = = = = = = = = = = = = = = = = = = = = = (++), id, \cs -> " {"++cs++"}", \x e -> x++" = "++e++"; ", \e c c' -> "if "++e++c++" else"++c', \e c -> "if " ++e++c, \e c -> "while "++e++c, (++), \op e f -> op++e++f, "", (++), \op e f -> op++e++f, "", show, id, \e -> '(':e++")", \e e' -> e++" || "++e', id, \e e' -> e++" && "++e', id, \be -> '!':be, \e rel e' -> e++rel++e', show, \e -> '(':e++")"} 249 11.5 Das Zustandsmodell von JavaLight (siehe Beispiel 4.9) type St a = Store -> a rel :: String -> Int -> Int -> Bool rel str = case str of "<" -> (<) ">" -> (>) "<=" -> (<=) ">=" -> (>=) "==" -> (==) "!=" -> (/=) javaState :: JavaLight (St Store) (St Store) (St Int) (St (Int -> Int)) (St Int) (St (Int -> Int)) (St Int) (St Bool) (St Bool) (St Bool) javaState = JavaLight {seq_ = flip (.), embed = id, block = id, assign = \x e st -> update st x $ e st, cond = cond, cond1 = \f g -> cond f g id, loop = loop, sum_ = \f g st -> g st $ f st, sumsect = \str f g st i -> g st $ op str i $ f st, nilS = const id, prod = \f g st -> g st $ f st, 250 prodsect nilP embedI var encloseS disjunct embedC conjunct embedL not_ atom embedB encloseD = = = = = = = = = = = = = \str f g st i -> g st $ op str i $ f st, const id, const, flip ($), id, liftM2 (||), id, liftM2 (&&), id, (not .), \f str -> liftM2 (rel str) f, const, id} where cond :: St Bool -> St Store -> St Store -> St Store cond f g h st = if f st then g st else h st loop :: St Bool -> St Store loop f g = cond f (loop f g op str = case str of "+" -> "-" -> "*" -> "/" -> -> St Store . g) id (+) (-) (*) div 251 Z.B. hat das JavaLight-Programm prog = fact = 1; while x > 1 {fact = fact*x; x = x-1;} die folgende Interpretation in A = javaState: compileA JavaLight (prog) : Store → Store store 7→ λz.if z = x then 0 else if z = fact then store(x)! else store(z) Ausdrücke werden hier so interpretiert wie im zweiten in Beispiel 4.9 definierten Modell von JavaLight. Da die Ausführung von Kommandos, zumindest von denen, die loop enthalten, manchmal nicht terminieren, müssen sie als partielle Funktionen interpretiert werden, was die Erweiterung der Trägermengen des Zustandsmodells zu ω-CPOs (halbgeordneten Mengen mit Kettensuprema und kleinstem Element) erfordert (siehe Kapitel 19). Tatsächlich implementiert die Haskell-Funktion loop von javaState das zu einem ω-CPO erweiterte Zustandsmodell, dessen Details in Abschnitt 19.1 zu finden sind. o 252 11.6 Die Ableitungsbaumalgebra von JavaLight type TS = Tree String javaDeri :: JavaLight TS TS TS TS TS TS TS TS TS TS javaDeri = JavaLight {seq_ = \c c' -> F "Commands" [c,c'], embed = \c -> F "Commands" [c], block = \c -> command [c], assign = \x e -> command [leaf x,leaf "=",e,leaf ";"], cond = \e c c' -> command [leaf "if",e,c,leaf "else",c'], cond1 = \e c -> command [leaf "if",e,c], loop = \e c -> command [leaf "while",e,c], sum_ = \e f -> F "Sum" [e,f], sumsect = \op e f -> F "Sumsect" [leaf op,e,f], nilS = leaf "Sumsect", prod = \e f -> F "Prod" [e,f], prodsect = \op e f -> F "Prodsect" [leaf op,e,f], nilP = leaf "Prodsect", embedI = \i -> factor [leaf $ show i], var = \x -> factor [leaf x], encloseS = \e -> factor [leaf "(",e,leaf ")"], disjunct = \e e'-> F "Disjunct" [e,leaf "||",e'], embedC = \e -> F "Disjunct" [e], conjunct = \e e'-> F "Conjunct" [e,leaf "&&",e'], embedL = \e -> F "Conjunct" [e], 253 not_ = \be -> literal [leaf "!",be], atom = \e rel e' -> literal [e,leaf rel,e'], embedB = \b -> literal [leaf $ show b], encloseD = \e -> literal [leaf "(",e,leaf ")"]} where command = F "Command" factor = F "Factor" literal = F "Literal" leaf = flip F [] 254 11.7 Datentyp der XMLstore-Algebren (siehe Beispiel 4.3 und Compiler.hs) data XMLstore store orders person emails email items stock suppliers id = XMLstore {store :: stock -> store, storeO :: orders -> stock -> store, orders :: person -> items -> orders -> orders, embedO :: person -> items -> orders, person :: String -> person, personE :: String -> emails -> person, emails :: email -> emails -> emails, none :: emails, email :: String -> email, items :: id -> String -> items -> items, embedI :: id -> String -> items, stock :: id -> Int -> suppliers -> stock -> stock, embedS :: id -> Int -> suppliers -> stock, supplier :: person -> suppliers, parts :: stock -> suppliers, id_ :: String -> id} 255 12 Attributierte Übersetzung Um die Operationen der Zielalgebra einer Übersetzung induktiv definieren zu können, müssen Trägermengen oft parametrisiert werden oder die Wertebereiche bereits parametrisierter Trägermengen um zusätzliche Komponenten erweitert werden, die zur Berechnung von Parametern rekursiver Aufrufe des Übersetzers benötigt werden. Die Zielalgebra A hat dann die Form Av1 × . . . × Avm → Aa1 × . . . × Aan . (1) Die Indizes v1, . . . , vm und a1, . . . , an heißen vererbte Attribute (inherited attributes) bzw. abgeleitete Attribute (derived, synthesized attributes) von s. Für alle 1 ≤ i ≤ m und 1 ≤ j ≤ n ist Avi bzw. Aaj die Menge der möglichen Werte des Attributs vi bzw. aj . Vererbte Attribut(wert)e sind z.B. Positionen, Adressen, Schachtelungstiefen, etc. Abgeleitete Attribut(wert)e sind das eigentliche Zielobjekt wie auch z.B. dessen Typ, Größe oder Platzbedarf, das selbst einen Wert eines abgeleiteten Attributs bildet. Gleichzeitig vererbte und abgeleitete Attribute heißen transient. Deren Werte bilden den Zustandsraum, der einen Compiler zur Transitionsfunktion eines Automaten macht, dessen Ein- und Ausgaben Quell- bzw. Zielprogramme sind. 256 Kurz gesagt, ergänzen Attribute einen Syntaxbaum um Zusatzinformation, die erforderlich ist, um ein bestimmtes Übersetzungsproblem zu lösen. In unserem generischen Ansatz sind sie aber nicht – wie beim klassischen Begriff einer Attributgrammatik – Dekorationen von Syntaxbäumen, sondern Komponenten der jeweiligen Zielalgebra. Nach der Übersetzung in eine Zielfunktion vom Typ (1) werden alle vererbten Attribute mit bestimmten Anfangswerten initialisiert. Dann werden die Zielfunktion auf die Anfangswerte angewendet und am Schluss das Ergebnistupel abgeleiteter Attributwerte mit π1 auf die erste Komponente, die das eigentliche Zielobjekt darstellt, projiziert. Beispiel 12.1 Binärdarstellung rationaler Zahlen (siehe auch Compiler.hs) konkrete Syntax G abstrakte Syntax Σ(G) rat → nat. | rat0 | rat1 mkRat : nat → rat app0, app1 : rat → rat nat → 0 | 1 | nat0 | nat1 0, 1 : 1 → nat app0, app1 : nat → nat 257 Die Zielalgebra A Arat enthält neben dem eigentlichen Zielobjekt ein weiteres abgeleitetes Attribut mit Wertebereich Q, welches das Inkrement liefert, um das sich der Dezimalwert einer rationalen Zahl erhöht, wenn an die Mantisse ihrer Binärdarstellung eine 1 angefügt wird. Anat = N Arat = Q × Q 0A : Anat 1A : Anat 0A = 0 1A = 1 app0A : Anat → Anat app1A : Anat → Anat app0A(n) = n ∗ 2 app1A(n) = n ∗ 2 + 1 mkRatA : Anat → Arat mkRatA(val) = (val, 1) app0A : Arat → Arat app1A : Arat → Arat app0A(val, inc) = (val, inc/2) app1A(val, inc)) = (val + inc/2, inc/2) 258 Beispiel 12.2 Strings mit Hoch- und Tiefstellungen konkrete Syntax G abstrakte Syntax Σ(G) string → string box | app : string × box → string string ↑ box | up : string × box → string string ↓ box | down : string × box → string box mkString : box → string box → (string) | Char mkBox : string → box embed : Char → box Die Zielalgebra A Astring und Abox enthalten • ein vererbtes Attribut mit Wertebereich N2, das die Koordinaten der linken unteren Ecke des Rechtecks liefert, in das der eingelesene String geschrieben wird, • neben dem eigentlichen Zielobjekt ein weiteres abgeleitetes Attribut mit Wertebereich N3, das die Länge sowie - auf eine feste Grundlinie bezogen - Höhe und Tiefe des Rechtecks liefert. Astring = Abox = Strings mit Hoch- und Tiefstellungen × N2 → N3 259 appA : Astring × Abox → Astring appA(f, g)(x, y) = (str str0, l + l0, max h h0, max t t0) where (str, l, h, t) = f (x, y) (str0, l0, h0, t0) = g(x + l, y) upA : Astring × Abox → Astring 0 upA(f, g)(x, y) = (strstr , l + l0, h + h0 − 1, max t (t0 − h + 1)) where (str, l, h, t) = f (x, y) (str0, l0, h0, t0) = g(x + l, y + h − 1) downA : Astring × Abox → Astring downA(f, g)(x, y) = (strstr0 , l + l0, max h (h0 − t − 1), t + t0 − 1) where (str, l, h, t) = f (x, y) (str0, l0, h0, t0) = g(x + l, y − t + 1) mkString A : Abox → Astring mkString A(f ) = f mkBoxA : Astring → Abox embedA : Char → Abox mkBoxA(f ) = f emdedA(c)(x, y) = (c, 1, 2, 0) 260 Beispiel 12.3 Übersetzung regulärer Ausdrücke in erkennende Automaten Die folgenden Ersetzungsregeln beschreiben die schrittweise Übersetzung eines regulären Ausdrucks (= Reg(BS)-Grundterms) t in einen nichtdeterministischen Automaten, der die Sprache von t erkennt (siehe 2.17). Die Regeln basieren auf [9], Abschnitt 3.2.3). Zunächst wird die erste Regel auf t angewendet. Es entsteht ein Graph mit zwei Knoten und einer mit t markierten Kante. Dieser wird nun mit den anderen Regeln schrittweise verfeinert, bis an allen seinen Kanten nur noch Elemente von BS stehen. Dann stellt er den Transitionsgraphen eines Automaten dar, der t erkennt. 261 t 0 t 1 t s par(t,t') s' s s' t' s seq(t,t') s' s t' t s' ε s iter(t) s' s ε ε t s' ε s base(ø) s' s s base(B) s' s s' B s' B BS\{ø} 262 1 0 Mit obigen Regeln aus dem regulären Ausdruck t = (aa∗ + bc(bc)∗)∗ in Wortdarstellung (siehe 2.14) konstruierter Automat, der die Sprache von t erkennt 263 Die Zielalgebra regNDA Jede Regel außer der ersten entspricht der Interpretation einer Operation von Reg(BS) in folgender Reg(BS)-Algebra. regNDAreg = (NDA × N3 → NDA × N) Hierbei ist NDA = N → (BS → N∗) der Typ nichtdeterministischer erkennender Automaten mit ganzzahligen Zuständen und Eingaben aus BS. regNDAreg enthält • den Automaten als transientes Attribut, das mit der Funktion λn.λs. (Automat ohne Zustandsübergänge) initialisiert wird, • zwei vererbte Attribute mit Wertebereich N, die mit 0 bzw. 1 initialisiert werden und den Start- bzw. Endzustand des Automaten bezeichnen, • ein transientes Attribut mit Wertebereich N, das mit 2 initialisiert wird und die nächste ganze Zahl liefert, die als Zustandsname vergeben werden kann. Die Operationen von Reg(BS) werden von regNDA wie folgt interpretiert: parregNDA : regNDAreg × regNDAreg → regNDAreg parregNDA(f, g)(δ, s, s0, next) = g(δ 0, s, s0, next0) where (δ 0, next0) = f (δ, s, s0, next) 264 seq regNDA : regNDAreg × regNDAreg → regNDAreg seq regNDA(f, g)(δ, s, s0, next) = g(δ 0, next, s0, next0) where (δ 0, next0) = f (δ, s, next, next + 1) iterregNDA : regNDAreg → regNDAreg iterregNDA(f )(δ, s, s0, next) = (addTo(δ4)(s)()(s0), next3) where next1 = next + 1 next2 = next1 + 1 (δ1, next3) = f (δ, next, next1, next2) δ2 = addTo(δ1)(s)()(next) δ3 = addTo(δ2)(next1)()(next) δ4 = addTo(δ3)(next1)()(s0) baseregNDA : BS → regNDAreg baseregNDA(∅)(δ, s, s0, next) = (δ, next) ∀ B ∈ BS \ {∅} : baseregNDA(B)(δ, s, s0, next) = (addTo(δ)(s)(B)(s0), next) x addTo(δ)(s)(x)(s0) fügt die Transition s → s0 zur Transitionsfunktion δ hinzu. 265 Der durch Auswertung eines regulären Ausdrucks (= Reg(BS)-Grundterms) in regNDA erzeugte Automat nda ∈ NDA ist nichtdeterministisch und hat -Übergänge. Er lässt sich wie üblich in einen deterministischen Potenzautomaten ohne -Übergänge transformieren. Da 0 der Anfangszustand, 1 der Endzustand und auch alle anderen Zustände von nda ganze Zahlen sind, lassen sich alle Zustände des Potenzautomaten pow(nda) als Listen ganzer Zahlen darstellen. pow(nda) ist, zusammen mit seinem Anfangszustand, der -Hülle des Anfangszustandes 0 von nda, eine DAut(BS, 2)-Algebra mit Zustandsmenge Z∗ (siehe 2.13): accNDA :: NDA -> (DAut BS Bool [Int], [Int]) accNDA nda = (DAut {delta = (epsHull .) . deltaP, beta = (1 `elem`)}, epsHull [0]) where deltaP :: [Int] -> BS -> [Int] deltaP qs x = unionMap (flip nda x) qs epsHull :: [Int] -> [Int] epsHull qs = if qs' `subset` qs then qs else epsHull $ qs `union` qs' where qs' = deltaP qs regNDA und accNDA sind im Haskell-Modul Compiler.hs implementiert. 266 12.4 Darstellung von Termen als hierarchische Listen Mit folgender JavaLight-Algebra javaList wird z.B. der Syntaxbaum des Programms fact = 1; while x > 1 {fact = fact*x; x = x-1;} in die Form einer hierarchischen Liste gebracht: 267 Die Trägermengen von javaList enthalten zwei vererbte Attribute vom Typ 2 bzw. Z. Der Boolesche Wert gibt an, ob der jeweilige Teilstring str hinter oder unter den vorangehenden zu schreiben ist. Im zweiten Fall wird str um den Wert des zweiten Attributs eingerückt. type BIS = Bool -> Int -> String javaList :: JavaLight BIS BIS BIS BIS BIS BIS BIS BIS BIS BIS javaList = JavaLight {seq_ = indent2 "commands", embed = indent1 "embed", block = indent1 "block", assign = \x e -> indent2 "assign" (indent0 x) e, cond = indent3 "cond", cond1 = indent2 "cond1", loop = indent2 "loop", sum_ = indent2 "sum", sumsect = \op e f -> indent3 "sumsect" (indent0 op) e f, nilS = indent0 "nilS", prod = indent2 "prod", prodsect = \op e f -> indent3 "prodsect" (indent0 op) e f, nilP = indent0 "nilP", embedI = \i -> indent1 "embedI" $ indent0 $ show i, var = \x -> indent1 "var" $ indent0 x, encloseS = indent1 "encloseS", 268 disjunct = indent2 "disjunct", embedC = indent1 "embedC", conjunct = indent2 "conjunct", embedL = indent1 "embedL", not_ = indent1 "not", atom = \e rel e'-> indent3 "atom" e (indent0 rel) e', embedB = \b -> indent1 "embedB" $ indent0 $ show b, encloseD = indent1 "encloseD"} where indent0 x = blanks x [] indent1 x f = blanks x [f] indent2 x f g = blanks x [f,g] indent3 x f g h = blanks x [f,g,h] blanks :: String -> [BIS] -> BIS blanks x fs b n = if b then str else '\n':replicate n ' '++str where str = case fs of f:fs -> x++' ':g True f++ concatMap (g False) fs _ -> x g b f = f b $ n+length x+1 269 12.5 Eine kellerbasierte Zielsprache für JavaLight Der folgende Datentyp liefert die Befehle einer Assemblersprache, die auf einem Keller vom Typ Z und einem Speicher vom Typ Store = String → Z operiert. Letzterer ist natürlich nur die Abstraktion eines realen Speichers, auf dessen Inhalt nicht über Strings, sondern über Adressen, z.B. Kellerpositionen, zugegriffen wird. Ein solche – realistischere – Assemblersprache wird erst im nächsten Kapitel behandelt. data StackCom = Push Int | Pop | Load String | Save String | Add | Sub | Mul | Div | Or_ | And_ | Inv | Cmp String | Jump Int | JumpF Int Diese Befehle bilden die möglichen Eingaben eines endlichen Automaten, dessen Zustände jeweils aus einem Kellerinhalt und einer Variablenbelegung bestehen: type State = ([Int],Store,Int) Die Bedeutung der Befehle ergibt sich aus ihrer Verarbeitung durch eine Transitionsfunktion executeCom: executeCom :: StackCom -> State -> State 270 executeCom com (stack,store,n) = case com of Push a -> (a:stack,store,n+1) Pop -> (tail stack,store,n+1) Load x -> (store x:stack,store,n+1) Save x -> (stack,update store x $ head stack,n+1) Add -> (a+b:s,store,n+1) where a:b:s = stack Sub -> (b-a:s,store,n+1) where a:b:s = stack Mul -> (a*b:s,store,n+1) where a:b:s = stack Div -> (b`div`a:s,store,n+1) where a:b:s = stack Or_ -> (max a b:s,store,n+1) where a:b:s = stack And_ -> (a*b:s,store,n+1) where a:b:s = stack Inv -> ((a+1)`mod`2:s,store,n+1) where a:s = stack Cmp str -> (c:s,store,n+1) where a:b:s = stack c = if rel str a b then 1 else 0 -- siehe 11.5 Jump k -> (stack,store,k) JumpF k -> (stack,store,if a == 0 then k else n+1) where a:_ = stack Sprungbefehle können nur im Kontext einer vollständigen Befehlsfolge cs ausgeführt werden. 271 n ist die Position des Befehls von cs, den der Interpreter als nächsten ausführt: execute :: [StackCom] -> State -> State execute cs state@(_,_,n) = if n >= length cs then state else execute cs $ executeCom (cs!!n) state Um Sprungziele, also die ganzzahligen Parameter der Sprungbefehle, berechnen zu können, muss der Compiler die Position jedes erzeugten Befehls innerhalb des gesamten Zielprogramms kennen. Dieses erzeugt er durch Interpretation des (abstrakten) Quellprogramms in der folgenden JavaLight-Algebra javaStack , deren Trägermengen neben dem jeweiligen Zielcode code ein (vererbtes) Attribut haben, das die Nummer des ersten Befehls von code wiedergibt. Dementsprechend interpretiert javaStack alle Sorten von JavaLight durch den Funktionstyp LCom = Int -> [StackCom] javaStack :: JavaLight LCom LCom LCom LCom LCom LCom LCom LCom LCom LCom javaStack = JavaLight {seq_ = seq_, embed = id, block = id, assign = \x e lab -> e lab++[Save x,Pop], cond = \e c c' lab 272 cond1 loop sum_ sumsect nilS prod prodsect nilP embedI var encloseS disjunct embedC conjunct embedL not_ atom embedB encloseD = = = = = = = = = = = = = = = = = = = -> let (code,exit) = fork e c 1 lab code' = c' exit in code++Jump (exit+length code'):code', \e c lab -> fst $ fork e c 0 lab, \e c lab -> fst (fork e c 1 lab)++[Jump lab], apply2 "", \op -> apply2 op . apply1 op, const [], apply2 "", \op -> apply2 op . apply1 op, const [], \i -> const [Push i], \x -> const [Load x], id, apply2 "|", id, apply2 "&", id, apply1 '!', \e rel -> apply2 rel e, \b -> const [Push $ if b then 1 else 0], id} 273 where apply1 :: String -> LCom -> LCom apply1 op e lab = e lab++[case op of "!" -> Inv "+" -> Add; "*" -> Mul; "-" -> Sub "/" -> Div] seq_ :: LCom -> LCom -> LCom seq_ e e' lab = code++e' (lab+length code) where code = e lab apply2 :: String -> LCom -> LCom -> LCom apply2 op e e' lab = code++e' (lab+length code)++ [case op of "|" -> Or_ "&" -> And_ _ -> Cmp op] where code = e lab fork :: LCom -> LCom -> Int -> Int -> ([StackCom],Int) fork e c n lab = (code++JumpF exit:code',exit) where code = e lab lab' = lab+length code+1 code' = c lab' exit = lab'+length code'+n 274 Beispiel 12.6 (Fakultätsfunktion) Steht das JavaLight-Programm fact = 1; while x > 1 {fact = fact*x; x = x-1;} in der Datei prog, dann übersetzt es javaToAlg "prog" 6 (siehe Java.hs) in ein Zielprogramm vom Typ [StackCom] und schreibt dieses in die Datei javatarget ab. Es lautet wie folgt: 0: 1: 2: 3: 4: 5: 6: 7: Push 1 Save "fact" Pop Load "x" Push 1 Cmp ">" JumpF 18 Load "fact" 8: 9: 10: 11: 12: 13: 14: 15: Load Mul Save Pop Load Push Sub Save "x" 16: Pop 17: Jump 3 "fact" "x" 1 "x" 275 13 JavaLight+ = JavaLight + I/O + Deklarationen + Prozeduren (siehe Java2.hs) 13.1 Assemblersprache mit I/O und Kelleradressierung Die Variablenbelegung store : String → Z im Zustandsmodell von Abschnitt Assemblerprogramme als JavaLight-Zielalgebra wird ersetzt durch den Keller stack ∈ Z∗, der jetzt nicht nur der schrittweisen Auswertung von Ausdrücken dient, sondern auch der Ablage von Variablenwerten unter vom Compiler berechneten Adressen. Weitere Zustandskomponenten sind: • der Inhalt des Registers BA für die jeweils aktuelle Basisadresse (s.u.), • der Inhalt des Registers STP für die Basisadresse des statischen Vorgängers des jeweils zu übersetzenden Blocks bzw. Funktionsaufrufs (s.u.), • der schon in Abschnitt 12.5 benutzte Befehlszähler pc (program counter), • der Ein/Ausgabestrom io, auf den Lese- bzw. Schreibbefehle zugreifen. Der entsprechende Datentyp lautet daher wie folgt: data State = State {stack,io :: [Int], ba,stp,pc :: Int} 276 Bei der Übersetzung eines Blocks b oder Prozeduraufrufs f (es) reserviert der Compiler Speicherplatz für die Werte aller lokalen Variablen des Blocks b bzw. Rumpfs (der Deklaration) von f . Dieser Speicherplatz ist Teil eines b bzw. f (es) zugeordneten Kellerabschnitts (stack frame, activation record). Dessen Anfangsadresse ist die Basisadresse ba der lokalen Variablen. Die absolute Adresse einer lokalen Variablen x ist die Kellerposition, an welcher der jeweils aktuelle Wert von x steht. Sie ist immer die Summe von ba und dem – Relativadresse von x genannten und vom Compiler in der Symboltabelle (s.u.) gespeicherten – Abstand zum Beginn des Kellerabschnitts. Wird zur Laufzeit der Block b bzw. – als Teil der Ausführung von f (es) – der Rumpf von f betreten, dann speichert ein vom Compiler erzeugter Befehl die nächste freie Kellerposition als aktuelle Basisadresse im Register BA. Der statische Vorgänger von b bzw. f (es) ist der innerste Block bzw. Prozedurrumpf, in dem b bzw. die Deklaration von f steht. Der b bzw. f (es) zugeordnete Kellerabschnitt beginnt stets mit dem Display, das aus den – nach aufsteigender Schachtelungstiefe geordneten – Basisadressen der Kellerabschnitte aller umfassenden Blöcke und Prozedurrümpfe besteht. 277 Der Compiler erzeugt und verwendet keine ganzzahligen, sondern nur symbolische Adressen, d.h. Registernamen (BA, STP, TOP) oder mit einer ganzen Zahl indizierte (inDexed) Adressen der Form Dex(adr)(i): data SymAdr = BA | STP | TOP | Dex SymAdr Int | Con Int Der Inhalt von TOP ist immer die Adresse der ersten freien Kellerposition. Ist s der Kellerinhalt, dann entspricht die absolute Adresse adr der Kellerposition |s| − 1 − adr. 278 Die folgende Funktion baseAdr berechnet die jeweils aktuelle (symbolische) Basisadresse: baseAdr :: Int -> Int -> SymAdr baseAdr declDep dep = if declDep == dep then BA else Dex BA declDep Der Compiler ruft baseAdr bei der Übersetzung jeder Verwendung einer Variable x auf. declDep und dep bezeichnen die Deklarations- bzw. Verwendungstiefe von x. Stimmen beide Werte überein, dann ist x eine lokale Variable und die Basisadresse von x steht (zur Laufzeit) im Register BA. Andernfalls ist x eine globale Variable, d.h. x wurde in einem Block bzw. Prozedurrumpf deklariert, der denjenigen, in dem x verwendet wird, umfasst (declDep<dep). Die Basisadresse von x ist in diesem Fall nicht im Register BA, sondern unter dem Inhalt der declDep-ten Position des dem Block bzw. Prozedurrumpf, in dem x verwendet wird, zugeordneten Kellerabschnitt zu finden (s.o.). Die folgenden Funktionen berechnen aus symbolischen Adressen absolute Adressen bzw. Kellerinhalte: absAdr,contents :: State -> SymAdr -> Int absAdr _ (Con i) = i absAdr state BA = ba state absAdr state STP = stp state 279 absAdr state TOP absAdr state (Dex BA i) absAdr state (Dex STP i) absAdr state (Dex TOP i) absAdr state (Dex adr i) contents state (Dex adr i) contents state adr = = = = = = length $ stack state ba state+i stp state+i length (stack state)+i contents state adr+i s!!(k-i) where (s,k) = stackPos state adr = absAdr state adr stackPos :: State -> SymAdr -> ([Int],Int) stackPos state adr = (s,length s-1-contents state adr) where s = stack state updState updState updState updState :: State -> SymAdr -> state BA x = state STP x = state (Dex adr i) x = Int -> State state {ba = x} state {stp = x} state {stack = updList s (k-i) x} where (s,k) = stackPos state adr Mit der Anwendung von absAdr oder contents auf eine – evtl. geschachtelte – indizierte Adresse wird eine Folge von Kelleradressen und -inhalten durchlaufen. 280 absAdr liefert die letzte Adresse der Folge, contents den Kellerinhalt an der durch diese Adresse beschriebenen Position. Die Zielprogramme von Javalight+ setzen sich aus folgenden Assemblerbefehlen mit symbolischen Adressen zusammen: data StackCom = PushA SymAdr | Push SymAdr | Pop | Save SymAdr | Move SymAdr SymAdr | Add | Sub | Mul | Div | Or_ | And_ | Inv | Cmp String | Jump SymAdr | JumpF Int | Read SymAdr | Write Analog zu Abschnitt 12.5 ist die Bedeutung der Befehle durch eine Transitionsfunktion executeCom gegeben – die jetzt auch die Sprungbefehle verarbeitet: executeCom :: StackCom -> State -> State executeCom com state = case com of PushA adr -> state' {stack = absAdr state adr:stack state} Push adr -> state' {stack = contents state adr: stack state} Pop -> state' {stack = tail $ stack state} Save adr -> updState state' adr $ head $ stack state 281 Move adr adr' -> updState state' adr' $ contents state adr Add -> applyOp state' (+) Sub -> applyOp state' (-) Mul -> applyOp state' (*) Div -> applyOp state' div Or_ -> applyOp state' max And_ -> applyOp state' (*) Inv -> state' {stack = (a+1)`mod`2:s} where a:s = stack state Cmp rel -> state' {stack = mkInt (evalRel rel b a):s} where a:b:s = stack state Jump adr -> state {pc = contents state adr} JumpF lab -> state {pc = if a == 0 then lab else pc state+1, stack = s} where a:s = stack state Read adr -> if null s then state' else (updState state' adr $ head s) {io = tail s} where s = io state Write -> if null s then state' else state' {io = io state++[head s]} where s = stack state 282 where state' = state {pc = pc state+1} applyOp :: State -> (Int -> Int -> Int) -> State applyOp state op = state {stack = op b a:s} where a:b:s = stack state execute wird ebenfalls an das neue Zustandsmodell angepasst: execute :: [StackCom] -> State -> State execute cs state = if curr >= length cs then state else execute cs $ executeCom (cs!!curr) state where curr = pc state 13.2 Grammatik und abstrakte Syntax von JavaLight+ JavaLight+ enthält neben den Sorten von JavaLight die Sorten Formals und Actuals für Listen formaler bzw. aktueller Parameter von Prozeduren. Auch die Basismengen von JavaLight werden übernommen. Hinzu kommt eine für formale Parameter. Sie besteht aus mit zwei Konstruktoren aus dem jeweiligen Parameternamen und einem Typdeskriptor gebildeten Ausdruck: 283 data TypeDesc = INT | BOOL | UNIT | Fun TypeDesc Int | ForFun TypeDesc data Formal = Par String TypeDesc | FunPar String [Formal] TypeDesc FunPar(x)(t) bezeichnet einen funktionalen formalen Parameter, also eine Prozedurvariable. Sie hat den Typ ForFun(t). t ist hier der Typ der Prozedurergebnisse. Demgegenüber bezeichnet Fun(t,lab) den Typ einer Prozedurkonstanten mit Ergebnistyp t und Codeadresse lab. Dementsprechend enthält JavaLight+ auch die Regeln von JavaLight. Hinzu kommen die folgenden Regeln für Ein/Ausgabebefehle, Deklarationen, Prozeduraufrufe und Parameterlisten. Außerdem sind jetzt auch Boolesche Variablen und Zuweisungen an diese zugelassen. Command → Formals Formals 0 ExpSemi ExpBrac ExpComm Factor → → → → → → read String; | write ExpSemi | {Commands} | TypeDesc String Formals {Commands} | TypeDesc String; | String = ExpSemi | String Formals {Commands} | String Actuals () | (Formals 0 Formal ) | Formal , Formals 0 Sum; | Disjunct; Sum) | Disjunct) Sum, | Disjunct, String Actuals 284 Literal → Actuals → Actuals0 → String | String Actuals () | (Actuals0 ExpBrac | ExpComm Actuals0 In Beispiel 6.2 wurde begründet, warum drei verschiedene Sorten für Ausdrücke (ExpSemi , ExpBrac und ExpComm) benötigt werden. Beim Übergang zur abstrakten Syntax können wir die Unterscheidung zwischen den drei Sorten wieder aufheben. Erlaubt man nur JavaLight+-Algebren A, die Formals durch Formal ∗ und Actuals durch (ASum + ADisjunct )∗ interpretieren, dann lautet der Datentyp der JavaLight+-Algebren wie folgt (siehe Java2.hs): data JavaLightP commands command exp sum_ sumsect prod prodsect factor disjunct conjunct literal formals actuals = JavaLightP {seq_ :: command -> commands -> commands, embed :: command -> commands, block :: commands -> command, assign :: String -> exp -> command, applyProc :: String -> actuals -> command, cond :: disjunct -> command -> command -> command, cond1,loop :: disjunct -> command -> command, read_ :: String -> command, write_ :: exp -> command, vardecl :: String -> TypeDesc -> command, 285 fundecl formals embedS sum_ sumsect nilS prod prodsect nilP embedI varInt applyInt encloseS embedD disjunct embedC conjunct embedL not_ atom embedB varBool applyBool encloseD actuals :: :: :: :: :: :: :: :: :: :: :: :: :: :: :: :: :: :: :: :: :: :: :: :: :: String -> formals -> TypeDesc -> commands -> command, [Formal] -> formals, sum_ -> exp, prod -> sumsect -> sum_, String -> prod -> sumsect -> sumsect, sumsect, factor -> prodsect -> prod, String -> factor -> prodsect -> prodsect, prodsect, Int -> factor, String -> factor, String -> actuals -> factor, sum_ -> factor, disjunct -> exp, conjunct -> disjunct -> disjunct, conjunct -> disjunct, literal -> conjunct -> conjunct, literal -> conjunct, literal -> literal, sum_ -> String -> sum_ -> literal, Bool -> literal, String -> literal, String -> actuals -> literal, disjunct -> literal, [exp] -> actuals} 286 13.3 JavaLight+-Algebra javaStackP (siehe Java2.hs) javaStackP hat wie javaStack nur eine Trägermenge (ComStack) für alle Kommandosorten sowie eine Trägermenge (ExpStack) für alle Ausdruckssorten (außer denen für Sektionen): type ComStack = Int -> Symtab -> Int -> Int -> ([StackCom],Symtab,Int) type ExpStack = Int -> Symtab -> Int -> ([StackCom],TypeDesc) type Symtab = String -> (TypeDesc,Int,Int) Die Symboltabelle (vom Typ Symtab) ordnet jeder Variablen drei Werte zu: Typ, Schachtelungstiefe ihrer Deklaration, also die Zahl der die Deklaration umfassenden Blöcke und Prozedurrümpfe, sowie eine Relativadresse (s.o.). Transiente Attribute der Kommandosorten sind die Symboltabelle und die nächste freie Relativadresse (adr; s.u.). Weitere vererbte Attribute der Kommando- und Ausdruckssorten sind die nächste freie Befehlsnummer (lab; s.u.) und die Schachtelungstiefe (depth; s.u.) des jeweiligen Kommandos bzw. Ausdrucks. Weitere abgeleitete Attribute der Ausdruckssorten sind der Zielcode und der Typdeskriptor des jeweiligen Ausdrucks. Die Symboltabelle ist bei Ausdruckssorten nur vererbt. 287 Listen formaler bzw. aktueller Parameter werden von javaStackP als Elemente der folgenden Trägermengen interpretiert: type FormsStack = Symtab -> Int -> Int -> ([ComStack],Symtab,Int) type ActsStack = Int -> Symtab -> Int -> ([StackCom],Int) Formale Parameter sind Teile von Funktionsdeklarationen. Deshalb haben Listen formaler Parameter Attribute von Kommandosorten: Symboltabelle, Schachtelungstiefe, nächste freie Relativadresse und sogar zusätzlichen Quellcode (vom Typ [ComStack]), der aus jedem funktionalen Parameter eine lokale Funktionsdeklaration erzeugt (siehe Übersetzung formaler Parameter). Aktuelle Parameter sind Ausdrücke und haben deshalb (fast) die gleichen Attribute wie Ausdruckssorten. Anstelle eines Typdeskriptors wird die Länge der jeweiligen Parameter berechnet. Den Platz von TypeDesc nimmt daher Int ein. Aktuelle Parameter können im Gegensatz zu anderen Vorkommen von Ausdrücken Prozedurvariablen sein. Der Einfachheit halber überprüft unser Compiler nicht, ob diese nur an Parameterpositionen auftreten, so wie er auch Anwendungen arithmetischer Operationen auf Boolesche Variablen oder Boolescher Operationen auf Variablen vom Typ Z ignoriert. 288 Die Typverträglichkeit von Deklarationen mit den Verwendungen der deklarierten Variablen könnte aber mit Hilfe einer Variante von javaStackP überprüft werden, deren Trägermengen um Fehlermeldungen angereichert sind. Bis auf die Interpretation von Blöcken und die Einbindung der o.g. Attribute gleicht die Interpretation der Programmkonstrukte von JavaLight in javaStackP derjenigen in javaStack . An die Stelle der Lade- und Speicherbefehle, die javaStack erzeugt und die zur Laufzeit Daten von einer Variablenbelegung store : String → Z zum Keller bzw. vom Keller nach store transportieren, treten die oben definierten Lade- und Speicherbefehle, die Daten oder Kelleradressen zwischen Kellerplätzen hin- und herschieben. javaStackP :: JavaAlgP ComStack ComStack ExpStack ExpStack ExpStack ExpStack ExpStack ExpStack ExpStack ExpStack ExpStack FormsStack ActsStack javaStackP = JavaLightP {seq_ = seq_, embed = id, block = block, assign = assign, applyProc = applyProc, cond = cond, cond1 = \e c -> (((fst .) .) .) . fork e c 0 loop = loop, read_ = read_, write_ = write_, 289 vardecl fundecl formals embedS sum_ sumsect nilS prod prodsect nilP embedI varInt applyInt encloseS embedD disjunct embedC conjunct embedL not_ atom embedB varBool applyBool encloseD = = = = = = = = = = = = = = = = = = = = = = = = = vardecl, fundecl, formals, id, apply2 "", \op -> apply2 "" . apply1 op, _ _ -> ([],INT), apply2 "", \op -> apply2 "" . apply1 op, \_ _ _ -> ([],INT), \i _ _ _ -> ([Push $ Con i],INT), var, applyFun, id, id, apply2 "|", id, apply2 "&", id, apply1 "!", \e rel e' -> apply (Cmp rel) (e,e'), \b _ _ _ -> ([Push $ Con $ mkInt b],BOOL), var, applyFun, id, 290 actuals = actuals} where apply1 :: String -> ExpStack -> ExpStack apply1 op e lab st dep = (fst (e lab st dep)++ [case op of "!" -> Inv; "+" -> Add; "-" -> Sub "*" -> Mul; _ -> Div], INT) seq_ :: ComStack -> ComStack -> ComStack seq_ c c' lab st dep adr = (code++code',st2,adr2) where (code,st1,adr1) = c lab st dep adr (code',st2,adr2) = c' (lab+length code) st1 dep adr1 apply2 :: String -> ExpStack -> ExpStack -> ExpStack apply2 op e e' lab st dep = (code++code'++cs,td) where (code,td) = e lab st dep code' = fst $ e' (lab+length code) st dep cs = case op of "" -> []; "|" -> [Or_] "&" -> [And_]; _ -> [Cmp op] 291 Übersetzung eines Blocks block :: ComStack -> ComStack block c lab st dep adr = (code',st,adr) where bodylab = lab+dep+3; dep' = dep+1 (code,_,local) = c bodylab st dep' dep' code' = Move TOP STP:pushDisplay BA dep++Move STP BA: bodylab: code++replicate (local-dep') Pop++Save BA: replicate dep' Pop pushDisplay :: Int -> SymAdr -> [StackCom] pushDisplay dep reg = foldr push [Push reg] [0..dep-1] where push i code = Push (Dex reg i):code javaStackP umschließt im Gegensatz zu javaStack bei der Zusammenfassung einer Kommandofolge cs zu einem Block den Code von cs mit zusätzlichen Zielcode: Move TOP STP Speichern des Stacktops im Register STP pushDisplay dep BA Kellern des Displays des umfassenden Blocks und dessen Adresse Move STP BA Der Inhalt von STP wird zur neuen Basisadresse code Zielcode für die Kommandofolge des Blocks replicate (local-dep') Pop Entkellern der lokalen Variablen des Blocks Save BA Speichern der alten Basisadresse in BA replicate dep' Pop Entkellern des Displays 292 Übersetzung einer Zuweisung assign :: String -> ExpStack -> ComStack assign x e lab st dep adr = (fst (e lab st dep)++[Save $ Dex ba adrx,Pop], st,adr) where (_,declDep,adrx) = st x ba = baseAdr declDep dep Zielcodeerläuterung: Zielcode für den Ausdruck e, der mit einem Befehl zur Kellerung des aktuellen Wertes von e schließt Save $ Dex ba adrx Speichern des aktuellen Wertes von e unter der Kelleradresse Dex ba adrx von x, die sich aus der Basisadresse ba von x und der in der Symboltabelle gespeicherten Relativadresse adrx von x ergibt Pop Entkellern des aktuellen Wertes von e code Übersetzung von Konditionalen und Schleifen cond :: ExpStack -> ComStack -> ComStack -> ComStack cond e c c' lab st dep adr = (code++Jump (Con $ exit+length code'):code', st2,adr2) where ((code,st1,adr1),exit) = fork e c 1 lab st dep adr (code',st2,adr2) = c' exit st1 dep adr1 293 loop :: ExpStack -> ComStack -> ComStack loop e c lab st dep adr = (code++[Jump $ Con lab],st',adr') where (code,st',adr') = fst $ fork e c 1 lab st dep adr fork :: ExpStack -> ComStack -> Int -> Int -> Symtab -> Int -> Int -> (([StackCom],Int,Symtab,Int),Int) fork e c n lab st dep adr = ((code++JumpF exit:code',st',adr'),exit) where code = fst $ e lab st dep lab' = lab+length code+1 (code',st',adr') = c lab' st dep adr exit = lab'+length code'+n Übersetzung eines Lesebefehls read_ :: String -> ComStack read_ x _ st dep adr = ([Read $ Dex ba adrx],st,adr) where (_,declDep,adrx) = st x ba = baseAdr declDep dep Zielcodeerläuterung: Read $ Dex ba adrx Speichern des ersten Elementes c des Ein/Ausgabestroms io unter der Adresse Dex ba adrx, die sich aus der Basisadresse ba des Kellerbereichs, in dem x deklariert wurde, und der in der Symboltabelle gespeicherten Relativadresse adrx von x ergibt. c wird aus io entfernt. 294 Übersetzung eines Schreibbefehls write_ :: ExpStack -> ComStack write_ e lab st dep adr = (fst (e lab st dep)++[Write,Pop],st,adr) Zielcodeerläuterung: Zielcode für den Ausdruck e, der mit einem Befehl zur Kellerung des aktuellen Wertes von e schließt Write Anhängen des Wertes von e an den Ein/Ausgabestrom io Pop Entkellern des aktuellen Wertes von e code Übersetzung der Deklaration einer nichtfunktionalen Variable vardecl :: String -> TypeDesc -> ComStack vardecl x td _ st dep adr = ([Push $ Con 0],update st x (td,dep,adr),adr+1) Reservierung eines Kellerplatzes für Werte von x Außerdem trägt vardecl den zum Typ von x gehörigen Typdeskriptor sowie dep (aktuelle Schachtelungstiefe) und adr (nächste freie Relativadresse) unter x in die Symboltabelle ein. 295 Übersetzung einer Funktions- oder Prozedurdeklaration fundecl :: String -> FormsStack -> TypeDesc -> ComStack -> ComStack fundecl f pars td body lab st dep adr = (code',st1,adr+1) where codelab = lab+2 st1 = update st f (Fun td codelab,dep,adr) dep' = dep+1 (parcode,st2,_) = pars st1 dep' $ -2 coms = foldl1 seq_ $ parcode++[body] bodylab = codelab+dep+2 (code,_,local) = coms bodylab st2 dep' dep' retlab = Dex TOP $ -1 exit = bodylab+length code+local+1 code' = Push (Con 0):Jump (Con exit): codelab: Move TOP BA:pushDisplay dep STP++ bodylab: code++replicate local Pop++[Jump retlab] exit: Zielcodeerläuterung: Push $ Con 0 Jump $ Con exit Reservierung eines Kellerplatzes für den Wert eines Aufrufs von f Sprung hinter den Zielcode Der Code zwischen codelab und exit wird erst bei der Ausführung des Zielcodes eines Aufrufs von f abgearbeitet (siehe applyFun): Move TOP BA Die nächste freie Kellerposition wird zur neuen Basisadresse. 296 Dieser Befehl hat die von fundecl berechnete Nummer codelab und wird angesprungen, wenn der Befehl Jump codelab des Zielcodes eines Aufrufs von f ausgeführt wird (siehe applyProc). pushDisplay dep STP Kellern des Displays des umfassenden Prozedurrumpfs und dessen Adresse parcode++[body] erweiterter Prozedurrumpf (siehe formals) replicate local Pop Entkellern der lokalen Variablen und des Displays des Aufrufs von f Jump retlab Sprung zur Rücksprungadresse, die bei der Ausführung des Zielcodes des Aufruf von f vor dem Sprung zur Adresse des Codes von f gekellert wurde, so dass sie am Ende von dessen Ausführung wieder oben im Keller steht Übersetzung formaler Parameter formals :: [Formal] -> FormsStack formals pars st dep adr = foldl f ([],st,adr) pars where f (cs,st,adr) (Par x td) = (cs,update st x (td,dep,adr'),adr') (1) where adr' = adr-1 f (cs,st,adr) (FunPar x@('@':g) pars td) = (cs++[c],st',adr') (2) where adr' = adr-3 st' = update st x (ForFun td,dep,adr') c = fundecl g (formals pars) td $ assign g $ applyFun x $ actuals $ map act pars act (Par x _) = var x act (FunPar (_:g) _ _) = var g 297 Formale Parameter einer Prozedur g sind Variablen mit negativen Relativadressen, weil ihre aktuellen Werte beim Aufruf von g direkt vor dem für den Aufruf reservierten Kellerabschnitt abgelegt werden. Eine Variable vom Typ INT (Fall 1) benötigt einen Kellerplatz für ihre aktuelle Basisadresse, eine Prozedurvariable (Fall 2) hingegen drei: • einen für die aktuelle Basisadresse, die hier die Anfangsadresse des dem aktuellen Prozeduraufruf zugeordneten Kellerabschnitt ist, • einen für die aktuelle Codeadresse und • einen für die aktuelle Resultatadresse, das ist die Position des Kellerplatzes mit dem Wert des aktuellen Prozeduraufrufs. Der Compiler formal (siehe Java2.hs) erkennt einen formalen Funktions- oder Prozedurparameter g an dessen Parameterliste pars und speichert diesen unter dem Namen @g. formals erzeugt den attributierten Code c der Funktionsdeklaration g(pars){g = @g(pars)} und übergibt ihn als Teil von parcode an die Deklaration des statischen Vorgängers von g (s.u.). Damit werden g feste Basis-, Code- und Resultatadressen zugeordnet, so dass nicht nur die Aufrufe von g, sondern auch die Zugriffe auf g als Variable korrekt übersetzt werden können. 298 Übersetzung von Variablenzugriffen var :: String -> ExpStack var x _ st dep = case td of Fun _ codelab -> ([Push ba,Push $ Con codelab, PushA $ Dex ba adr],td) _ -> ([Push $ Dex ba adr],td) where (td,declDep,adr) = st x ba = baseAdr declDep dep (1) (2) Zielcodeerläuterung: Im Fall (1) ist x ein aktueller Parameter eines Aufrufs e = g(e1 , . . . , en ) einer Prozedur g, d.h. es gibt 1 ≤ i ≤ n mit ei = x, und x ist selbst der Name einer Prozedur! Im Quellprogramm geht e eine Deklaration von g voran, deren i-ter formaler Parameter eine Prozedurvariable f ist. f wird bei der Ausführung des Codes für e durch x aktualisiert, indem die drei von (siehe formals) für f reservierten Kellerplätze mit den o.g. drei Wertkomponenten von x belegt werden (siehe parcode in applyFun). Beim Aufruf von x werden die drei Komponenten gekellert: Push ba Push $ Con codelab PushA $ Dex ba adr Kellern der Basisadresse ba von x Kellern der Codeadresse codelab von x Kellern der Resultatadresse Dex ba adr von x, die sich aus der Basisadresse ba von x und der von fundecl bzw. formals in die Symboltabelle eingetragenen Relativadresse adr für das Resultat von e ergibt 299 Im Fall (2) genügt ein Befehl: Push $ Dex ba adr Kellern des Wertes von x, der unter der Kelleradresse Dex ba adr steht, die sich aus der Basisadresse ba von x und der in der von vardecl bzw. formals in die Symboltabelle eingetragenen Relativadresse adr von x ergibt Übersetzung von Prozeduraufrufen applyFun :: String -> ActsStack -> ExpStack applyFun f acts lab st dep = case td of Fun td codelab -> (code ba (Con codelab) $ Dex ba adr, (1) td) ForFun td -> (code (Dex ba adr) (Dex ba $ adr+1) (2) $ Dex (Dex ba $ adr+2) 0, td) where (td,declDep,adr) = st f (parcode,parLg) = acts lab st dep retlab = lab+length parcode+4 ba = baseAdr declDep dep code ba codelab result = parcode++Push BA:Move ba STP: Push (Con retlab):Jump codelab: retlab: Pop:Save BA:Pop:replicate parLg Pop++ [Push result] 300 Zielcodeerläuterung: parcode Push BA Move ba STP Push $ Con retlab Jump codelab Zielcode für die Aufrufparameter Kellern der aktuellen Basisadresse Speichern der Basisadresse von f im Register STP Kellern der Rücksprungadresse retlab Sprung zur Codeadresse codelab von f, die von fundecl berechnet wurde An dieser Stelle wird bei der Ausführung des Zielcodes zunächst code(f ) abgearbeitet (siehe fundecl). Dann geht es weiter mit: Pop Save BA Pop replicate parLg Pop Push result Entkellern der Rücksprungadresse retlab Speichern der alten Basisadresse in BA Entkellern der alten Basisadresse Entkellern der Aufrufparameter Kellern des Aufrufwertes 301 Im Fall (1) geht dem Aufruf von f im Quellprogramm eine Deklaration von f voran, deren Übersetzung die Symboltabelle um Einträge für f erweitert hat, aus denen applyFun die Adressen bzw. Befehlsnummern ba, codelab und result berechnet und in obigen Zielcode einsetzt. Im Fall (2) ist f eine Prozedurvariable, d.h. im Quellprogramm kommt der Aufruf von f im Rumpf der Deklaration einer Prozedur g vor, die f als formalen Parameter enthält. Der Zielcode wird erst bei einem Aufruf von g ausgeführt, d.h. nachdem f durch eine Prozedur h aktualisiert und die von formals für f reservierten Kellerplätze belegt wurden. Der Zielcode des Aufrufs von f ist also in Wirklichkeit Zielcode für einen Aufruf von h. Dementsprechend sind ba die Anfangsadresse des dem Aufruf zugeordneten Kellerabschnitts und damit Dex ba adr, Dex ba $ adr+1 und Dex ba $ adr+2 die Positionen der Kellerplätze mit der Basisadresse, der Codeadresse bzw. der Resultatadresse von h. Folglich kommt applyFun durch Zugriff auf diese Plätze an die aktuellen Werte von ba, codelab und result heran und kann sie wie im Fall (1) in den Zielcode des Aufrufs einsetzen. Damit Push result analog zum Fall (1) nicht die Resultatadresse von h, sondern den dort abgelegten Wert kellert, muss sie vorher derefenziert werden. Deshalb wird result im Fall (2) auf Dex (Dex ba $ adr+2) 0 gesetzt. 302 Display d. statischen Vorgängers Basisadr. d. stat. Vorgängers STP Display d. statischen Vorgängers Display d. statischen Vorgängers BA Parameter Parameter Parameter Basisadr. d. dyn. Vorgängers Basisadr. d. dyn. Vorgängers Basisadr. d. dyn. Vorgängers Rücksprungadresse Rücksprungadresse Rücksprungadresse TOP TOP BA BA Display d. statischen Vorgängers Basisadr. d. stat. Vorgängers lokale Adressen TOP Kellerzustand beim Sprung zur Codeadresse Kellerzustand während der Ausführung des Funktionsrumpfes Kellerzustand beim Rücksprung Der Zielcode der Parameterliste acts setzt sich aus dem Zielcode der einzelnen Ausdrücke von acts zusammen, wobei acts von hinten nach vorn abgearbeitet wird, weil in dieser Reihenfolge Speicherplatz für die entsprechenden formalen Parameter reserviert wurde (siehe formals). 303 Den Aufruf einer Prozedur p ohne Rückgabewert (genauer gesagt: mit Rückgabewert vom Typ UNIT) betten wir in eine Zuweisung an p ein: applyProc :: String -> ActsStack -> ComStack applyProc f p = assign p . applyFun p Übersetzung aktueller Parameter actuals :: [ExpStack] -> ActsStack actuals pars lab st dep = foldr f ([],0) pars where f e (code,parLg) = (code++code',parLg+ case td of Fun _ _ -> 3 _ -> 1) where (code',td) = e (lab+length code) st dep In [27], Kapitel 5, wird auch die Übersetzung von Feldern und Records behandelt. Grundlagen der Kompilation funktionaler Sprachen liefert [27], Kapitel 7. Die Übersetzung objektorientierter Sprachen ist Thema von [44], Kapitel5. 304 Beispiel 13.4 (Vier JavaLight+-Programme für die Fakultätsfunktion aus Java2.hs) Int x; read x; Int fact; fact=1; while x>1 fact=x*fact; x=x-1; write fact; Int f(Int x) if x<2 f=1; else f=x*f(x-1); Int x; read x; write f(x); f(Int x,Int fact) if x<2 write fact; else f(x-1,fact*x) Int x; read x; f(x,1) Int f(Int x,Int g(Int x,Int y)) if x<2 f=1; else f=g(x,f(x-1,g)); Int g(Int x,Int y) g=x*y; Int x; read x; write f(x,g); javaToStack "prog" [n] übersetzt jedes der obigen Programme in eine Befehlsfolge vom Typ [StackCom], legt diese in der Datei javacode ab und transformiert die Eingabeliste [n] in die Ausgabeliste [n!]. Der Zielcode des vierten Programms lautet wie folgt: 0: Push (Con 0) 1: Jump (Con 68) 305 2: 3: 4: 5: 6: 7: 8: 9: 10: 11: 12: 13: 14: 15: 16: 17: 18: 19: 20: 21: 22: 23: 24: 25: 26: Move Push Push Jump Move Push Push Push Push Push Move Push Jump Pop Save Pop Pop Pop Push Save Pop Pop Pop Jump Push TOP BA STP (Con 0) (Con 26) TOP BA (Dex STP 0) STP (Dex BA (-4)) (Dex BA (-3)) BA (Dex (Dex BA 1) (-6)) (Con 15) (Dex (Dex BA 1) (-5)) begin f begin g y x STP BA (Dex (Dex (Dex BA 1) (-4)) 0) (Dex (Dex BA 1) 1) g=@g(x,y) (Dex TOP (-1)) (Dex BA (-3)) end g x 306 27: 28: 29: 30: 31: 32: 33: 34: 35: 36: 37: 38: 39: 40: 41: 42: 43: 44: 45: 46: 47: 48: 49: 50: 51: Push (Con 2) Cmp "<" JumpF 34 Push (Con 1) Save (Dex (Dex BA 0) 0) Pop Jump (Con 65) Push BA Push (Con 6) PushA (Dex BA 1) Push (Dex BA (-3)) Push (Con 1) Sub Push BA Move (Dex BA 0) STP Push (Con 44) Jump (Con 2) Pop Save BA Pop Pop Pop Pop Pop Push (Dex (Dex BA 0) 0) x<2 f=1 g g g x x-1 jump to f f(x-1,g) 307 52: 53: 54: 55: 56: 57: 58: 59: 60: 61: 62: 63: 64: 65: 66: 67: 68: 69: 70: 71: 72: 73: 74: 75: 76: Push Push Move Push Jump Pop Save Pop Pop Pop Push Save Pop Pop Pop Jump Push Jump Move Push Push Push Mul Save Pop (Dex BA (-3)) BA BA STP (Con 57) (Con 6) x jump to g BA (Dex BA 1) (Dex (Dex BA 0) 0) g(x,f(x-1,g)) f=g(x,f(x-1,g)) (Dex TOP (-1)) (Con 0) (Con 79) TOP BA STP (Dex BA (-3)) (Dex BA (-4)) end f (Dex (Dex BA 0) 1) begin g x y x*y g=x*y 308 77: 78: 79: 80: 81: 82: 83: 84: 85: 86: 87: 88: 89: 90: 91: 92: 93: 94: 95: 96: 97: 98: Pop Jump (Dex TOP (-1)) Push (Con 0) Read (Dex BA 2) Push BA Push (Con 70) PushA (Dex BA 1) Push (Dex BA 2) Push BA Move BA STP Push (Con 89) Jump (Con 2) Pop Save BA Pop Pop Pop Pop Pop Push (Dex BA 0) Write Pop end g read x g g g x jump to f f(x,g) write f(x,g) 309 14 Mehrpässige Compiler Sei G = (S, BS, R) eine CFG und A = (A, Op) eine Σ(G)-Algebra. Wir kommen zurück auf die in Kapitel 12 behandelte Form Av1 × . . . × Avm → Aa1 × . . . × Aan der Trägermengen von A und sehen uns das Schema der Definition einer Operation von A mal etwas genauer an. O.B.d.A. setzen wir für die allgemeine Betrachtung voraus, dass alle Trägermengen von A miteinander übereinstimmen. Sei c : s1 × . . . × sk → s ein Konstruktor von Σ(G). Das Schema einer Interpretation cA : Ak → A von c in A offenbar wie folgt: cA(f1, . . . , fk )(x1, . . . , xm) = (t1, . . . , tn) where (x11, . . . , x1n) = f1(t11, . . . , t1m) ... (1) (xk1, . . . , xkn) = fk (tk1, . . . , tkm) Hier sind f1, . . . , fk , x1, . . . , xm, xi1, . . . , x1n, . . . , xk1, . . . , xkn paarweise verschiedene Variablen und e1, . . . , en, xi1, . . . , t1m, . . . , tk1, . . . , tkm Σ(G)-Terme. 310 Ist s → w0s1w1 . . . sk wk die Grammatikregel, aus der c hervorgeht, dann wird (1) oft als Liste von Zuweisungen an die Attribute der Sorten s, s1, . . . , sk geschrieben: s.a1 := t1 . . . s.an := tn s1.v1 := t11 . . . s1.vm := t1m ... sk .v1 := tk1 . . . sk .vm := tkm cA ist genau dann wohldefiniert, wenn für alle f1, . . . , fk , x1, . . . , xm (1) eine Lösung in A hat, d.h., wenn es eine Belegung g der Variablen xi1, . . . , x1n, . . . , xk1, . . . , xkn in A gibt mit (g(xi1), . . . , g(xin)) = f1(g ∗(ti1), . . . , g ∗(tim)) für alle 1 ≤ i ≤ k. Hinreichend für die Lösbarkeit ist die Zyklenfreiheit der Benutzt-Relation zwischen den Termen und Variablen von (1). Enthält sie einen Zyklus, dann versucht man, die parallele Berechnung und Verwendung von Attributwerten in r hintereinander ausgeführte Schritte (“Pässe”) zu zerlegen, so dass in jedem Schritt zwar nur einige Attribute berechnet bzw. benutzt werden, die Komposition der Schritte jedoch eine äquivalente Definition von cA liefert. Notwendig wird die Zerlegung der Übersetzung zum Beispiel dann, wenn die Quellsprache Deklarationen von Variablen verlangt, diese aber im Text des Quellprogramms bereits vor ihrer Deklaration benutzt werden dürfen. 311 Zerlegt werden müssen die Menge At = {v1, . . . , vm, a1, . . . , an} aller Attribute in r Teilmengen At1, . . . , Atr sowie jedes (funktionale) Argument fi von cA, 1 ≤ i ≤ k, in r Teilfunktionen fi1, . . . , fir derart, dass die Benutzt-Relation in jedem Pass azyklisch ist. Um die Benutzt-Relation zu bestimmen, erweitern wir die Indizierung der äußeren Variablen bzw. Terme von (1) wie folgt: cA(f1, . . . , fk )(x01, . . . , x0m) = (t(k+1)1, . . . , t(k+1)n) where (x11, . . . , x1n) = f1(t11, . . . , t1m) ... (xk1, . . . , xkn) = fk (tk1, . . . , tkm) (2) Für jeden Konstruktor c und jedes Attributpaar (at, at0) ist der Abhängigkeitsgraph depgraph(c)(at, at0) ⊆ {0, . . . , k} × {1, . . . , k + 1} für c und (at, at0) wie folgt definiert: 312 ∃ 1 ≤ i ≤ m, 1 ≤ j ≤ n : at = vi ∧ at0= aj (at vererbt, at0 abgeleitet) {(0, k + 1)} falls x0i in t(k+1)j vorkommt, ⇒ depgraph(c)(at, at0) = ∅ sonst, ∃ 1 ≤ i, j ≤ m : at = vi ∧ at0 = vj (at und at0 vererbt) ⇒ depgraph(c)(at, at0) = {(0, s) | 0 ≤ s ≤ k, x0i kommt in tsj vor}, ∃ 1 ≤ i ≤ n, 1 ≤ j ≤ m : at = ai ∧ at0 = vj (at abgeleitet, at0 vererbt) ⇒ depgraph(c)(at, at0) = {(r, s) | 0 ≤ r, s ≤ k, xri kommt in tsj vor}, ∃ 1 ≤ i, j ≤ n : at = ai ∧ at0 = aj (at und at0 abgeleitet) ⇒ depgraph(c)(at, at0) = {(r, k + 1) | 0 ≤ r ≤ k, xri kommt in t(k+1)j vor}. (2) hat genau dann eine Lösung in A (die durch Auswertung der Terme von (2) berechnet werden kann), wenn • für alle Konstruktoren c von Σ(G), at, at0 ∈ At und (i, j) ∈ depgraph(c)(at, at0) i < j gilt. Ist diese Bedingung verletzt, dann wird At so in Teilmengen At1, . . . , Atr zerlegt, dass für alle at, at0 ∈ At entweder at in einem früheren Pass als at0 berechnet wird oder beide Attribute in demselben Pass berechnet werden und die Bedingung erfüllen. 313 Für alle 1 ≤ p, q ≤ r, at ∈ Atp und at0 ∈ Atq muss also Folgendes gelten: p < q ∨ (p = q ∧ ∀ (i, j) ∈ depgraph(c)(at, at0) : i < j). (3) Für alle 1 ≤ p ≤ r und 1 ≤ i ≤ k sei {vip1 , . . . , vipmp } = {v1, . . . , vm} ∩ Atp, {ajp1 , . . . , ajpnp } = {a1, . . . , an} ∩ Atp, πp : Av1 × . . . × Avm (x1, . . . , xm) πp0 : Aa1 × . . . × Aan (x1, . . . , xn) → 7→ → 7→ Avip1 × . . . × Avipmp (xip1 , . . . , xipmp ), Aajp1 × . . . × Aajpnp (xjp1 , . . . , xjpnp ) und fip : Avi1 × . . . × Avimp → Aaj1 × . . . × Aajnp die eindeutige Funktion, die das folgende Diagramm kommutativ macht: πp Av1 × . . . × Avm Avip1 × . . . × Avipmp fi fip g g πp0 Aa1 × . . . × Aan Aajp1 × . . . × Aajpnp 314 Die zu (2) äquivalente Definition von cA mit r Pässen lautet wie folgt: cA(f1, . . . , fk )(x01, . . . , x0m) = (t(k+1)1, . . . , t(k+1)n) where (x1j11 , . . . , x1j1n1 ) = f11(t1i11 , . . . , t1i1m1 ) ... Pass 1 (xkj11 , . . . , xkj1n1 ) = fk1(tki11 , . . . , tki1m1 ) ... ... (x1jr1 , . . . , x1jrnr ) = f1r (t1ir1 , . . . , t1irmr ) ... Pass r (xkjr1 , . . . , xkjrnr ) = fkr (tkir1 , . . . , tkirmr ) Der LAG-Algorithmus (Left-to-right-Attributed-Grammar) berechnet die kleinste Zerlegung von At, die (3) erfüllt, sofern eine solche existiert. Sei ats = At und constrs die Menge aller Konstruktoren von Σ(G). Ausgehend von der einelementigen Zerlegung [ats] verändert check partition die letzten beiden Elemente (curr und next) der jeweils aktuellen Zerlegung, bis entweder next leer und damit eine Zerlegung gefunden ist, die (3) erfüllt, oder curr leer ist, was bedeutet, dass keine solche Zerlegung existiert. 315 least_partition ats = reverse . check_partition [] [ats] check_partition next (curr:partition) = if changed then check_partition next' (curr':partition) else case (next',curr') of ([],_) -> curr':partition Zerlegung von ats, die (3) erfüllt (_,[]) -> [] Es gibt keine Zerlegung, die (3) erfüllt. _ -> check_partition [] (next':curr':partition) Die aktuelle Zerlegung wird um das Element nextfl erweitert. where (next',curr',changed) = foldl check_constr (next,curr,False) constrs check_constr state c = foldl (check_atpair deps) state [(at,at') | at <- ats, at' <- ats, not $ null $ deps (at,at')] where deps = depgraph c check_atpair deps state atpair = foldl (check_dep atpair) state $ deps atpair 316 check_dep (at,at') state@(next,curr,changed) (i,j) = if at' `elem` curr && ((at `elem` curr && i>=j) || at `elem` next) Die aktuelle Zerlegung next:curr:... verletzt (3). then (at':next,curr`minus`[at'],True) atfl wird vom vorletzten Zerlegungselement (curr) zum letzten (next) verschoben. else state 317 15 Funktoren und Monaden in Haskell Typen und Typvariablen höherer Ordnung Während bisher nur Typvariablen erster Ordnung vorkamen, sind Funktoren und Monaden Instanzen der Typklasse Functor bzw. Monad, die eine Typvariable zweiter Ordnung enthält. Typvariablen erster Ordnung werden durch Typen erster Ordnung instanziiert wie z.B. Int oder Bool. Typvariablen zweiter Ordnung werden durch Typen zweiter Ordnung instanziiert wie z.B. durch den folgenden: data Tree a = F a [Tree a] | V a Demnach ist ein Typ erster Ordnung eine Menge und ein Typ zweiter Ordnung eine Funktion von einer Menge von Mengen in eine – i.d.R. andere – Menge von Mengen: Tree bildet jede Menge A auf eine Menge von Bäumen ab, deren Knoteneinträge Elemente von A sind. Funktoren Die meisten der in Abschnitt 5.1 definierten Funktoren sind in Haskell stndardmäßig als Instanzen der Typklasse Functor implementiert: 318 class Functor f where fmap :: (a -> b) -> f a -> f b newtype Id a = Id {run :: a} Identitätsfunktor instance Functor Id where fmap h (Id a) = Id $ h a instance Functor [ ] where fmap = map data Maybe a = Just a | Nothing Listenfunktor Ausnahmefunktoren instance Functor Maybe where fmap f (Just a) = Just $ f a fmap _ _ = Nothing data Either e a = Left e | Right a instance Functor Either e where fmap f (Right a) = Right $ f a fmap _ e = e 319 instance Functor ((->) state) where fmap f h = f . h instance Functor ((,) state) where fmap f (st,a) = (st,f a) Leserfunktor Schreiberfunktor Transitionsfunktoren newtype Trans state a = T {runT :: state -> (a,state)} instance Functor (Trans state) where fmap f (T h) = T $ (\(a,st) -> (f a,st)) . h newtype TransM state m a = TM {runTM :: state -> m (a,state)} instance Monad m => Functor (TransM state m) where s.u. fmap f (TM h) = TM $ (>>= \(a,st) -> return (f a,st)) . h Anforderungen an die Instanzen der Typklasse Functor: Für alle Mengen a, b, c, f : a → b und g : b → c, fmap id fmap (f . g) = = id fmap f . fmap g 320 Monaden Monad ist eine Unterklasse von Functor: class Functor m return :: (>>=) :: (>>) :: fail :: m >> m' = => Monad m where a -> m a Einheit η m a -> (a -> m b) -> m b bind-Operatoren m a -> m b -> m b String -> m a Wert im Fall eines Matchfehlers m >>= const m' instance Monad Id where return = Id Id a >>= f = f a instance Monad [ ] where return a = [a] (>>=) = flip concatMap fail _ = [] instance Monad Maybe where return = Just Just a >>= f = f a e >>= _ = e fail _ = Nothing Identitätsmonade Listenmonade Ausnahmemonaden 321 instance Monad (Either e) where return = Right Right a >>= f = f a e >>= _ = e instance Monad ((->) state) where return = const Lesermonade (h >>= f) st = f (h st) st class Monoid a where mempty :: a; mappend :: a -> a -> a Schreibermonade instance Monoid state => Monad ((,) state) where return a = (mempty,a) (st,a) >>= f = (st `mappend` st',b) where (st',b) = f a instance Monad (Trans state) where Transitionsmonaden return a = T $ \st -> (a,st) T h >>= f = T $ (\(a,st) -> runT (f a) st) . h instance Monad m => Monad (TransM state m) where return a = TM $ \st -> return (a,st) TM h >>= f = TM $ (>>= \(a,st) -> runTM (f a) st) . h 322 Hier komponiert der bind-Operator >>= zwei Zustandstransformationen (h und dann f ) sequentiell. Dabei liefert die von der ersten erzeugte Ausgabe die Eingabe der zweiten. Trans(state) und TransM(state) werden auch Zustandsmonade bzw. (Zustands-)Monadentransformer genannt. Wir bevorzugen den Begriff Transitionsmonade, weil Zustände auch zu Leser- und Schreibermonaden gehören (s.o.), aber nur Transitionsmonaden aus Zustandstransformationen bestehen. Anforderungen an die Instanzen von Monad: Für alle m ∈ m(a), f : a → m(b) und g : b → m(c), (m >>= f) >>= g m >>= return (>>= f) . return m >>= f = = = = m >>= (>>= g . f) m f fmap f m >>= id (1) (2) (3) Anforderungen an die Instanzen von Monoid: (a `mappend` b) `mappend` c mempty `mappend` a a `mappend` mempty = = = a `mappend` (b `mappend` c) a a 323 Plusmonaden MonadPlus ist eine Unterklasse von Monad: class Monad m => MonadPlus m where mzero :: m a mplus :: m a -> m a -> m a scheiternde Berechnung parallele Komposition instance MonadPlus Maybe where mzero = Nothing Nothing `mplus` m = m m `mplus` _ = m instance MonadPlus [ ] where mzero = []; mplus = (++) instance MonadPlus m => MonadPlus (TransM state m) where mzero = TM $ const mzero TM g `mplus` TM h = TM $ liftM2 mplus g h s.u. Anforderungen an die Instanzen von MonadPlus: mzero >>= f m >>= const mzero mzero `mplus` m = = = mzero mzero m (4) (5) 324 m `mplus` mzero = m Wir werden im folgenden Kapitel anstelle von MonadPlus eine auf die Implementierung von Compilern zugeschnittene Unterklasse von Monad einführen, die Bedingungen nicht nur an die Menge state der Zustände (die dort den möglichen Compiler-Eingaben entsprechen), sondern auch an die eingebettete Monade m stellt. Monaden-Kombinatoren sequence :: Monad m => [m a] -> m [a] sequence (m:ms) = do a <- m; as <- sequence ms; return $ a:as sequence _ = return [] sequence(ms) führt die Prozeduren der Liste ms hintereinander aus. Wie bei some(m) und many(m) werden die dabei erzeugten Ausgaben aufgesammelt. Die do-Notation für monadische Ausdrücke wurde in Kapitel 6 eingeführt. sequence_ :: Monad m => [m a] -> m () sequence_ = foldr (>>) $ return () sequence (ms) arbeitet wie sequence(ms), vergisst aber die erzeugten Ausgaben. 325 Die folgenden Funktionen führen die Elemente mit map bzw. zipWith erzeugter Prozedurlisten hintereinander aus: mapM :: Monad m => (a -> m b) -> [a] -> m [b] mapM f = sequence . map f mapM_ :: Monad m => (a -> m b) -> [a] -> m () mapM_ f = sequence_ . map f liftM2 liftet eine zweistellige Funktion f : A → (B → C) zu einer Funktion des Typs M (A) → (M (B) → M (C)): liftM2 :: Monad m => (a -> b -> c) -> m a -> m b -> m c liftM2 f ma mb = do a <- ma; b <- mb; return $ f a b liftM2 gehört zum ghc-Modul Control.Monad. 326 16 Monadische Compiler Trans state a state -> (a,state) state = internal system states total functions IO a TransM state m a state -> m (a,state) m = [ ] m = Maybe partial functions nondeterministic functions Monad m compilers returning a target object or an error message compilers returning a list of target objects Compiler input m input = (Pos,String) m = Either String input = String m = [ ] TransM input m a input -> m (a,input) 327 Sei G = (S, BS, R) eine CFG, X = S BS und M eine Compilermonade (siehe Kapitel 5). Ein generischer Compiler ∗ compileG = (compileA G : X → M (A))A∈AlgΣ(G) , genauer gesagt: die von compileG verwendeten Transitionsfunktionen ∗ ∗ transA s : X → M (As × X ), s ∈ S ∪ BS, A ∈ AlgΣ(G), ließen sich als Transitionsmonaden vom Typ TransM(String)(M) implementieren. Oft erfordern die Übersetzung oder auch die Ausgabe differenzierter Fehlermeldungen zusätzliche Informationen über die Eingabe wie z.B. Zeilen- und Spaltenpositionen von Zeichen des Eingabetextes, um Syntaxfehler den Textstellen, an denen sie auftreten können, zuzuordnen. Den Eingabetyp auf String zu beschränken ist dann nicht mehr adäquat. Deshalb ersetzen wir String durch die Typvariable input und fassen die erforderlichen, input bzw. die Compilermonade M betreffenden Grundfunktionen in folgender Unterklasse von Monad zusammen. Die Compiler selbst werden dann als Objekte vom Typ TransM(input)(M) implementiert. class Monad m => Compiler input m | input -> m, m -> input where errmsg :: input -> m a empty :: input -> Bool 328 ht plus :: input -> m (Char, input) (erstes Eingabezeichen, Resteingabe) :: m a -> m a -> m a errmsg behandelt fehlerhafte Eingaben. empty prüft, ob die Eingabe leer ist. Wenn nicht, dann liefert ht das erste Zeichen der Eingabe und die Resteingabe. Kommen im Typ einer Funktion einer Typklasse nicht alle Typvariablen der Klasse vor, dann müssen die fehlenden von den vorkommenden abhängig gemacht werden. So sind z.B. in der Typklasse Compiler die Abhängigkeiten input → m und m → input der Funktion empty bzw. plus geschuldet. Die Menge der im Programm definierten Instanzen einer Typklasse muss deren funktionale Abhängigkeiten tatsächlich erfüllen. Zwei Instanzen von Compiler mit derselben inputInstanz müssen also auch dieselbe m-Instanz haben. Zwei Instanzen der Typklasse Compiler Für mehrere korrekte Ausgaben, aber nur eine mögliche Fehlermeldung: instance Compiler String [ ] where errmsg _ = [] empty = null 329 ht (c:str) = [(c,str)] plus = (++) Für höchstens eine korrekte Ausgabe, aber mehrere mögliche Fehlermeldungen: type Pos = (Int,Int) instance Compiler (Pos,String) (Either String) where errmsg (pos,_) = Left $ "error at position "++show pos empty = null . snd ht ((i,j),c:str) = Right (c,(pos,str)) where pos = if c == '\n' then (i+1,1) else (i,j+1) Left _ `plus` m = m m `plus` _ = m Hier sind die Eingaben vom Typ (Pos,String). Am Argument ((i,j),c:str) von ht erkennt man, dass, bezogen auf die gesamte Eingabe, c in der i-ten Zeile und j-ten Spalte steht. Folglich ist pos im Wert Right (c,(pos,str)) von ht((i,j),c:str) die Anfangsposition des Reststrings str. Scheitert ein Compiler dieses Typs, dann ruft er errmsg mit der Eingabeposition auf, an der er den Fehler erkannt hat, der ihn scheitern ließ. 330 16.1 Compilerkombinatoren runC :: Compiler input m => TransM input m a -> input -> m a runC comp input = do (a,input) <- runTM comp input if empty input then return a else errmsg input runC(comp)(input) führt den Compiler comp auf der Eingabe input aus und scheitert, falls comp eine nichtleere Resteingabe zurücklässt. cplus :: Compiler input m => TransM input m a -> TransM input m a -> TransM input m a TM f `cplus` TM g = TM $ liftM2 plus f g csum :: Compiler input m => [TransM input m a] -> TransM input m a csum = foldr1 cplus some, many :: Compiler input m => TransM input m a -> TransM input m [a] some comp = do a <- comp; as <- many comp; return $ a:as many comp = csum [some comp, return []] some(comp) und many(comp) wenden den Compiler comp auf die Eingabe an. Akzeptiert 331 comp ein Präfix der Eingabe, dann wird comp auf die Resteingabe angewendet und dieser Vorgang wiederholt, bis comp scheitert. Die Ausgabe beider Compiler ist die Liste der Ausgaben der einzelnen Iterationen von comp. some(comp) scheitert, wenn bereits die erste Iteration von comp scheitert. many(comp) scheitert in diesem Fall nicht, sondern liefert die leere Liste von Ausgaben. cguard :: Compiler input m => Bool -> TransM input m () cguard b = if b then return () else TM errmsg Sind (1), (4) und (5) erfüllt, dann gelten die folgenden semantischen Äquivalenzen: do cguard True; m1; ...; mn ist äquivalent zu do cguard False; m1; ...; mn ist äquivalent zu do m1; ...; mn mzero Lifting von (:) : a → [a] → [a] auf Compilerebene append :: Compiler input m => TransM input m a -> TransM input m [a] -> TransM input m [a] append = liftM2 (:) 332 16.2 Monadische Scanner Scanner sind Compiler, die einzelne Symbole erkennen. Der folgende Scanner sat(f ) erwartet, dass das Zeichen am Anfang des Eingabestrings die Bedingung f erfüllt: sat :: Compiler input m => (Char -> Bool) -> TransM input m Char sat f = TM $ \input -> do p@(c,_) <- if empty input then errmsg input else ht input if f c then return p else errmsg input Compiler input m => Char -> TransM input m Char char chr = sat (== chr) nchar :: Compiler input m => String -> TransM input m Char nchar chrs = sat (`notElem` chrs) Darauf aufbauend, erwarten die folgenden Scanner eine Ziffer, einen Buchstaben bzw. einen Begrenzer am Anfang des Eingabestrings: digit,letter,delim :: Compiler input m => TransM input m Char digit = csum $ map char ['0'..'9'] letter = csum $ map char $ ['a'..'z']++['A'..'Z'] delim = csum $ map char " \n\t" 333 Der folgende Scanner string(str) erwartet den String str am Anfang des Eingabestrings: string :: Compiler input m => String -> TransM input m String string = mapM char Die folgenden Scanner erkennen Elemente von Standardtypen und übersetzen sie in entsprechende Haskell-Typen: bool :: Compiler input m => TransM input m Bool bool = csum [do string "True"; return True, do string "False"; return False] nat,int :: Compiler input m => TransM input m Int nat = do ds <- some digit; return $ read ds int = csum [nat, do char '-'; n <- nat; return $ -n] identifier :: Compiler input m => TransM input m String identifier = append letter $ many $ nchar "(){}<>=!&|+-*/^.,:; \n\t" relation :: Compiler input m => TransM input m String relation = csum $ map string $ words "<= >= < > == !=" 334 Die Kommas trennen die Elemente der Argumentliste von csum. token(comp) erlaubt vor und hinter dem von comp erkannten String Leerzeichen, Zeilenumbrüche oder Tabulatoren: token :: Compiler a -> Compiler a token comp = do many delim; a <- comp; many delim; return a tchar tstring tbool tint tidentifier trelation = = = = = = token token token token token token . char . string bool int identifier relation 16.3 Monadische LL-Compiler Sei G = (S, BS, R) eine nicht-linksrekursive CFG. Wir setzen voraus, dass S eine ausgezeichnete Sorte start enthält, und implementieren die Übersetzungsfunktionen ∗ compileA G : X → M (A), A ∈ AlgΣ(G), und ihre Hilfsfunktionen (siehe Kapitel 6) wie folgt: Sei S = {s1, . . . , sk }. 335 compile_G :: Compiler input m => Alg s1...sk -> input -> m start compile_G = runC . trans_start Für alle B ∈ BS ∪ Z sei trans_B :: Compiler input m => TransM input m B gegeben. Seien s ∈ S und r1, . . . , rm die Regeln von R mit linker Seite s. trans_s :: Compiler input m => TransM input m s trans_s alg = csum [try_r1,...,try_rm] where ... try_ri = do a1 <- trans_e1; ...; an <- trans_en return $ f_ri alg a_i1 ... a_ik ... wobei ri = (s → e1 . . . en) und {i1, . . . , ik } = {1 ≤ i ≤ n | ei ∈ S ∪ BS}. Beispiel Aus der abstrakten Syntax der Grammatik SAB von Beispiel 4.5 ergibt sich die folgende Haskell-Implementierung der Klasse aller Σ(SAB)-Algebren: 336 data SAB s a b = SAB {f_1 :: b -> s, f_2 :: a -> s, f_3 :: s, f_4 :: s -> a, f_5 :: a -> a -> a, f_6 :: s -> b, f_7 :: b -> b -> b,} Nach obigem Schema liefern die Regeln r1 = S → aB, r2 = S → bA, r3 = S → , r4 = A → aS r5 = A → bAA, r6 = B → bS, r7 = B → aBB von SAB die folgende Haskell-Version des generischen SAB-Compilers von Beispiel 6.1: compS :: Compiler input m => SAB s a b -> TransM input m s compS alg = csum [do char 'a'; c <- compB alg; return $ f_1 alg c, do char 'b'; c <- compA alg; return $ f_2 alg c, return $ f_3 alg] compA :: Compiler input m => SAB s a b -> TransM input m a compA alg = csum [do char 'a'; c <- compS alg; return $ f_4 alg c, do char 'b'; c <- compA alg; d <- compA alg; return $ f_5 alg c d] compB :: Compiler input m => SAB s a b -> TransM input m b compB alg = csum [do char 'b'; c <- compS alg; return $ f_6 alg c, do char 'a'; c <- compB alg; d <- compB alg; return $ f_7 alg c d] 337 In Compiler.hs steht dieser Compiler zusammen mit der Zielalgebra SABcount von Beispiel 4.5. Für m = Maybe und alle w ∈ {a, b}∗ und i, j ∈ N gilt compileSAB (SABcount)(w) = Just(i, j) genau dann, wenn i und j die Anzahl der Vorkommen von a bzw. b in w ist. o 16.4 Generischer JavaLight-Compiler (siehe Java.hs) compJava :: Compiler input m => JavaLight s1 s2 s3 s4 s5 s6 s7 s8 s9 s10 -> TransM input m s1 compJava alg = commands where commands = do c <- command csum [do cs <- commands; return $ seq_ alg c cs, return $ embed alg c] command = csum [do tstring "if"; e <- disjunctC; c <- command csum [do tstring "else"; c' <- command return $ cond alg e c c', return $ cond1 alg e c], do tstring "while"; e <- disjunctC; c <- command return $ loop alg e c, do tchar '{'; cs <- commandsC; tchar '}' return $ block alg cs, do x <- tidentifier; tchar '='; e <- sumC tchar ';'; return $ assign alg x e] 338 sumC = do e <- prodC; f <- sumsectC; return $ sum_ alg e f sumsectC = csum [do op <- csum $ map tstring ["+","-"] e <- prodC; f <- sumsectC return $ sumsect alg op e f, return $ nilS alg] prodC = do e <- factor; f <- prodsectC; return $ prod alg e f prodsectC = csum [do op <- csum $ map tstring ["*","/"] e <- factor; f <- prodsectC return $ prodsect alg op e f, return $ nilP alg] factor = csum [do i <- tint; return $ embedI alg i, do x <- tidentifier; return $ var alg x, do tchar '('; e <- sumC; tchar ')' return $ encloseS alg e] disjunctC = do e <- conjunctC csum [do tstring "||"; e' <- disjunctC return $ disjunct alg e e', return $ embedC alg e] conjunctC = do e <- literal csum [do tstring "&&"; e' <- conjunctC return $ conjunct alg e e', return $ embedL alg e] literal = csum [do b <- tbool; return $ embedB alg b, do tchar '!'; e <- literal; return $ not_ alg e, do e <- sumC; rel <- trelation; e' <- sumC 339 return $ atom alg e rel e', do tchar '('; e <- disjunctC; tchar ')' return $ encloseD alg e] Der ensprechende Compiler für JavaLight+ (siehe Kapitel 13) steht hier. 16.5 Korrektheit des JavaLight-Compilers Sei Store = String → Z, comS = {Commands, Command }, expS = {Sum, Prod , Factor }, bexpS = {Disjunct, Conjunct, Literal }, sectS = {Sumsect, Prodsect}, Sem = javaState (siehe Abschnitt 11.5), A = javaStack (siehe Abschnitt 12.5). Dann gilt für alle Sorten s von JavaLight: Store (→ Store falls s ∈ comS , Store → Z falls s ∈ expS , Sem s = Store → 2 falls s ∈ bexpS , Store → (Z → Z) falls s ∈ sectS , 340 As = Z → StackCom ∗. Sei Mach s = (Z∗ × Store) (→ (Z∗ × Store). Die Funktionen evaluate : A → Mach und encode : Sem → Mach des Interpreterdiagramms (1) am Anfang von Kapitel 5 sind im Fall Σ = JavaLight wie folgt definiert: Für alle f ∈ Sem s, g ∈ As, stack ∈ Z∗ und store ∈ Store, (stack, g(store)) falls s ∈ comS und g(store) definiert ist, (g(store) : stack, store) falls s ∈ expS ∪ bexpS und g(store) definiert ist, encodes(g)(stack, store) = (g(store)(head(stack)) : tail(stack), store) falls s ∈ sectS , stack 6= und g(store) definiert ist, undefiniert sonst, evaluates(f )(stack, store) = hπ1, π2i(execute(f (0))(stack, store, 0)) (siehe Abschnitt 12.5). S Sei (S, BS, R) = JavaLight, X = BS und M eine Compilermonade (siehe Kapitel 5). Da compJava ein generischer Compiler für JavaLight ist, kommutiert (1) am Anfang von Kapitel 5 genau dann, wenn das folgende Diagramm kommutiert: 341 X∗ compJava(Sem) g M (Sem) compJava(A) (2) M (encode) M (A) M (evaluate) g M (Mach) (siehe Diagramm (13) in Kapitel 5). (2) beschreibt vor allem folgende Zusammenhänge zwischen compJava(A) und dem Interpreter evaluate der Zielsprache A: • Sei com ein JavaLight-Programm einer Sorte von comS . Wird com von compJava(A) in die Befehlsfolge cs übersetzt und beginnt die Ausführung von cs im Zustand state, dann endet sie in einem Zustand, dessen Speicherkomponente mit der Speicherkomponente von encode(compJava(Sem)(com))(state) übereinstimmt. • Sei exp ein JavaLight-Programm einer Sorte von expS ∪ bexpS . Wird exp von compJava(A) in die Befehlsliste cs übersetzt und beginnt die Ausführung von cs im Zustand state, dann endet sie in einem Zustand, dessen oberstes Kellerelement mit dem obersten Kellerelement von encode(compJava(Sem)(exp))(state) übereinstimmt. 342 Wie in Kapitel 5 erwähnt wurde, kommutiert (1) am Anfang von Kapitel 5 und damit auch das obige Diagramm (2), wenn Mach eine JavaLight-Algebra ist und die mehrsortigen Funktionen encode und evaluate JavaLight-homomorph sind. Um das beweisen zu können, fehlt uns neben der Interpretation des Σ(JavaLight)-Konstruktors loop in A (siehe 11.5) auch die aller Konstruktoren von Σ(JavaLight) in Mach. Wir werden darauf im Abschnitt 19.1 bzw. 19.2 zurückkommen. Eine Testumgebung für Übersetzungen des JavaLight-Compilers in die in den Kapiteln 11 und 12 definierten JavaLight-Algebren liefert die Funktion javaToAlg(file) von Java.hs, die ein Quellprogramm vom Typ commands aus der Datei file und in die jeweilige Zielalgebra überführt. javaToAlg(file)(5) und javaToAlg(file)(6) starten nach jeder Übersetzung eine Schleife, die in jeder Iteration eine Variablenbelegung einliest und die sich aus dem jeweiligen Zielcode entsprechenden Zustandstransformation darauf anwendet. Eine Testumgebung für Übersetzungen des JavaLight-Compilers in die im Abschnitt 13.3 definierte JavaLight+-Algebra javaStackP liefert die Funktion javaToStack(file) von Java2.hs, die ein Quellprogramm vom Typ commands aus der Datei file und nach javaStackP überführt. 343 16.6 Generischer XMLstore-Compiler (siehe Compiler.hs) compXML :: Compiler input m => XMLstore s1 s2 s3 s4 s5 s6 s7 s8 s9 -> TransM input m s1 compXML alg = storeC where storeC = do tstring "<store>" csum [do stck <- stock'; return $ store alg stck, do ords <- ordersC; stck <- stock' return $ storeO alg ords stck] stock' = do tstring "<stock>"; stck <- stockC tstring "</stock>"; tstring "</store>"; return stck ordersC = do (p,is) <- order csum [do os <- ordersC return $ orders alg p is os, return $ embedO alg p is] order = do tstring "<order>"; tstring "<customer>" p <- personC; tstring "</customer>" is <- itemsC; tstring "</order>"; return (p,is) personC = do tstring "<name>"; name <- text; tstring "</name>" csum [do ems <- emailsC return $ personE alg name ems, return $ person alg name] emailsC = csum [do em <- emailC; ems <- emailsC return $ emails alg em ems, return $ none alg] 344 emailC = do tstring "<email>"; em <- text; tstring "</email>" return $ email alg em itemsC = do (id,price) <- item csum [do is <- itemsC; return $ items alg id price is, return $ embedI alg id price] item = do tstring "<item>"; id <- idC; tstring "<price>" price <- text; tstring "</price>" tstring "</item>"; return (id,price) stockC = do (id,qty,supps) <- iqs csum [do is <- stockC return $ stock alg id qty supps is, return $ embedS alg id qty supps] iqs = do tstring "<item>"; id <- idC; tstring "<quantity>" qty <- tint; tstring "</quantity>" supps <- suppliers; tstring "</item>" return (id,qty,supps) suppliers = csum [do tstring "<supplier>"; p <- personC tstring "</supplier>"; return $ supplier alg p, do stck <- stockC; return $ parts alg stck] idC = do tstring "<id>"; t <- text; tstring "</id>" return $ id_ alg t text :: Compiler input m => TransM input m String text = do strs <- some $ token $ some $ nchar "< \n\t" return $ unwords strs 345 17 Induktion, Coinduktion und rekursive Gleichungen Induktion Sei CΣ = (S, I, C) eine konstruktive Signatur. Die zentrale Methode zum Beweis von Eigenschaften der initialen CΣ-Algebra - unabhängig von deren konkreter Repräsentation – ist die Induktion. Ihre Korrektheit (soundness) folgt aus Satz 3.2 (3): Sei A eine initiale CΣ-Algebra. A ist die einzige CΣ-Unteralgebra von A. (1) Sei ϕ eine prädikatenlogische Formel, die eine Eigenschaft der Elemente von A beschreibt, und B = {a ∈ A | a erfüllt ϕ}. Die Frage, ob ϕ für alle Elemente von A gilt, reduziert sich wegen (1) auf die Frage, ob B eine Σ-Unteralgebra von A ist, ob also für alle c : e → s ∈ C cA(Be) ⊆ Bs gilt. (2) Induktion heißt demnach: die Gültigkeit von ∀ x : ϕ(x) in TCΣ aus einem Beweis von (2) schließen. Induktion erlaubt es u.a., die Korrektheit als Gleichungen formulierter rekursiver Programme zu beweisen, indem man zeigt, dass deren gewünschte Semantik die Gleichungen löst: 346 Rekursive Ψ-Gleichungssysteme Sei CΣ = (S, BS, BF, C) eine konstruktive, DΣ = (S, BS 0, BF 0, D) eine destruktive Signatur und Σ = CΣ ∪ DΣ. Dann nennen wir Ψ = (CΣ, DΣ) eine Bisignatur. Eine Menge E = {dc(x1, . . . , xnc ) = td,c | c : e1 × · · · × enc → s ∈ C, d : s → e ∈ D} von Σ-Gleichungen (siehe Kapitel 3) mit folgenden Eigenschaften heißt rekursives ΨGleichungssystem: • Für alle d ∈ D und c ∈ C, free(td,c) ⊆ {x1, . . . , xnc }. • C ist die Vereinigung disjunkter Mengen C1 und C2. • Für alle d ∈ D, c ∈ C1 und Teilterme du von td,c ist u eine Variable und td,c ein Term ohne Elemente von C2. • Für alle d ∈ D, c ∈ C2, Teilterme du und Pfade p (der Baumdarstellung) von td,c besteht u aus Destruktoren und einer Variable und kommt auf p höchstens einmal ein Element von C2 vor. 347 Induktive Lösungen Sei Σ0 eine Teilsignatur einer Signatur Σ und A eine Σ-Algebra. Die in A enthaltene Σ0Algebra heißt Σ0-Redukt von A und wird mit A|Σ0 bezeichnet. Sei E ein rekursives Ψ-Gleichungssystem und A eine CΣ-Algebra. Eine induktive Lösung von E in A ist eine Σ-Algebra, deren CΣ-Redukt mit A übereinstimmt und die E erfüllt. Lambeks Lemma Sei s ∈ S. (1) Sei {c1 : e1 → s, . . . , cn : en → s} = {c : e → s0 ∈ C | s0 = s}. Die Extension A [cA 1 , . . . , cn ] ist bijektiv. Es gibt also eine Funktion dA s : As → Ae1 + · · · + Aen A A A A A mit [cA 1 , . . . , cn ] ◦ ds = idAs und ds ◦ [c1 , . . . , cn ] = idAe1 +···+Aen . (2) Sei {d1 : s1 → e1, . . . , d1 : sn → en} = {d : s0 → e ∈ C | s0 = s}. Die Extension A hdA 1 , . . . , dn i ist bijektiv. Es gibt also eine Funktion cA s : Ae1 × . . . × Aen → As A A A A A mit cA s ◦ hd1 , . . . , dn i = idAs und hd1 , . . . , dn i ◦ cs = idAe1 ×...×Aen . o 348 Satz 17.1 Sei C2 leer und A eine initiale CΣ-Algebra. Dann hat E genau eine induktive Lösung in A. Beweis. Zunächst wird die Existenz einer induktiven Lösung von E in A durch Induktion bewiesen. Wir zeigen, dass B mit Bs = {a ∈ As | für alle d : s → e ∈ D ist dA(a) definiert}, s ∈ S, eine Unteralgebra von A ist. Sei also a ∈ As. Wegen Lambeks Lemma (1) gibt es 1 ≤ i ≤ n und b ∈ Aei mit dA s (a) = (b, i) und cA i (b) = a. Sei d : s → e0 ∈ D und b = (a1, . . . , anci ) ∈ Bei , d.h. für alle 1 ≤ j ≤ nci ist dA(aj ) definiert. Dann ist auch a0 = val[a1/x1, . . . , anci /xnci ]∗(td,ci ) definiert, wobei val eine beliebige Variablenbelegung ist. Um dA an der Stelle a durch a0 zu definieren, bleibt zu zeigen, dass die Darstellung von a als Applikation cA i (b) eines Konstruktors eindeutig ist. 0 Sei 1 ≤ j ≤ n und b0 ∈ Aej mit a = cA j (b ). Dann ist (4) A A 0 A A A 0 0 0 (b, i) = dA s (a) = ds (cj (b )) = ds ([c1 , . . . , cn ](b , j)) = (idAe1 +···+Aen )(b , j) = (b , j), also b = b0 und ci = cj . 0 A Folglich liefert dA(cA i (b)) = a eine eindeutige Definition von d an der Stelle a. Damit gilt 349 (2) und wir schließen aus (1), dass dA(a) für alle a ∈ As (eindeutig) definiert ist. Auch die Eindeutigkeit der induktiven Lösung von E in A lässt sich durch Induktion zeigen: Seien A1, A2 zwei Lösungen von E in A. Wir zeigen, dass B mit Bs = {a ∈ As | für alle d : s → e ∈ D, dA1 (a) = dA2 (a)} eine Unteralgebra von A ist. Sei c : e → s ∈ C, d : s → e0 ∈ D und a = (a1, . . . , anc ) ∈ Be, d.h. für alle 1 ≤ i ≤ nc ist dA1 (ai) = dA2 (ai). Daraus folgt für val1 : V → A1 und val2 : V → A2 mit val1(xi) = val2(xi) = ai: dA1 (cA(a)) A1 löst E = val1∗(td,c) = val2∗(td,c) A2 löst E = dA2 (cA(a)). Damit gilt (2) und wir schließen aus (1), dass dA1 mit dA2 übereinstimmt. o Beispiel 17.2 (CΣ = Nat; siehe 2.9) Seien DΣ = ({nat}, ∅, ∅, {plus : nat → natnat, sum : nat → nat}), 350 Ψ = (Nat, DΣ) und x, y Variablen. Dann bilden die Gleichungen plus(zero) = λx.x, plus(succ(x)) = λy.succ(plus(x)(y)), sum(zero) = zero, sum(succ(x)) = plus(sum(x))(succ(x)) ein rekursives Ψ-Gleichungssystem E, das in der initialen Nat-Algebra Ini mit Ini nat = N, zeroIni = 0 und succIni = λn.n + 1 die induktive Lösung A hat mit plusA = λm.λn.m + n und sumA = λn.n ∗ (n + 1)/2. Nach Satz 17.1 ist A die einzige induktive Lösung von E in Ini. o Beispiel 17.3 (CΣ = List(X); siehe 2.9) Seien X eine Menge mit Halbordnung ≤: X × X → 2, DΣ = ({list}, {X, 2}, {≤: X × X → 2, ∗ : 2 × 2 → 2}, {sorted : list → 2, sorted0 : list → 2X }), Ψ = (List(X), DΣ) und x, y, s Variablen. Dann bilden die Gleichungen sorted(nil) sorted(cons(x, s)) sorted0(nil) sorted0(cons(x, s)) = = = = 1, sorted0(s)(x), λx.1, λy.(y ≤ x) ∗ sorted0(s)(x) 351 ein rekursives Ψ-Gleichungssystem E, das in der initialen List(X)-Algebra Ini mit Ini list = X ∗, nilIni = , und consIni = λ(x, w).xw die induktive Lösung A hat mit sortedA(w) = 1 ⇔ w ist bzgl. ≤ sortiert, sorted0A(w)(x) = 1 ⇔ xw ist bzgl. ≤ sortiert. o Nach Satz 17.1 ist A die einzige induktive Lösung von E in Ini. Beispiel 17.4 (CΣ = Reg(BS); siehe 2.9 und 2.10) Sei X = S CS, DΣ = ({reg}, {2, X}, {max, ∗ : 2 × 2 → 2} ∪ { ∈ C : X → 2 | C ∈ CS}, {δ : reg → reg X , β : reg → 2}) und Ψ = (Reg(BS), DΣ). Dann bildet die Menge BRE der Brzozowski-Gleichungen von Abschnitt 3.11 ein rekursives Ψ-Gleichungssystem, das in der initialen Reg(BS)-Algebra TReg(BS) die in Abschnitt 2.7 durch Bro(BS) definierte induktive Lösung A hat. Nach Satz 17.1 ist A die einzige induktive Lösung von BRE in TReg(BS). o Weitere Induktionsverfahren, mit denen Eigenschaften kleinster Relationen bewiesen werden und die daher nicht nur in initialen Modellen anwendbar sind, werden in meinen LVs über Logisch-Algebraischen Systementwurf behandelt. 352 Coinduktion Sei DΣ = (S, I, D) eine destruktive Signatur. Die zentrale Methode zum Beweis von Eigenschaften der finalen DΣ-Algebra - unabhängig von deren konkreter Repräsentation – ist die Coinduktion. Ihre Korrektheit folgt aus Satz 3.4 (3): Sei A eine finale DΣ-Algebra. Die Diagonale von A ist die einzige DΣ-Kongruenz auf A. (1) Sei E eine Menge von Σ-Gleichungen und A zu einer Σ-Algebra erweiterbar. Wegen (1) gilt E in A, wenn RE = {(g ∗(t), g ∗(u)) ∈ A2 | t = u ∈ E, g : V → A} in einer DΣ-Kongruenz R enthalten ist (siehe Termäquivalenz und Normalformen). Coinduktion heißt demnach: die Gültigkeit von E in A aus der Existenz einer DΣKongruenz schließen, die RE enthält. Beispiel 17.5 Die finale Stream(X)-Algebra A = StreamFun(X ) = (X N, Op) interpretiert die Destruktoren von Stream(X) (siehe 2.10) bzw. die Konstruktoren evens : list → list und 353 zip : list × list → list wie folgt: Für alle f : N → X und n ∈ N, headA(f ) tailA(f ) = f (0), = λn.f (n + 1), f (2n) falls n gerade ist, evensA(f )(n) = f (2n + 1) sonst, zipA(f, g)(n) = f (n/2) falls n gerade ist, g(n/2 + 1) sonst. Fin erfüllt die Gleichungen head(evens(s)) tail(evens(s)) head(zip(s, s0)) tail(zip(s, s0)) = = = = head(s) evens(tail(tail(s))) head(s) zip(s0, tail(s)) (1) (2) (3) (4) mit s, s0 ∈ Vlist. Die Gültigkeit der Gleichung evens(zip(s, s0)) = s (5) in Fin soll allein unter Verwendung von (1)-(4) gezeigt werden. 354 Gemäß Coinduktion gilt (5) in Fin, falls RE = {(evensA(zipA(f, g)), f ) | f, g : N → X} eine Stream(X)-Kongruenz ist, d.h. falls für alle (f, g) ∈ RE Folgendes gilt: headA(f ) = headA(g) ∧ (tailA(f ), tailA(g)) ∈ R. (6) Beweis von (6). Sei (f, g) ∈ RE . Dann gibt es h : N → X mit f = evensA(zipA(g, h)). Daraus folgt (1) (3) headA(f ) = headA(evensA(zipA(g, h))) = headA(zipA(g, h)) = headA(g), (2) tailA(f ) = tailA(evensA(zipA(g, h))) = evensA(tailA(tailA(zipA(g, h)))) (4) (4) = evensA(tailA(zipA(h, tail(g)))) = evensA(zipA(tailA(g), tailA(h))). Daraus folgt (tailA(f ), tailA(g)) = (evensA(zipA(tailA(g), tailA(h))), tailA(g)) ∈ RE . o Sei A eine Σ-Algebra und R ⊆ A2. Der C-Abschluss RC von R ist die kleinste Äquivalenzrelation auf A, die R enthält und für alle c : e → e0 ∈ C und a, b ∈ Ae folgende Bedingung erfüllt: (a, b) ∈ ReC ⇒ (cA(a), cA(b)) ∈ ReC0 . R ist eine DΣ-Kongruenz modulo C, wenn für alle d : s → e ∈ D und a, b ∈ Ae gilt: (a, b) ∈ Rs ⇒ (dA(a), dA(b)) ∈ ReC . 355 Ist A final und gibt es ein rekursives Ψ-Gleichungssystem, dann ist der C-Abschluss einer DΣ-Kongruenz modulo C auf A nach Satz 17.7 (11) eine DΣ-Kongruenz. Deshalb folgt die Gültigkeit von E in A bereits aus der Existenz einer DΣ-Kongruenz modulo C, die RE enthält. 356 Coinduktion modulo C heißt demnach: die Gültigkeit von E in A aus der Existenz einer DΣ-Kongruenz modulo C schließen, die RE enthält. Beispiel 17.6 S Sei X = CS und A die (Reg(BS) ∪ Acc(X))-Algebra mit A|Reg(BS) = Lang(X) und A|Acc(X) = P(X) (siehe 2.7). A erfüllt die Gleichungen δ(par(t, u)) δ(seq(t, u)) β(par(t, u)) β(seq(t, u)) par(par(t1, u1), par(t2, u2)) par(t, mt) = = = = = = λx.par(δ(t)(x), δ(u)(x)) λx.par(seq(δ(t)(x), u), ite(β(t), δ(u)(x), mt)) max{β(t), β(u)} β(t) ∗ β(u) par(par(t1, t2), par(u1, u2)) t (1) (2) (3) (4) (5) (6) mit t, u, v ∈ Vreg und x ∈ VX . Die Gültigkeit des Distributivgesetzes seq(t, par(u, v)) = par(seq(t, u), seq(t, v)) (7) in A soll allein unter Verwendung von (1)-(6) gezeigt werden. 357 Gemäß Coinduktion modulo C = {par} gilt (7) in A, falls RE = {(seq A(f, parA(g, h)), parA(seq A(f, g), seq A(f, h))) | f, g, h ∈ Lang(X)} eine Acc(X)-Kongruenz modulo C ist, d.h. falls für alle (f, g) ∈ RE Folgendes gilt: β A(f ) = β A(g) ∧ (δ A(f ), δ A(g)) ∈ REC . (8) Beweis von (8). Sei (f, g) ∈ RE und x ∈ X. Dann gibt es f 0, g 0, h ∈ A mit f = seq A(f 0, parA(g 0, h)) und g = parA(seq A(f 0, g 0), seq A(f 0, h))). Daraus folgt (4) β A(f ) = β A(seq A(f 0, parA(g 0, h))) = β A(f 0) ∗ β A(parA(g 0, h)) (3) = β A(f 0) ∗ max{β A(g 0), β A(h)} = max{β A(f 0) ∗ β A(g 0), β A(f 0) ∗ β A(h))} (4) = max{β A(seq A(f 0, g 0)), β A(seq A(f 0, h))} (3) = β A(parA(seq A(f 0, g 0), seq A(f 0, h))) = β A(g), δ A(f )(x) = δ A(seq A(f 0, parA(g 0, h))) (2) = parA(seq A(δ A(f 0)(x), parA(g 0, h)), if β A(f 0) = 1 then δ A(parA(g 0, h))(x) else mtA) (1) = parA(seq A(δ A(f 0)(x), parA(g 0, h)), if β A(f 0) = 1 then parA(δ A(g 0)(x) else δ A(h)(x), mtA)), 358 parA(seq A(δ A(f 0)(x), parA(g 0, h)), (6) = parA(δ A(g 0)(x), δ A(h)(x))) falls β A(f 0) = 1 seq A(δ A(f 0)(x), parA(g 0, h)) sonst, δ A(g)(x) = δ A(parA(seq A(f 0, g 0), seq A(f 0, h))))(x) (1) = parA(δ A(seq A(f 0, g 0))(x), δ A(seq A(f 0, h))(x)) (2) = parA(parA(seq A(δ A(f 0)(x), g 0), if β A(f 0) = 1 then δ A(g 0)(x) else mtA), A A A 0 A 0 A A par (seq (δ (f )(x), h), if β (f ) = 1 then δ (h)(x) else mt )) parA(parA(seq A(δ A(f 0)(x), g 0), δ A(g 0)(x)), parA(seq A(δ A(f 0)(x), h), δ A(h)(x))) falls β A(f 0) = 1 = parA(parA(seq A(δ A(f 0)(x), g 0), mtA), parA(seq A(δ A(f 0)(x), h), mtA)) sonst parA(parA(seq A(δ A(f 0)(x), g 0), seq A(δ A(f 0)(x), h)), (5),(6) = parA(δ A(g 0)(x), δ A(h)(x))) falls β A(f 0) = 1 parA(seq A(δ A(f 0)(x), g 0), seq A(δ A(f 0)(x), h)) sonst. Sei f1 = seq A(δ A(f 0)(x), parA(g 0, h)), f2 = parA(seq A(δ A(f 0)(x), g 0), seq A(δ A(f 0)(x), h)), f3 = parA(δ A(g 0)(x), δ A(h)(x)). 359 Wegen (f1, f2) ∈ RE gilt also (δ A(f )(x), δ A(g)(x)) = (parA(f1, f3), parA(f2, f3)) ∈ REC im Fall β A(f 0) = 1 und (δ A(f )(x), δ A(g)(x)) = (f1, f2) ∈ REC im Fall β A(f 0) = 0. o Weitere Coinduktionsverfahren, mit denen Eigenschaften größter Relationen bewiesen werden und die daher nicht nur in finalen Modellen anwendbar sind, werden in meinen LVs über Logisch-Algebraischen Systementwurf behandelt. Coinduktive Lösungen Sei E ein rekursives Ψ-Gleichungssystem und A eine DΣ-Algebra. Eine coinduktive Lösung von E in A ist eine Σ-Algebra, deren DΣ-Redukt mit A übereinstimmt und die E erfüllt. 360 Satz 17.7 Sei A eine finale DΣ-Algebra. Dann hat E genau eine coinduktive Lösung in A, die unten zur Σ-Algebra TE erweiterte Termalgebra TCΣ erfüllt E und es gilt unfold TE = fold A. Beweis. Sei V eine (S∪BS)-sortierte Variablenmenge, die die Trägermengen von A enthält. Wir erweitern die Menge TCΣ(A) der CΣ-Terme über A wie folgt zur Σ-Algebra TE (A): Für alle Operationssymbole f : e → e0 von Σ und t ∈ TCΣ(A)e, f TE (A)(t) = eval(f t), wobei eval : TΣ(V ) → TCΣ(V ) wie unten definiert ist. Die für eine induktive Definition erforderliche wohlfundierte Ordnung auf den Argumenttermen von eval lautet wie folgt: Für alle t, t0 ∈ TΣ(V ), t t0 ⇔def (depC2 (t), depD (t), size(t)) >lex (depC2 (t0), depD (t0), size(t0)). >lex ⊆ N3 ×N3 bezeichnet die lexikographische Erweiterung von >⊆ N×N auf Zahlentripel. Sei G ⊆ F . size(t) bezeichnet die Anzahl der Symbole von t, depG(t) die maximale Anzahl von G-Symbolen auf einem Pfad von t. . Die induktive Definition von eval lautet wie folgt: • Für alle x ∈ V , eval(x) = x. • Für alle f : X → Y ∈ BF ∪ BF 0 und x ∈ X, eval(f x) = f (x). 361 • Für alle f : s → e ∈ D und a ∈ As, eval(f (a)) = f A(a). • Für alle x ∈ V und t ∈ TΣ(V ), eval(λx.t) = λx.eval(t). • Für alle c : e1 × · · · × en → s ∈ C und ti ∈ TΣ(V )ei , 1 ≤ i ≤ n, eval(c(t1, . . . , tn)) = c(eval(t1), . . . , eval(tn)). • Für alle t, u ∈ TΣ(V ), eval(t(u)) = eval(t)(eval(u)). • Für alle t, u, v ∈ TΣ(V ), eval(ite(t, u, v)) = ite(eval(t), eval(u), eval(v)). • Für alle d : s → e0 ∈ D, c : e → s ∈ C und (t1, . . . , tn) ∈ TΣ(V )e, eval(dc(t1, . . . , tn)) = u{t1/x1, . . . , tn/xn, eval(u1σ)/z1, . . . , eval(uk σ)/zk }, wobei u ∈ TCΣ(V ), {z1, . . . , zk } = var(u) \ {x1, . . . , xn}, u1, . . . , uk ∈ TΣ(V ) Destruktoren und Variablen bestehen, σ = {t1/x1, . . . , tn/xn} und (1) (2) (3) aus td,c = u{u1/z1, . . . , uk /zk }. • Für alle d : s → e ∈ D, d0 : s0 → s ∈ D und u ∈ TΣ(V )s0 , eval(dd0u) = eval(d eval(d0u)). (4) (5) Für alle t ∈ TΣ(V ) ist eval(t) definiert und depC2 (eval(t)) ≤ depC2 (t). Beweis von (5) durch Induktion über t entlang . Fall (1): Es gibt f : e → e0 ∈ BF ∪ BF 0 ∪ D und a ∈ Ae mit t = f a. Dann ist eval(t) = f (a) bzw. eval(t) = f A(a) und depC2 (eval(t)) = 0 = depC2 (t). 362 Fall (2): Es gibt c : e → s ∈ C ∪ {λx. | x ∈ V } ∪ { ( ), ite} und (t1, . . . , tn) ∈ TΣ(v)e mit t = c(t1, . . . , tn). Sei 1 ≤ i ≤ n. Ist c ∈ C2, dann gilt depC2 (ti) < depC2 (t). Ist c 6∈ C2, dann gilt depG(eval(ti)) ≤ depG(t) für G ∈ {C2, D}, aber size(ti) < size(t). Demnach gilt t ti in beiden Unterfällen. Also ist nach Induktionsvoraussetzung eval(ti) definiert und depC2 (eval(ti)) ≤ depC2 (ti). Daraus folgt, dass auch eval(t) = c(eval(t1), . . . , eval(tn)) definiert ist und depC2 (eval(t)) = max{depC2 (eval(ti)) | 1 ≤ i ≤ n} ≤ max{depC2 (ti) | 1 ≤ i ≤ n} = depC2 (t) im Fall c ∈ C1 bzw. depC2 (eval(t)) = 1 + max{depC2 (eval(ti)) | 1 ≤ i ≤ n} ≤ 1 + max{depC2 (ti) | 1 ≤ i ≤ n} = depC2 (t) im Fall c ∈ C2. Fall (3): Es gibt d : s → e0 ∈ D, c : e → s ∈ C und (t1, . . . , tn) ∈ TΣ(V )e mit t = dc(t1, . . . , tn). Seien k, u, σ, z1, . . . , zk , u1, . . . , uk wie oben und 1 ≤ i ≤ k. Ist c ∈ C1, dann ist uiσ ein echter Teilterm von t und damit depG(uiσ) ≤ depG(t) für G ∈ {C2, D}, aber size(uiσ) < size(t). Ist c ∈ C2, dann gilt depC2 (uiσ) < depC2 (t). Folglich gilt t uiσ in beiden Unterfällen. Also ist nach Induktionsvoraussetzung eval(uiσ) definiert und depC2 (eval(uiσ)) ≤ depC2 (uiσ). 363 Demnach ist auch eval(t) = u{t1/x1, . . . , tn/xn, eval(u1σ)/z1, . . . , eval(uk σ)/zk } definiert und depC2 (eval(t)) ≤ depC2 (t), weil jeder Pfad von u im Fall c ∈ C1 kein C2Symbol und im Fall c ∈ C2 höchstens eins enthält. Fall (4): Es gibt d : s → e ∈ D, d0 : s0 → s ∈ D und u ∈ TΣ(V )s0 mit t = dd0u. Dann gilt depC2 (d0u) ≤ depC2 (t), aber depD (d0u) ≤ depD (t), also t d0u. Damit ist nach Induktionsvoraussetzung eval(d0u) definiert und depC2 (eval(d0u)) ≤ depC2 (d0u), also auch depC2 (d eval(d0u)) = depC2 (eval(d0u)) ≤ depC2 (t). Wegen eval(d0u) ∈ TCΣ(V ) ist jedoch depD (d eval(d0u)) < depD (t), so dass nach Induktionsvoraussetzung auch eval(t) = eval(d eval(d0u)) definiert ist und depC2 (eval(d eval(d0u))) ≤ depC2 (d eval(d0u)). Daraus folgt schließlich depC2 (eval(t)) ≤ depC2 (d eval(d0u)) ≤ depC2 (t). o Wie man ebenfalls durch Induktion über t entlang zeigen kann, kommen alle Variablen von eval(t) in t vor. Daraus folgt f TE (A)(t) = eval(f t) ∈ TCΣ(A) und f TE (A)(u) = eval(f u) ∈ TCΣ für alle Operationssymbole f : e → e0 von Σ, t ∈ TCΣ(A)e und u ∈ TCΣ,e. Folglich ist die Einschränkung TE von TE (A) auf die Menge TCΣ der CΣ-Grundterme eine DΣ-Unteralgebra von TE (A). 364 (6) Für alle c : e → s ∈ C und (t1, . . . , tn) ∈ TCΣ(A)e, cTE (A)(t1, . . . , tn) = c(t1, . . . , tn). Beweis von (6). eval(t) = t für alle t ∈ TCΣ(A) erhält man durch Induktion über die Größe von t. Daraus folgt c TE (A) (t1, . . . , tn) eval(ti )=ti = Def . cTE (A) = (2) eval(c(t1, . . . , tn)) = c(eval(t1), . . . , eval(tn)) c(t1, . . . , tn). (7) Für alle g : V → TCΣ(A) und Σ-Terme t, die aus Destruktoren und einer Variable x bestehen, gilt eval(tσ) = g ∗(t), wobei σ = {g(x)/x}. Beweis von (7) durch Induktion über die Anzahl der Destruktoren von t. Sei d1, . . . , dn ∈ D und t = d1 . . . dnx. Ist n = 0, dann gilt eval(tσ) = eval(xσ) = eval(g(x)) Andernfalls ist g(x)∈TCΣ (A) = g(x) = g ∗(x) = g ∗(t). (4) eval(tσ) = eval(d1 . . . dnxσ) = eval(d1 eval(d2 . . . dnxσ)) ind. hyp. = Def . g ∗ = T (A) ∗ eval(d1 g (d2 . . . dnx)) g ∗(d1 . . . dnx) = g ∗(t). Def . d1 E = T (A) d1 E (g ∗(d2 . . . dnx)) o 365 (8) TE (A) erfüllt E. Beweis von (8). Für alle c : s1 × · · · × sn → s ∈ C, d : s → e ∈ D und σ = g : V → TCΣ(A), ∗ g (dc(x1, . . . , xn)) Def . dTE (A) = Def . g ∗ = dTE (A)(cTE (A)(g(x1), . . . , g(xn))) (6) eval(dcTE (A)(g(x1), . . . , g(xn))) = eval(dc(g(x1), . . . , g(xn))) (3) = u{x1σ/x1, . . . , xnσ/xn, eval(u1σ)/z1, . . . , eval(uk σ)/zk } (7) = u{x1σ/x1, . . . , xnσ/xn, g ∗(u1)/z1, . . . , g ∗(uk )/zk } u∈TCΣ (V ) = g ∗(td,c). o Da TE (A) eine DΣ-Algebra und A die finale DΣ-Algebra ist, gibt es den eindeutigen DΣHomomorphismus unfold TE (A) : TE (A) → A. (9) Für alle a ∈ A, unfold TE (A)(a) = a. Beweis von (9). Für alle d : s → e ∈ D gilt dA(a) = dTE (A)(a). Folglich sind die Inklusion incA : A → TCΣ(A) und daher auch die Komposition unfold TE (A) ◦ incA : A → A DΣ-homomorph. Also stimmt diese wegen der Finalität von A mit der Identität auf A überein. o 366 A lässt sich zur CΣ-Algebra erweitern: Für alle c : e → s ∈ C und a ∈ Ae, cA(a) =def unfold TE (A)(c(a)). (10) Für alle c : s1 × · · · × sn → s ∈ C, d : s → e ∈ D und g : V → A, g ∗(dc(x1, . . . , xn)) = dA(cA(g(x1), . . . , g(xn))) (10) = dA(unfold TE (A)(c(g(x1), . . . , g(xn)))) unfold TE (A) DΣ−homomorph = unfold TE (A)(dTE (A)(c(g(x1), . . . , g(xn)))) (6) = unfold TE (A)(dTE (A)(cTE (A)(g(x1), . . . , g(xn)))) = unfold TE (A)(g ∗(dc(x1, . . . , xn))) (8) (9) = unfold TE (A)(g ∗(td,c)) = g ∗(td,c). Also gibt es eine coinduktive Lösung von E in A. (11) Die größte DΣ-Kongruenz R ist eine CΣ-Kongruenz. Beweis von (11). Sei RC der C-Abschluss von R (s.o.). Ist RC eine DΣ-Kongruenz, dann ist RC in R enthalten, weil R die größte DΣ-Kongruenz ist. Andererseits ist R in RC enthalten. Also stimmt R mit RC überein, ist also wie RC eine CΣ-Kongruenz. Demnach bleibt zu zeigen, dass RC eine DΣ-Kongruenz ist. Sei also d : s → e ∈ D und (t, u) ∈ RsC . 367 Gehört (t, u) zu R, dann gilt das auch für (dTE (A)(t), dTE (A)(u)), weil R eine DΣ-Kongruenz ist. Wegen R ⊆ RC folgt (dTE (A)(t), dTE (A)(u)) ∈ ReC . Andernfalls gibt es c : s1 × · · · × sn → s ∈ C und t1, . . . , tn, u1, . . . , un ∈ TCΣ(A) mit t = c(t1, . . . , tn), u = c(u1, . . . , un) und (ti, ui) ∈ RC für alle 1 ≤ i ≤ n. Nach Induktionsvoraussetzung gilt (d0TE (A)(ti), d0TE (A)(ui)) ∈ ReC0 für alle 1 ≤ i ≤ n und d0 : si → e0 ∈ D. Seien g, g 0 Belegungen von V in TCΣ(A) mit g(xi) = ti und g 0(xi) = ui für alle 1 ≤ i ≤ n. Wegen (6) (8) dTE (A)(t) = dTE (A)(c(t1, . . . , tn)) = dTE (A)(cTE (A)(t1, . . . , tn)) = g ∗(td,c), (6) (8) dTE (A)(u) = dTE (A)(c(u1, . . . , un) = dTE (A)(cTE (A)(u1, . . . , un)) = g 0∗(td,c) und weil RC eine CΣ-Kongruenz auf TCΣ(A) ist, folgt (dTE (A)(t), dTE (A)(u)) ∈ ReC aus (g(xi), g 0(xi)) ∈ RC für alle 1 ≤ i ≤ n. Also ist RC eine DΣ-Kongruenz. o (11) liefert folgende CΣ-Algebra B mit den Trägermengen von A: Für alle c : e → s ∈ C und t ∈ TCΣ(A)e, cB (unfold TE (A)(t)) =def unfold TE (A)(c(t)). (12) 368 cB ist wohldefiniert: Sei t, u ∈ TCΣ(A)e mit unfold TE (A)(t) = unfold TE (A)(u). Da A final ist, stimmt R nach Satz 3.4 (3) mit dem Kern von unfold TE (A) überein. Also impliziert (11), dass der Kern von unfold TE (A) eine CΣ-Kongruenz auf TCΣ(A) ist. Daraus folgt (12) (6) cB (unfold TE (A)(t)) = unfold TE (A)(c(t)) = unfold TE (A)(cTE (A)(t)) (6) (12) = unfold TE (A)(cTE (A)(u)) = unfold TE (A)(c(u)) = cB (unfold TE (A)(u)). (13) cB stimmt mit cA überein: Für alle a ∈ A, (9) (12) (10) cB (a) = cB (unfold TE (A)(a)) = unfold TE (A)(c(a)) = cA(a). (14) unfold TE (A) ist CΣ-homomorph: Für alle c : e → s ∈ C und t ∈ TCΣ(A)e, (6) (12) (13) unfold TE (A)(cTE (A)(t)) = unfold TE (A)(c(t)) = cB (unfold TE (A)(t)) = cA(unfold TE (A)(t)). Sei TE die DΣ-Unteralgebra von TE (A) mit Trägermenge TCΣ. (15) unfold TE = fold A: Da A eine finale DΣ-Algebra ist, existiert genau ein DΣ-Homomorphismus von TE nach A. Folglich stimmt unfold TE mit der Einschränkung von unfold TE (A) auf TCΣ überein. Da incTCΣ : TCΣ → TE (A) wegen (6) und unfold TE (A) wegen (14) CΣhomomorph ist, folgt (15) aus der Initialität von TCΣ. 369 unfold TE TE id incTCΣ g TCΣ TE (A) A unfold TE (A) (15) fold A id g A Es bleibt zu zeigen, dass je zwei coinduktive Lösungen A1, A2 von E in A miteinander übereinstimmen. Sei Q die kleinste S-sortige Relation auf A1 × A2, die die Diagonale von A enthält und für alle c : e → s ∈ C und a, b ∈ Ae die folgende Implikation erfüllt: (a, b) ∈ Q ⇒ (cA1 (a), cA2 (b)) ∈ Q. (16) (17) Q ist eine DΣ-Kongruenz. Beweis. Sei d : s → e ∈ D und (a, b) ∈ Qs. Gehört (a, b) zu ∆2A, dann gilt a = b, also dA(a) = dA(b). Daraus folgt (dA(a), dA(b)) ∈ Qe, weil Q die Diagonale von A enthält. 370 Andernfalls gibt es c : s1 × · · · × sn → s ∈ C und a1, . . . , an, b1, . . . , bn ∈ A mit a = cA1 (a1, . . . , an), b = cA2 (b1, . . . , bn) und (ai, bi) ∈ Q für alle 1 ≤ i ≤ n. Nach Induktionsvoraussetzung gilt (d0A(ai), d0A(bi)) ∈ Qe0 für alle 1 ≤ i ≤ n und d0 : si → e0 ∈ D. Seien g, g 0 : V → A Belegungen mit g(xi) = ai und g 0(xi) = bi für alle 1 ≤ i ≤ n. Wegen dA(a) = dA(cA1 (a1, . . . , an)) = g ∗(td,c), dA(b) = dA(cA2 (b1, . . . , bn) = g 0∗(td,c) und weil Q ein CΣ-Kongruenz ist, folgt (dA(a), dA(b)) ∈ Qe aus (g(xi), g 0(xi)) ∈ Q für alle 1 ≤ i ≤ n. o Wegen der Finalität von A ist nach Satz 3.4 (3) die Diagonale von A die einzige DΣKongruenz auf A. Also impliziert (17), dass Q mit ∆2A übereinstimmt. Sei c : e → s ∈ C und a ∈ Ae. Aus (a, a) ∈ Q und (16) folgt (cA1 (a), cA2 (a)) ∈ Qe, also cA1 (a) = cA2 (a) wegen Q = ∆2A. Demnach gilt A1 = A2. o Satz 17.8 Sei C2 leer, A die laut Satz 17.7 eindeutige coinduktive Lösung von E in der finalen DΣ-Algebra und B eine induktive Lösung von E in der initialen CΣ-Algebra TCΣ. Dann ist fold A = unfold B . 0 Beweis. Nach Satz 17.7 kann TCΣ zu einer DΣ-algebra B 0, die E und fold A = unfold B erfüllt, erweitert werden. Aus Satz 17.1 folgt B = B 0, also fold A = unfold B . o 371 Beispiel 17.9 Sei CΣ = ({list}, ∅, ∅, {evens, odds, exchange, exchange0 : list → list}), Ψ = (CΣ, Stream(X)) und s eine Variable. Dann bilden die Gleichungen head(evens(s)) head(odds(s)) head(exchange(s)) head(exchange0(s)) = = = = head(s), head(tail(s)), head(tail(s)), head(s), tail(evens(s)) tail(odds(s)) tail(exchange(s)) tail(exchange(s)) = = = = evens(tail(tail(s))), odds(tail(tail(s))), exchange0(s), exchange(tail(tail(s))) ein rekursives Ψ-Gleichungssystem E, das nach Satz 17.7 genau eine coinduktive Lösung in der finalen Stream(X)-Algebra X N hat. evens(s) und odds(s) listen die Elemente von s auf, die dort an geraden bzw. ungeraden Positionen stehen. exchange(s) vertauscht die Elemente an geraden mit denen an ungeraden Positionen. Satz 17.1 ist auf E nicht anwendbar, da hier die Menge C2 der Konstruktoren, in deren Gleichungen auf der rechten Seite Destruktoren geschachtelt auftreten dürfen, nicht leer ist. o Beispiel 17.10 Sei Ψ = (Reg(BS), DΣ) die Bisignatur von Beispiel 17.4, Σ = Reg(BS) ∪ DΣ und A die Σ-Algebra mit A|Reg(BS) = Lang(X) und A|Acc(X) = P(X). 372 A erfüllt das rekursive Ψ-Gleichungssystem BRE von Abschnitt 3.11 und ist daher nach Satz 17.7 die einzige coinduktive Lösung von BRE in P(X). ∗ Da χ : P(X ∗) → 2X (siehe 2.7) Σ-homomorph ist, wird BRE auch von der Bildalgebra χ(A) erfüllt. Demnach ist χ(A) nach Satz 17.7 die einzige coinduktive Lösung von BRE in χ(P(X)) = Beh(X, 2). Wegen TBRE = Bro(BS) folgen die Gleichungen fold Lang(X) = unfold Bro(BS) : Bro(BS) → P(X), fold regB = unfoldB Bro(BS) : Bro(BS) → Beh(X, 2) aus Satz 17.8 und damit die Acc(X)-Homomorphie beider Faltungen. Sei t ∈ TReg(BS) und v = fold Regword (BS)(t). Im Haskell-Modul Compiler.hs entspricht der Erkenner fold regB (t) bzw. unfoldB Bro(BS)(t) dem Aufruf regToAlg "" v n mit n = 1 bzw. n = 3. Er startet eine Schleife, die nach der Eingabe von Wörtern w fragt, auf die der Erkenner angewendet werden soll, um zu prüfen, ob w zur Sprache von t gehört oder nicht. o 373 Entscheidende Argumente im Beweis von Satz 17.7 entstammen dem Beweis von [37], Thm. 3.1, und [38], Thm. A.1, wo rekursive Stream(X)-Gleichungen für Stromkonstruktoren untersucht werden (siehe auch [7], Anhänge A.5 and A.6). Zur Zeit werden Satz 17.7 ähnliche Theoreme entwickelt und auf weitere destruktive Signaturen – neben Stream(X) und Acc(X) – angewendet, z.B. auf unendliche Binärbäume ([39], Thm. 2), nichtdeterministische Systeme [1], Mealy-Automaten [6], nebenläufige Prozesse [10, 35, 11] und formale Potenzreihen ([37], Kapitel 9). Hierbei wird oft von der traditionellen Darstellung rekursiver Gleichungssysteme als strukturell-operationelle Semantikregeln (SOS) ausgegangen, wobei “strukturell” und “operationell” für die jeweiligen Konstruktoren bzw. Destruktoren steht. Z.B. lauten die Gleichungen von BRE als SOS-Regeln wie folgt: δ δ eps −→ λx.mt δ mt −→ λx.mt δ B −→ λx.ite(x ∈ B, eps, mt) δ δ t −→ t0, u −→ u0 δ par(t, u) −→ λx.par(t0(x), u0(x)) δ t −→ t0, u −→ u0 δ seq(t, u) −→ λx.par(seq(t0(x), u), ite(β(t), u0(x), mt)) 374 δ t −→ t0 δ iter(t) −→ λx.seq(t0(x), iter(t)) β eps −→ 1 β β t −→ m, u −→ n β par(t, u) −→ max{m, n} β β mt −→ 0 B −→ 0 β β t −→ m, u −→ n β seq(t, u) −→ m ∗ n β iter(t) −→ 0 Im Gegensatz zur operationellen Semantik besteht eine denotationelle Semantik nicht aus Regeln, sondern aus der Interpretation von Konstruktoren und Destruktoren in einer Algebra. In der Kategorientheorie werden rekursive Gleichungssysteme und die Beziehungen zwischen ihren Komponenten mit Hilfe von distributive laws und Bialgebren verallgemeinert (siehe z.B. [40, 13, 8, 11]). 375 17.11 Cotermbasierte Erkenner regulärer Sprachen Unter Verwendung der Haskell-Darstellung von Cotermen als Elemente des rekursiven Datentyps StateC(x)(y) (siehe Beispiel 10.4) machen wir DTAcc(X) zur Reg(BS)-Algebra regC und zwar so, dass regC mit ξ(χ(Lang(X)) übereinstimmt: Für alle B ∈ BS, f, g : X → DTAcc(X), b, c ∈ 2 und t ∈ DTAcc(X), epsregC = StateC(λx.mtregC )(1), mtregC = StateC(λx.mtregC )(0), regC B = StateC(λx.if (x ∈ B) = 1 then epsregC else mtregC )(0), parregC (StateC(f )(b), StateC(g)(c)) = StateC(λx.parregC (f (x), g(x)))(max{b, c}), seq regC (StateC(f )(1), StateC(g)(c)) = StateC(λx.parregC (seq regC (f (x), StateC(g)(c)), g(x)))(c), seq regC (StateC(f )(0), t) = StateC(λx.seq regC (f (x), t))(0), iterregC (StateC(f )(b)) = StateC(λx.seq regC (f (x), iterregC (StateC(f )(b))))(1). Sei Ψ = (Reg(BS), DΣ) die Bisignatur von Beispiel 17.4, Σ = Reg(BS) ∪ DΣ und A die Σ-Algebra mit A|Reg(BS) = Lang(X) und A|Acc(X) = DTAcc(X). Da das rekursive Ψ-Gleichungssystem BRE (siehe 3.11) von A erfüllt wird und χ : P(X ∗) → ∗ ∗ 2X (siehe 2.7) und die Bijektion ξ : 2X → DTAcc(X) von Beispiel 2.20 Σ-homomorph sind, wird das rekursive Ψ-Gleichungssystem BRE von Abschnitt 3.11 BRE auch von der Bildalgebra ξ(χ(A)) erfüllt. 376 Demnach ist ξ(χ(A)) nach Satz 17.7 die einzige coinduktive Lösung von BRE in ξ(χ(P(X))) = ξ(Beh(X, 2)) = DTAcc(X). Wegen TBRE = Bro(BS) folgt außerdem fold regC = unfoldC Bro(BS) : Bro(BS) → DTAcc(X) – analog zu Beispiel 17.10 – aus Satz 17.8 und damit die Acc(X)-Homomorphie dieser Faltung. Aus der Eindeutigkeit von unfoldC Bro(BS), der Acc(X)-Homomorphie von χ und ξ (s.o.) und (1) in Abschnitt 2.11 erhalten wir unfoldC Bro(BS) = ξ ◦ χ ◦ unfold Bro(BS) = ξ ◦ χ ◦ fold Lang(X). (3) Sei t ∈ TReg(BS). Wegen (3) realisiert der initiale Automat (Bro(BS), t) den Acc(X)Coterm ξ(χ(fold Lang(X)(t))). Sei t ∈ TReg(BS) und v = fold Regword (BS)(t). Im Haskell-Modul Compiler.hs entspricht der Erkenner unfoldB DTAcc(X) (fold regC (t)) dem Aufruf regToAlg "" v 2. Dieser startet eine Schleife, die nach der Eingabe von Wörtern w fragt, auf die der Erkenner angewendet werden soll, um zu prüfen, ob w zur Sprache von t gehört oder nicht. o 377 18 Iterative Gleichungen Sei Σ = (S, I, F ) eine konstruktive Signatur und I, V endliche S-sortige Variablenmengen. Eine S-sortige Funktion E : V → TΣ(V ) heißt iteratives Σ-Gleichungssystem, falls das Bild von E keine Variablen enthält. Demnach sind iterative Gleichungssysteme spezielle Substitutionen (siehe Abschnitt 3.6). Sei A eine Σ-Algebra und AV die Menge der S-sortigen Funktionen von V nach A. g : V → A löst E in A, wenn für alle x ∈ V , g ∗(E(x)) = g(x) gilt. Lemma 18.1 Sei E 0 eine Menge von Σ-Gleichungen, A ∈ AlgΣ,E 0 und reduce : TΣ(V ) → TΣ(V ) eine Funktion, die jeden Σ-Term auf einen E 0-äquivalenten Term abbildet (siehe Kapitel 3). Für alle Lösungen g : V → A von E in A und n ∈ N gilt g ∗ = g ∗ ◦ (reduce ◦ E ∗)n. Beweis durch Induktion über n. g ∗ = g ∗ ◦ idTΣ(V ) = g ∗ ◦ (E ∗)0. 378 Da ≡E 0 die kleinste Σ-Kongruenz auf TΣ(V ) ist, die Inst(E 0) enthält, ist ≡E 0 im Kern von g ∗ enthalten. Daraus folgt nach Voraussetzung g ∗ ◦ reduce = g ∗, also g∗ ind. hyp. = g ∗ ◦ (reduce ◦ E ∗)n 3.7(1) g löst E in A = (1) (g ∗ ◦ E)∗ ◦ (reduce ◦ E ∗)n (1) = g ∗ ◦ E ∗ ◦ (reduce ◦ E ∗)n = g ∗ ◦ reduce ◦ E ∗ ◦ (reduce ◦ E ∗)n = g ∗ ◦ (reduce ◦ E ∗)n+1. o 18.2 Das iterative Gleichungssystem einer CFG S Sei G = (S, BS, R) eine CFG und X = BS. Im Folgenden erlauben wir den Konstruktoren par and seq von Reg(BS) auch mehr als zwei Argumente und schreiben daher • par(t1, . . . , tn) anstelle von par(t1, par(t2, . . . , par(tn−1, tn) . . . )) und • seq(t1, . . . , tn) anstelle von seq(t1, seq(t2, . . . , seq(tn−1, tn) . . . )). par(t) und seq(t) stehen für t. 379 G induziert ein iteratives Reg(BS)-Gleichungssystem: EG : S → TReg(BS)(S) s 7→ par(w1, . . . , wk ), wobei {w1, . . . , wk } = {w ∈ (S ∪ CS)∗ | s → w ∈ R} und für alle n > 1, e1, . . . , en ∈ S ∪ CS and s ∈ S, e1 . . . en = seq(e1, . . . , en), s = s. EG heißt Gleichungssystem von G. Satz 18.3 (Fixpunktsatz für CFGs) (i) Die Funktion solG : S → Lang(X) mit solG(s) = L(G)s für alle s ∈ S löst EG in Lang(X). Sei g : S → P(X ∗) eine Lösung von EG in Lang(X). (ii) Die S-sortige Menge Sol mit Sol s = g(s) für alle s ∈ S ist Trägermenge einer Σ(G)-Unteralgebra von Word (G). (iii) Für alle s ∈ S, solG(s) ⊆ g(s), m.a.W.: die Sprache von G ist die kleinste Lösung von EG in Lang(X). 380 Beweis. Sei g : V → Lang(X), s ∈ S, {r1, . . . , rk } die Menge aller Regeln von G mit linker Seite s. Sei 1 ≤ i ≤ k, ri = (s → wi) und dom(fri ) = ei1 × . . . × eini . Dann gibt es s1, . . . , sn ∈ S ∪ CS mit e1 . . . en = wi und g ∗(wi) = g ∗(e1 . . . en) = g ∗(seq(e1, . . . , en)) = seq Lang(X)(g ∗(e1), . . . , g ∗(en)) Word (G) = g ∗(e1) · · · · · g ∗(en) = fri (g ∗(ei1) · · · · · g ∗(eini )). (1) Beweis von (i). (G) solG(s) = L(G)s = fold Word (TΣ(G),s) s S (G) = ki=1{fold Word (fri (t)) | t ∈ TΣ(G),ei1×...×ein } s i Sk Word (G) Word (G) (fold ei1×...×ein (t)) | t ∈ TΣ(G),ei1×...×ein } = i=1{fri i i Sk Sk Word (G) Word (G) Word (G) = i=1 fri (fold ei1×...×ein (TΣ(G),ei1×...×ein )) = i=1 fri (L(G)ei1×...×eini ) i i S Word (G) = ki=1 fri (L(G)ei1 · · · · · L(G)eini ) 381 Sk Word (G) ∗ ∗ (ei1) · · · · · solG (solG (eini )) i=1 fri (1) Sk ∗ ∗ ∗ (w1), . . . , solG (wk )) = i=1 solG (wi) = parLang(X)(solG = ∗ ∗ = solG (par(w1, . . . , wk )) = solG (EG(s)). ∗ Also ist solG = solG ◦ EG und damit eine Lösung von EG in Lang(X). Beweis von (ii). Zu zeigen: Für alle 1 ≤ i ≤ k, (G) (Sol ei1 · · · · · Sol eini ) ⊆ Sol s. frWord i (2) Nach Definition von Sol gilt Sol eij = g ∗(eij ) für alle 1 ≤ j ≤ ni. Beweis von (2). Word (G) Word (G) (g ∗(ei1) · · · · · g ∗(eini )) (Sol ei1 · · · · · Sol eini ) = fri S (1) ∗ = g (wi) ⊆ ki=1 g ∗(wi) = parLang(X)(g ∗(w1), . . . , g ∗(wk )) = g ∗(par(w1, . . . , wk )) fri Def . EG = g ∗(EG(s)) = g(s) = Sol s. Beweis von (iii). Nach Satz 3.2 (3) ist L(G) = fold Word (G)(TΣ(G)) die kleinste Σ(G)Unteralgebra von Word (G). Wegen (ii) gilt demnach L(G)s ⊆ Sol s für alle s ∈ S, also solG(s) = L(G)s ⊆ Sol s = g(s). o 382 18.4 Beispiele 1. Sei X = {a, b} und G = ({A, B}, ∅, X, {A → BA, A → a, B → b}). EG ist wie folgt definiert: EG(A) = par(seq(A, B), a), EG(B) = b. Die einzige Lösung g von EG in Lang(X) lautet: g(A) = {b}∗ · {a}, g(B) = {b}. 2. Sei G = SAB (siehe Beispiel 4.5). EG ist wie folgt definiert: EG(S) = par(seq(a, B), seq(b, A), eps) EG(A) = par(seq(a, S), seq(b, A, A)), EG(B) = par(seq(b, S), seq(a, B, B)). Die einzige Lösung g von EG in Lang(X) lautet: g(S) = {w ∈ {a, b}∗ | #a(w) = #b(w)}, g(A) = {w ∈ {a, b}∗ | #a(w) = #b(w) + 1}, g(B) = {w ∈ {a, b}∗ | #a(w) = #b(w) − 1}. 383 Andererseits ist g mit g(S) = g(A) = g(B) = {a, b}+ keine Lösung von EG in Lang(X), weil a einerseits zu g(S) gehört, aber nicht zu g ∗(EG(S)) = g ∗(par(seq(a, B), seq(b, A))) = ({a} · g(B)) ∪ ({b} · g(A)). Beide Grammatiken sind nicht linksrekursiv. Deshalb haben ihre Gleichungssysteme nach Satz 18.8 (s.u.) jeweils genau eine Lösung in Lang(X). o 18.5 Von Erkennern regulärer Sprachen zu Erkennern kontextfreier Sprachen Sei Σ = (S, I, F ) eine konstruktive Signatur und V eine S-sortige Menge. ΣV =def (S, BS ∪ {Vs | s ∈ S}, BF, F ∪ {ins : Vs → s | s ∈ S}). Lemma 18.6 σV : V → TΣV bezeichnet die Substitution mit σV (x) = insx für alle x ∈ Vs und s ∈ S. Für alle ΣV -Algebren A gilt (inA)∗ = fold A ◦ σV∗ : TΣ(V ) → A, wobei inA = (inA s : Vs → As )s∈S . 384 Beweis. Wir zeigen zunächst fold A ◦ σV = inA. (3) Beweis von (3). Sei s ∈ S und x ∈ Xs. Da fold A : TΣV → A mit ins verträglich ist, gilt fold A(σV (x)) = fold A(insx) = inA s (x). Aus (3) folgt (inA)∗ = (fold A ◦ σV )∗ Satz 3.7(1) = fold A ◦ σV∗ . o Sei G = (S, BS, R) eine nicht-linksrekursive CFG und reduce die in Beispiel 3.10 beschriebene Reduktionsfunktion für reguläre Ausdrücke. Dann gibt es für alle s ∈ S ks, ns > 0, Bs,1, . . . , Bs,ns ∈ BS und Reg(BS)-Terme ts,1, . . . , ts,ns über S mit (reduce ◦ EG∗ )ks (s) = par(seq(Bs,1, ts,1), . . . , seq(Bs,ns , ts,ns )) (4) (reduce ◦ EG∗ )ks (s) = par(seq(Bs,1, ts,1), . . . , seq(Bs,ns , ts,ns ), eps). (5) oder Seps bezeichne die Menge aller Sorten von S, die (5) erfüllen. Sei Reg(BS)0 die Erweiterung von Reg(BS) um die Menge S der Sorten von G als weitere Basismenge und den Konstruktor in =def inreg : S → reg als weiteres Operationssymbol. 385 Sei DΣ wie in Beispiel 17.4 definiert, ΨS = (Reg(BS)0, DΣ) und Σ = Reg(BS)0 ∪ DΣ. Mit den Notationen von (4) und (5) erhalten wir das folgende rekursive ΨS -Gleichungssystem: rec(EG) = {δ(in(s)) = λx.σS∗ (par(ite(x ∈ Bs,1, ts,1, mt), . . . , ite(x ∈ Bs,ns , ts,ns , mt))) | s ∈ S} ∪ {β(in(s)) = 1 | s ∈ Seps} ∪ {β(in(s)) = 0 | s ∈ S \ Seps}. Satz 18.7 S Sei X = BS, g : S → Lang(X) eine Lösung von EG in Lang(X) und Ag die Σ-Algebra A mit Ag |Reg(BS) = Lang(X), Ag |Acc(X) = P(X) und ins g = gs für alle s ∈ S. Ag erfüllt das rekursive ΨS -Gleichungssystem rec(EG). Beweis. Zu zeigen ist, dass für alle t = t0 ∈ rec(EG) und h : V → Ag h∗(t) = h∗(t0) gilt. Sei h : V → Ag . Für alle s ∈ S, h∗(in(s)) = inAg (s) = g(s) = g ∗(s) Lemma 18.1 = g ∗((reduce ◦ EG∗ )ks (s)) (6) Lemma 18.6 liefert g ∗ = (inAg )∗ = fold Ag ◦ σS∗ : TReg(BS)(S) → A. (7) 386 Gehört s nicht zu Seps, dann gilt g ∗((reduce ◦ EG∗ )ks (s)) = g ∗(par(seq(Bs,1, ts,1), . . . , seq(Bs,ns , ts,ns ))) Ag Ag = parAg (seq Ag (Bs,1 , g ∗(ts,1)), . . . , seq Ag (Bs,ns , g ∗(ts,ns ))) S s = ni=1 (Bs,i · g ∗(ts,i)), (8) also (6) h∗(δ(in(s))) = δ Ag (h∗(in(s))) = δ Ag (g ∗((reduce ◦ EG∗ )ks (s))) S (8) A Sns = δ g ( i=1(Bs,i · g ∗(ts,i))) = λx.δ Ag ( ni=1(Bs,i · g ∗(ts,i)))(x) S Def . δ Ag = λx.{w ∈ X ∗ | xw ∈ ni=1(Bs,i · g ∗(ts,i))} = λx.{w ∈ X ∗ | x ∈ Bs,i, w ∈ g ∗(ts,i), 1 ≤ i ≤ n} S s = λx. ni=1 {w ∈ X ∗ | x ∈ Bs,i, w ∈ g ∗(ts,i)} S ns = λx. i=1{w ∈ X ∗ | if x ∈ Bs,i then w ∈ g ∗(ts,i) else w ∈ ∅} S s = λx. ni=1 (if x ∈ Bs,i then g ∗(ts,i) else ∅) S s = λx. ni=1 (if x ∈ Bs,i then g ∗(ts,i) else mtA) S s = λx. ni=1 (if x ∈ Bs,i then g ∗(ts,i) else g ∗(mt)) S s ∗ = λx. ni=1 g (ite(x ∈ Bs,i, ts,i, mt)) = λx.g ∗(par(ite(x ∈ Bs,1, ts,1, mt), . . . , ite(x ∈ Bs,ns , ts,ns , mt))) = g ∗(λx.par(ite(x ∈ Bs,1, ts,1, mt), . . . , ite(x ∈ Bs,ns , ts,ns , mt))) 387 (7) = fold Ag (σS∗ (λx.par(ite(x ∈ Bs,1, ts,1, mt), . . . , ite(x ∈ Bs,ns , ts,ns , mt)))) = h∗(σS∗ (λx.par(ite(x ∈ Bs,1, ts,1, mt), . . . , ite(x ∈ Bs,ns , ts,ns , mt)))) und (6) h∗(β(in(s))) = β Ag (h∗(in(s))) = β Ag (g ∗((reduce ◦ EG∗ )ks (s))) (8) A Sns Def . β Ag = β g ( i=1(Bs,i · g ∗(ts,i))) = 0 = h∗(0). Gehört s zu Seps, dann gilt g ∗((reduce ◦ EG∗ )ks (s)) = g ∗(par(seq(Bs,1, ts,1), . . . , seq(Bs,ns , ts,ns ), eps)) Ag Ag = parAg (seq Ag (Bs,1 , g ∗(ts,1)), . . . , seq Ag (Bs,ns , g ∗(ts,ns ), epsAg )) S s = ni=1 (Bs,i · g ∗(ts,i)) ∪ {}, (9) also (6) h∗(δ(in(s))) = δ Ag (h∗(in(s))) = δ Ag (g ∗((reduce ◦ EG∗ )ks (s))) S s (9) A Sns = δ g ( i=1(Bs,i · g ∗(ts,i)) ∪ {}) = λx.δ Ag ( ni=1 (Bs,i · g ∗(ts,i)) ∪ {})(x) S s Def . δ Ag = λx.{w ∈ X ∗ | xw ∈ ni=1 (Bs,i · g ∗(ts,i)) ∪ {}} S s = λx.{w ∈ X ∗ | xw ∈ ni=1 (Bs,i · g ∗(ts,i))} wie oben = h∗(σS∗ (λx.par(ite(x ∈ Bs,1, ts,1, mt), . . . , ite(x ∈ Bs,ns , ts,ns , mt)))) 388 und (6) h∗(β(in(s))) = β Ag A(h∗(in(s))) = β Ag (g ∗((reduce ◦ EG∗ )ks (s))) (9) A Sns Def . β Ag = β g ( i=1(Bs,i · g ∗(ts,i)) ∪ {}) = 1 = h∗(1). o Satz 18.8 AsolG ist die einzige coinduktive Lösung von E = BRE ∪ rec(EG) in P(X). Proof. Nach Satz 18.3 (i) ist solG eine Lösung von EG in Lang(X). Also wird rec(EG) nach Satz 18.7 von AsolG erfüllt. Nach Beispiel 17.10 wird auch BRE von AsolG erfüllt. Folglich ist AsolG nach Satz 17.7 die einzige Lösung von E in P(X). o ∗ ∗ Da χ : P(X ∗) → 2X (siehe 2.7) und die Bijektion ξ : 2X → DTAcc(X) von Beispiel 2.20 Σ-homomorph sind, wird E auch von den Bildalgebren χ(AsolG ) und ξ(χ(AsolG )) erfüllt. Folglich ist χ(AsolG ) bzw. ξ(χ(AsolG )) nach Satz 17.7 die einzige coinduktive Lösung von E in χ(P(X)) = Beh(X, 2) bzw. ξ(χ(P(X))) = ξ(Beh(X, 2)) = DTAcc(X). Satz 18.9 solG ist die einzige Lösung von EG in Lang(X). Beweis. Sei sol eine weitere Lösung von EG in Lang(X). Dann sind nach Satz 18.7 sind AsolG und Asol coinduktive Lösungen von E in P(X). Nach Satz 18.8 stimmen sie miteinander überein. Also sind auch solG und sol gleich. o 389 rec(EG) legt folgende Erweiterung des Brzozowski-Automaten Bro(BS) zur Reg(BS)0Algebra Bro(BS)0 nahe: Für alle s ∈ S, 0 δ Bro(BS) (in(s)) = λx.σS∗ (par(ite(x ∈ Bs,1, ts,1, mt), . . . , ite(x ∈ Bs,ns , ts,ns , mt))), 0 β Bro(BS) (in(s)) = if s ∈ Seps then 1 else 0. Sei Lang(X)0 = AsolG |Reg(BS)0 , regB 0 = χ(AsolG )|Reg(BS)0 , regC 0 = ξ(χ(AsolG ))|Reg(BS)0 und Σ = Reg(BS)0 ∪ DΣ. Bro(BS)0 stimmt mit der zur Σ-Algebra erweiterten Termalgebra TReg(BS)0 überein (siehe Satz 17.7). Demnach gelten die Gleichungen 0 0 fold Lang(X) = unfold Bro(BS) : Bro(BS)0 → P(X), 0 0 fold regB = unfoldB Bro(BS) : Bro(BS)0 → Beh(X, 2), 0 0 fold regC = unfoldC Bro(BS) : Bro(BS)0 → DTAcc(X), (10) (11) (12) was die Acc(X)-Homomorphie der drei Faltungen impliziert. Bro(BS)0, regB 0 und regC 0 sind in Compiler.hs durch accT rules, regB rules bzw. regC rules implementiert. Hierbei ist rules eine Liste der Regeln von G. Alle drei Algebren-Implementierungen verwenden die Funktion eqs rules, die σS∗ ◦ EG berechnet. 390 0 0 Sei s ∈ S. Die obigen Definitionen von δ Bro(BS) (in(s)) bzw. β Bro(BS) (in(s)) sind in der Implementierung von accT rules von Bro(BS)0 durch die Gleichungen 0 0 δ Bro(BS) (in(s)) = δ Bro(BS) (σS∗ (EG(s))), β Bro(BS)0 (in(s)) = β Bro(BS)0 (13) (σS∗ (EG(s))) realisiert. Wegen der Nicht-Linksrekursivität von G garantiert Haskells lazy evaluation, 0 0 dass für jeden Reg(BS)0-Grundterm t die Reduktionen von δ Bro(BS) (t) und β Bro(BS) (t) mit Hilfe von BRE und (13) terminieren und die gewünschten Ergebnisse liefern. Wie lässt sich die zugrundeliegende Eindeutigkeit der Lösung von (13) in den “Variablen” 0 0 δ Bro(BS) ◦ in und β Bro(BS) ◦ in nachweisen? 0 0 Aus (10), der Eindeutigkeit von unfoldB Bro(BS) und unfoldC Bro(BS) und der Acc(X)Homomorphie von χ und ξ folgt 0 0 0 unfoldB Bro(BS) = χ ◦ unfold Bro(BS) = χ ◦ fold Lang(X) , also auch 0 0 0 unfoldC Bro(BS) = ξ ◦ χ ◦ unfold Bro(BS) = ξ ◦ χ ◦ fold Lang(X) . 391 Also erkennt für alle Reg(BS)0-Grundterme t der initiale Automat (Bro(BS)0, t) die Spra0 che fold Lang(X) (t) von t (im Sinne von Abschnitt 2.11) und realisiert den Acc(X)-Coterm 0 ξ(χ(fold Lang(X) (t))) (im Sinne von Kapitel 20). Für Reg(BS)-Grundterme t haben wir das bereits in Beispiel 17.10 bzw. Abschnitt 17.11 gezeigt. Zusätzlich erhalten wir für alle s ∈ S: 0 (10) 0 0 unfold Bro(BS) (in(s)) = fold Lang(X) (in(s)) = inLang(X) (s) = solG(s) = L(G)s. (14) Also erkennt der initiale Automat (Bro(BS)0, in(s)) die Sprache von G, realisiert also deren charakteristische Funktion: 0 (14) 0 unfoldB Bro(BS) (in(s)) = χ(unfold Bro(BS) (in(s))) = χ(L(G)s), (15) und den entsprechenden Acc(X)-Coterm: 0 (14) 0 unfoldC Bro(BS) (in(s)) = ξ(χ(unfold Bro(BS) (in(s)))) = ξ(χ(L(G)s)). (16) Daraus folgt 0 0 (11) 0 (15) 0 0 (12) 0 (16) inregB (s) = fold regB (in(s)) = unfoldB Bro(BS) (in(s)) = χ(L(G)s), inregC (s) = fold regC (in(s)) = unfoldC Bro(BS) (in(s)) = ξ(χ(L(G)s)). (17) (18) 392 0 0 Die durch (17) und (18) gegebenen Definitionen von inregB bzw. inregC sind in den Implementierungen regB rules von regB 0 und regC rules von regC 0 durch die Gleichungen 0 0 0 0 inregB = fold regB ◦ σS∗ ◦ EG, inregC = fold regC ◦ σS∗ ◦ EG (19) realisiert. Wieder garantiert Haskells lazy evaluation wegen der Nicht-Linksrekursivität von G, dass 0 0 für jeden Reg(BS)0-Grundterm t die Reduktionen von fold regB (t) und fold regC (t) mit 0 0 Hilfe der induktiven Definition von fold regB bzw. fold regC und (19) terminieren und die gewünschten Ergebnisse liefern. Wie lässt sich die zugrundeliegende Eindeutigkeit der Lösung von (19) in den “Variablen” 0 0 inregB und inregC nachweisen? Sei t ∈ TReg(BS)0 und v = fold Regword (BS)(t). Im Haskell-Modul Compiler.hs entspricht der 0 0 0 Erkenner fold regB (t), unfoldB DTAcc(X) (fold regC (t)) bzw. unfoldB Bro(BS) (t) dem Aufruf regToAlg file v n mit n = 1, n = 2 bzw. n = 3, wobei die Datei file die Regeln von G enthält. Der Aufruf startet eine Schleife, die nach der Eingabe von Wörtern w fragt, auf die er angewendet werden soll, um zu prüfen, ob w zu L(G)t gehört oder nicht. 393 19 Interpretation in stetigen Algebren Eine Menge A ist halbgeordnet, wenn es eine Halbordnung, also eine reflexive, transitive und antisymmetrische binäre Relation auf A gibt. Eine Teilmenge {ai | i ∈ N} von A heißt ω-Kette, wenn für alle i ∈ N ai ≤ ai+1 gilt. Eine halbgeordnete Menge A heißt ω-CPO (ω-complete partially ordered set), wenn A ein bzgl. ≤ kleinstes Element ⊥ und Suprema ti∈Nai aller ω-Ketten {ai | i ∈ N} von A enthält. Für jede Menge A liefert die flache Erweiterung, A⊥ =def A + {⊥}, einen ω-CPO: Die zugrundeliegende Halbordnung ≤ ist {(a, b) ∈ A2 | a = ⊥ ∨ a = b}. Der ω-CPO der partiellen Funktionen von A nach B Für alle f, g : A (→ B, f ≤ g ⇔def def (f ) ⊆ def (g) ∧ ∀ a ∈ def (f ) : f (a) = g(a). Die nirgends definierte Funktion Ω : A (→ B mit def (Ω) =def ∅ ist das kleinste Element von A (→ B bzgl. ≤. 394 Jede ω-Kette f0 ≤ f1 ≤ f2 ≤ . . . von A (→ B hat das folgende Supremum: Für alle a ∈ A, ( fi(a) falls ∃ i ∈ N : a ∈ def (fi), (ti∈Nfi)(a) =def undefiniert sonst. Ein Produkt A1 ×· · ·×An von n ω-CPOs wie auch die Menge AB aller Funktionen von einer Menge B in einen ω-CPO A bilden selbst ω-CPOs: Die Halbordnungen auf A1, . . . , An bzw. A werden – wie im Abschnitt Kongruenzen und Quotienten beschrieben – zur Halbordnung auf A1 × · · · × An bzw. AB geliftet. Das kleinste Element von A1 × · · · × An ist das n-Tupel der kleinsten Elemente von A1, . . . , An. λx.⊥ ist das kleinste Element von AB , wobei ⊥ das kleinste Element von B ist. Suprema sind komponenten- bzw. argumentweise definiert: Für alle ω-Ketten a0 = (a0,1, . . . , a0,n) ≤ a1 = (a1,1, . . . , a1,n) ≤ a2 ≤ . . . von A1 × · · · × An, ti∈N ai =def (ti∈Nai,0, . . . , ti∈Nai,n). (2) Für alle ω-Ketten f0 ≤ f1 ≤ f2 ≤ . . . von B A und a ∈ A, (ti∈Nfi)(a) =def ti∈Nfi(a). (3) 395 Seien A, B halbgeordnete Mengen. Eine Funktion f : A → B ist monoton, wenn für alle a, b ∈ A gilt: a ≤ b ⇒ f (a) ≤ f (b). f ist strikt, wenn f das kleinste Element ⊥A von A auf das kleinste Element ⊥B von B abbildet. Ist A ein Produkt, dann bildet eine strikte Funktion f nicht nur ⊥A, sondern jedes Tupel von A, das ein kleinstes Element enthält, auf ⊥B ab. Seien A, B ω-CPOs. f ist ω-stetig (ω-continuous), wenn f (ti∈Nai) = ti∈Nf (ai) für alle ω-Ketten {ai | i ∈ N} von A gilt. ω-stetige Funktionen sind monoton. Sei A →c B die Menge aller ω-stetigen Funktionen von A nach B. A →c B ist ein ω-CPO, weil Ω und die Suprema ω-Ketten ω-stetiger Funktionen (siehe (2)) selbst ω-stetig sind. Sei Σ = (S, I, F ) eine konstruktive Signatur und A eine Σ-Algebra. A ist monoton, wenn es für alle s ∈ S eine Halbordnung ≤s,A ⊆ A2s und ein bzgl. ≤s,A kleinstes Element ⊥s,A gibt und für alle f ∈ F f A monoton ist. A ist ω-stetig, wenn A monoton ist, für alle s ∈ S As ein ω-CPO ist und für alle f ∈ F f A ω-stetig ist. 396 Fixpunktsatz von Kleene Sei A ein ω-CPO und f : A → A ω-stetig. Da f monoton ist, erhalten wir die ω-Kette ⊥ ≤ f (⊥) ≤ f 2(⊥) ≤ . . . . Deren Supremum lfp(f ) =def tn∈N f n(⊥) ist der (bzgl. ≤) kleinste Fixpunkt von f (siehe [32]). o Anwendung auf iterative Gleichungssysteme Sei E : V → TΣ(V ) ein iteratives Σ-Gleichungssystem (siehe Kapitel 18) und A eine ωstetige Σ-Algebra. Dann können die Halbordnungen, kleinsten Elemente und Suprema von A, wie in Kapitel 2 beschrieben, nach AV geliftet werden, d.h. AV ist ein ω-CPO. Die Funktion EA : AV → AV mit EA(g) = g ∗ ◦ E für alle g ∈ AV nennen wir Schrittfunktion von E. Offenbar wird E von g genau dann in A gelöst, wenn g ein Fixpunkt von EA ist. 397 Nach [5], Proposition 4.13, ist EA ω-stetig. Also folgt aus dem Fixpunktsatz von Kleene, dass (1) lfp(EA) = tn∈N EAn (λx.⊥A) der kleinste Fixpunkt von EA in A ist. Für alle strikten und ω-stetigen Σ-Homomorphismen h : A → B gilt: h ◦ lfp(EA) = lfp(EB (h)). (2) Beweis. Für alle g ∈ AV , h ◦ EA(g) Def . EA = 3.7(1) h ◦ g ∗ ◦ E = (h ◦ g)∗ ◦ E = EB (h ◦ g). (3) Wir nehmen an, dass für alle n ∈ N Folgendes gilt: h ◦ EAn (λx.⊥A) = EB (h)n(λx.⊥B ). (4) Aus (4) folgt (2): h ◦ lfp(EA) = h ◦ tn∈NEAn (λx.⊥A) h ω−stetig = tn∈N(h ◦ EAn (λx.⊥A)) (4) = tn∈NEB (h)n(λx.⊥B ) = lfp(EB (h)). 398 Zu zeigen bleibt (4). Sei n > 0. h ◦ EA0 (λx.⊥A) = h ◦ λx.⊥A h strikt = λx.⊥B = EB (h)0(λx.⊥B ), (3) h ◦ EAn (λx.⊥A) = h ◦ EA(EAn−1(λx.⊥A)) = EB (h)(h ◦ EAn−1(λx.⊥A)) ind. hyp. = EB (h)(EB (h)n−1(λx.⊥B )) = EB (h)n(λx.⊥B ). o Iterative Gleichungssysteme dienen u.a. der Spezifikation partieller Funktionen. Sind z.B. zwei partielle Funktionen f, g gegeben, dann ist die Gleichung h = g ◦ h ◦ f zunächst nur eine Bedingung an eine dritte Funktion h. Die aus der Gleichung gebildete Schrittfunktion λh.(g ◦ h ◦ f ) : (A (→ B) → (A (→ B) ist ω-stetig und hat deshalb nach dem Fixpunktsatz von Kleene einen kleinsten Fixpunkt, der als denotationelle Semantik von h bezeichnet wird. 19.1 Schleifensemantik Sei Σ die abstrakte Syntax von JavaLight (siehe Beispiel 4.6) zusammen mit zwei Konstanten e : 1 → Disjunct und c : 1 → Command . Sei Sem die Σ(JavaLight)-Algebra javaState (siehe 16.5) zusammen mit Interpretationen f ∈ javaState Disjunct von e und g ∈ javaState Command von c. 399 Sem ist ω-stetig. Sei V = {x : Command }, E das iterative Σ-Gleichungssystem E : V → TΣ(V ) x 7→ cond(e, block(seq(c, x)), id) und ESem die Schrittfunktion von E (s.o.). Der kleinste Fixpunkt von ESem liefert uns die Interpretation von loop(e, c) in Sem: loopSem (f, g) =def lfp(ESem )(x) : Store (→ Store. Die Interpretation der anderen Operationen von JavaLight in Sem ergibt sich direkt aus ihrer Haskell-Implementierung in Abschnitt 11.5. Die dortige Haskell-Funktion loop :: St Bool -> St Store -> St Store loop f g = cond f (loop f g . g) id implementiert loopSem . Für alle st ∈ Store terminiert loop(f )(g)(st) genau dann, wenn loopSem (f, g)(st) definiert ist. o 400 19.2 Semantik der Assemblersprache StackCom ∗ Auch jede Befehlsfolge cs ∈ StackCom ∗ lässt sich als iteratives Gleichungssystem eqs(cs) darstellen. Im Gegensatz zum vorigen Abschnitt liegt hier wie in Abschnitt 18.2 der einfache Fall I = ∅ vor. Die konstruktive Signatur Σ(StackCom), aus deren Operationssymbolen die Terme von eqs(cs) gebildet sind, lautet wie folgt: Σ(StackCom) = ( {com}, {Z, String}, F ), F = { push : Z → com, load, save, cmp : String → com, pop, add, sub, mul, div, or, and, inv, nix : 1 → com, cons, fork : com × com → com }. push, load, save, cmp, pop, add, sub, mul, div, or, and, inv entsprechen den Konstruktoren von StackCom. nix, cons, fork ersetzen die Sprungbefehle von StackCom (s.u.). Sei Eqs die Menge der iterativen Σ(Stackcom)-Gleichungssysteme mit Variablen aus N. Die folgendermaßen definierte Funktion eqs : StackCom ∗ → Eqs übersetzt Assemblerprogramme in solche Gleichungssysteme: 401 Sei cs ∈ StackCom ∗ und V (cs) die Menge der Nummern der Sprungziele von cs, also V (cs) = {0} ∪ {n < |cs| | Jump(n) ∈ cs ∨ JumpF (n) ∈ cs}. eqs(cs) : V (cs) → TΣ(StackCom)(V (cs)) n 7→ mkTerm(drop(n)(cs)) mkTerm : StackCom ∗ → TΣ(StackCom)(V (cs)) 7→ nix n nix c : cs0 7→ fork (n, mkTerm(cs0)) fork (nix, mkTerm(cs0)) cons(c, mkTerm(cs0)) falls c = Jump(n) ∧ n < |cs| falls c = Jump(n) ∧ n ≥ |cs| falls c = JumpF (n) ∧ n < |cs| falls c = JumpF (n) ∧ n ≥ |cs| sonst 402 Beispiel Das Assemblerprogramm von Abschnitt 12.5 zur Berechnung der Fakultätsfunktion lautet als iteratives Σ(Stackcom)-Gleichungssystem wie folgt: E : {0, 3} → TΣ(StackCom)({0, 3}) 0 7→ cons(push(1), cons(save(fact), cons(pop, 3))) 3 7→ cons(load(x), cons(push(1), cons(cmp(>), fork (nix, cons(load(fact), cons(load(x), cons(mul, cons(save(fact), cons(pop, cons(load(x), cons(push(1), cons(sub, cons(save(x), cons(pop, 3)))))))))))))) In Abschnitt 16.5 haben wir informell gezeigt, dass compJava(javaStack ) ein Compiler für JavaLight bzgl. javaState ist, was laut Kapitel 5 impliziert, dass folgendes Diagramm kommutiert: TΣ(JavaLight) fold javaState g javaState fold javaStack javaStack (1) encode evaluate g Mach = State (→ State 403 Hier sind • javaStack die in Abschnitt 12.5 definierte, zur JavaLight-Algebra erweiterte Assemblersprache StackCom ∗, • javaState das in Abschnitt 11.5 und 19.1 definierte Zustandsmodell von JavaLight, • Mach der ω-CPO der partiellen Funktionen auf der Zustandsmenge State = Z∗ × ZString , deren Paare aus jeweils einem Kellerinhalt und einer Speicherbelegung bestehen (siehe 12.5), • encode und evaluate wie in Abschnitt 16.5 definiert. Mach : State (→ State wird zunächst zu einer ω-stetigen Σ(StackCom)-Algebra erweitert: Für alle f, g : State (→ State, ⊗ ∈ {add, sub, mul, div, or, and}, (stack, store) ∈ State, a ∈ Z und x ∈ String, pushMach (i)(stack, store) = (a : stack, store), loadMach (x)(stack, store) = (store(x) : stack, store), saveMach (x)(stack, store) = (stack, update(store)(x)(a)), 404 cmpMach (x)(stack, store) = (1 : s, store) falls ∃ a, b, s : stack = a : b : s ∧ evalRel(x)(a)(b), (0 : s, store) falls ∃ a, b, s : stack = a : b : s ∧ ¬evalRel(x)(a)(b), undefiniert sonst, ( (s, store) falls ∃ a, s : stack = a : s, popMach (stack, store) = undefiniert sonst, ( (op(⊗)(b, a) : s, store) falls ∃ a, b, s : stack = a : b : s, ⊗Mach (stack, store) = undefiniert sonst, ( ((a + 1) mod 2 : stack, store) falls ∃ a, s : stack = a : s, inv Mach (stack, store) = undefiniert sonst, nixMach (stack, store) = (stack, store), consMach (f, g) = g ◦ f, fork Mach (f, g)(stack, store) = f (s, store) falls ∃ s : stack = 0 : s, g(s, store) falls ∃ a, s : stack = a : s ∧ a 6= 0, undefiniert sonst, 405 wobei op(add) = (+), op(sub) = (−), op(mul) = op(and) = (∗), op(div) = (/) und op(or) = sign ◦ (+). Sei cs ∈ StackCom ∗. Nach dem Fixpunktsatz von Kleene hat das iterative Σ(StackCom)Gleichungssystem eqs(cs) (s.o.) eine kleinste Lösung in Mach. Sie liefert uns die Funktion execute von Abschnitt 12.5: Für alle cs ∈ StackCom ∗ und n ∈ V (cs), execute(cs) = lfp(eqs(cs)Mach ) : V (cs) → Mach. (4) Tatsächlich entspricht execute0 der Haskell-Funktion execute in Abschnitt 12.5. Im Folgenden wird Mach so zu einer JavaLight-Algebra erweitert, dass execute und encode JavaLight-homomorph werden und aus der Initialität von TΣ(JavaLight) die Kommutativität von (1) folgt (siehe Kapitel 5). Für alle Sorten s von JavaLight, Mach s = State (→ State. Für alle op ∈ {seq, sum, prod, disjunct, conjunct} und f, g : State (→ State, opMach (f, g) = g ◦ f. Für alle op ∈ {embed, block, encloseS, embedC, embedL, encloseD}, opMach = idState(→State . nilS Mach = nilP Mach = idState . 406 Für alle x ∈ String und f : State (→ State, assignMach (x, f ) = popMach ◦ saveMach (x) ◦ f. Für alle f, g, h : State (→ State, condMach (f, g, h) = fork Mach (h, g) ◦ f . Für alle f, g : State (→ State, cond1Mach (f, g) = fork Mach (idMach , g) ◦ f . Für alle f, g : State (→ State, loopMach (f, g) = lfp(EMach )(x), wobei E : {x} → TΣ(StackCom)({x, f, g}) x 7→ cons(f, fork (nix, cons(g, x))) Für alle f, g : State (→ State, sumsectMach (+, f, g) = g ◦ addMach ◦ f, sumsectMach (−, f, g) = g ◦ subMach ◦ f, prodsectMach (∗, f, g) = g ◦ mulMach ◦ f, prodsectMach (/, f, g) = g ◦ div Mach ◦ f. embedI Mach = pushMach . varMach = loadMach . Für alle f : State (→ State, notMach (f ) = inv Mach ◦ f . 407 Für alle x ∈ String und f, g : State (→ State, atomMach (f, x, g) = cmpMach (x) ◦ g ◦ f. Für alle b ∈ 2, embedB Mach (b) = pushMach (b). Erweiterte Σ-Bäume Eine monotone bzw. ω-stetige Σ-Algebra T ist initial in der Klasse PAlg Σ bzw. CAlg Σ aller monotonen bzw. ω-stetigen Σ-Algebren, wenn es zu jeder monotonen bzw. ω-stetigen Σ-Algebra A genau einen strikten (!) und monotonen bzw. ω-stetigen Σ-Homomorphismus A fold A fin : T → A bzw. fold ω : T → A gibt. Alle initialen monotonen bzw. ω-stetigen Σ-Algebren sind durch strikte und monotone bzw. ω-stetige Σ-Isomorphismen miteinander verbunden. Sei Σ⊥ = (S, BS, BF, F ∪ {⊥s : 1 → s | s ∈ S}) und ≤ die kleinste reflexive, transitive und Σ-kongruente S-sortige Relation auf CTΣ⊥ derart, dass für alle s ∈ S and t ∈ CTΣ⊥,s, ⊥s ≤ t, wobei ⊥s hier den Baum bezeichnet, der aus einem mit ⊥s markierten Blatt besteht. Er bildet offenbar das bzgl. ≤ kleinste Element. F TΣ⊥ ist eine monotone und CTΣ⊥ eine ω-stetige Σ-Algebra (siehe [32]). o 408 Satz 19.3 F TΣ⊥ ist initial in PAlg Σ. CTΣ⊥ ist initial in CAlg Σ. Beweisskizze. Sei A eine monotone und B eine ω-stetige Σ-Algebra. Zwei S-sortige FunkB tionen fold A fin : F TΣ⊥ → A und fold ω : F TΣ⊥ → B erhält man wie folgt: Für alle s ∈ S und t ∈ F TΣ⊥,s und u ∈ CTΣ⊥,s, ( ⊥s,A falls t = ⊥s, fold A (t) = def fin A f A(fold A fin (λw.t(iw)), . . . , fold fin (λw.t(iw))) sonst, B fold B ω (u) =def tn∈N fold fin (u|n ), wobei für alle n ∈ N und w ∈ N∗>0, ( u|n(w) =def u(w) falls |w| ≤ n, undefiniert sonst. B Zum Nachweis der geforderten Eigenschaften von fold A fin und fold ω , siehe [5, 32]. o Die Faltung fold A ω (u) eines Σ-Baums u in A ist also das Supremum von Faltungen der endlichen Präfixe u|0, u|1, u|2, . . . von u. 409 Satz 19.4 Jedes iterative Σ-Gleichungssystem E : V → TΣ(V ) hat genau eine Lösung in CTΣ. Beweis. Sei g : V → CTΣ⊥ eine Lösung von E in CTΣ⊥ . Da lfp(ECTΣ ) die kleinste ⊥ Lösung von E in CTΣ⊥ ist, gilt: lfp(ECTΣ ) ≤ g. (5) ⊥ Durch Induktion über n lässt sich zeigen, dass für alle x ∈ V und n ∈ N gilt: n+1 def (g(x)) ∩ Nn ⊆ def (ECT (λx.⊥)(x)) Σ (6) ⊥ (siehe [25], Satz 17). Aus (6) folgt für alle x ∈ V : def (g(x)) ⊆ def n (tn∈NECT Σ ⊥ (λx.⊥)(x)) Def . lfp(ECT ) Σ = ⊥ def (lfp(ECTΣ )(x)), also g(x) = lfp(ECTΣ )(x) ∈ CTΣ wegen (5) und nach Definition von ≤. ⊥ ⊥ o Ein Σ-Baum heißt rational, wenn er nur endlich viele Unterbäume hat. Jeder Pfad eines rationalen Baums ist endlich oder periodisch. Rationale Bäume können als endliche Graphen dargestellt werden, deren Zyklen aus den Pfad-Perioden entstehen. Solche Graphen entsprechen iterativen Gleichungssystemen (siehe Kapitel 18). Ein Σ-Baum ist also genau dann rational, wenn er zum Bild der Lösung eines iterativen Σ-Gleichungssystems in CTΣ⊥ oder CTΣ gehört. 410 Beispiel loop Sei Σ = Σ(JavaLight). Die eindeutige Lösung sol : {x} → CTΣ({b, c}) des iterativen Σ-Gleichungssystems E : {x} → TΣ({x, b, c}) von Abschnitt 19.1 hat folgende Graphdarstellung: Für alle w ∈ N∗, cond b block sol(x)(w) = id seq c falls w ∈ (212)∗ falls w ∈ (212)∗1 falls w ∈ (212)∗2 falls w ∈ (212)∗3 falls w ∈ (212)∗21 falls w ∈ (212)∗211 411 Beispiel StackCom Sei Σ = Σ(StackCom) und cs das Assemblerprogramm von Beispiel 12.6. Die eindeutige Lösung sol : {0, 3} → CTΣ des iterativen Σ-Gleichungssystems eqs(cs) : {0, 3} → TΣ({0, 3}) von Abschnitt 19.2 hat folgende Graphdarstellung: 412 sol(3) = sol(0) = 413 Offenbar repräsentiert jeder Pfad des Σ-Baums sol(0) eine – möglicherweise unendliche – Kommandofolge, die einer Ausführungssequenz von cs entspricht. o Beispiel Sei Σ = Σ(StackCom). Die eindeutige Lösung sol : {x} → CTΣ({b, c}) des iterativen Σ-Gleichungssystems E : {x} → TΣ({x, b, c}), dessen kleinste Lösung in Mach den Konstruktor loop von Σ(StackCom) in Mach interpretiert (siehe 19.2), hat folgende Graphdarstellung: sol(x) = 414 Sei cs ∈ StackCom ∗. Da fold Mach strikt, ω-stetig und Σ-homomorph ist, folgt ω execute0(cs) = fold Mach ◦ lfp(eqs(cs)CTΣ ) : V (cs) → Mach ω (7) aus (2) und (4). Die Ausführung von cs im Zustand state ∈ State liefert also dasselbe – möglicherweise undefinierte – Ergebnis wie die Faltung des Σ-Baums lfp(eqs(cs)CTΣ )(state) in Mach. o Cosignaturen und ihre Algebren Die eindeutige Lösung eines iterativen Σ-Gleichungssystems E in CTΣ lässt sich nicht nur als kleinsten Fixpunkt von ECTΣ darstellen, sondern auch als Entfaltung einer Coalgebra. Dies folgt aus der Tatsache, dass CTΣ eine finale coΣ-Algebra ist, wobei coΣ die folgendermaßen aus (der konstruktiven Signatur) Σ = (S, I, F ) gebildete destruktive Signatur ist: ` coΣ = (S, I, {ds : s → f :e→s∈F e | s ∈ S}). ` Hier bezeichnet f :e→s∈F e das Coprodukt der Domains e aller Konstrukturen von F mit Range s. Das bedeutet, dass ds in einer coΣ-Algebra A als Funktion von As in die disjunkte Vereinigung ] Ae = {(a, f ) | a ∈ Ae, f : e → s ∈ F } f :e→s∈F interpretiert wird 415 Z.B. lautet die Interpretation von ds in CTΣ wie folgt: Für alle s ∈ S und t ∈ CTΣ,s mit n-stelligem Operationssymbol t(), Σ (t) = dCT def ((λw.t(1w), . . . , λw.t(nw)), t()). s CTΣ ist also nicht nur eine Σ-Algebra, sondern auch eine coΣ-Algebra. Mehr noch: Satz 19.5 CTΣ ist eine finale coΣ-Algebra. Beweis. Sei A eine coΣ-Algebra. Die S-sortige Funktion unfold A : A → CTΣ ist wie folgt definiert: Sei s ∈ S, a ∈ As, i > 0, w ∈ N∗ und dA s (a) = ((a1 , . . . , an ), f ). unfold A(a)() = f, ( unfold A(ai)(w) falls 1 ≤ i ≤ n, A unfold (a)(iw) = undefiniert sonst. Der Nachweis der geforderten Eigenschaften von unfold A wird in [32] geführt. o 416 Sei E : V → TΣ(V ) ein iteratives Σ-Gleichungssystem. E macht TΣ(V ) zur coΣ-Algebra T E : Für alle s ∈ S, f : e → s ∈ F , t ∈ TΣ(V )e und x ∈ Vs, TsE =def TΣ(V )s, E dTs (f t) =def (t, f ), E E dTs (x) =def dTs (E(x)). incV (8) V → T T E unfold → E CTΣ löst E in CTΣ (siehe [32]). (9) g : V → CTΣ löst E genau dann in CTΣ, wenn g ∗ : T E → CTΣ coΣ-homomorph ist (siehe [32]). 417 Satz 19.6 (coalgebraische Version von Satz 19.4) Jedes iterative Σ-Gleichungssystem E : V → TΣ(V ) hat genau eine Lösung in CTΣ. Beweis. Wegen (8) hat E eine Lösung in CTΣ. Angenommen, g, h : V → CTΣ lösen E in CTΣ. Dann sind g ∗, h∗ : T E → CTΣ wegen (9) coΣ-homomorph. Da CTΣ eine finale coΣ-Algebra ist, gilt g ∗ = h∗, also g = g ∗ ◦ incV = h∗ ◦ incV = h. o Sei cs ∈ StackCom ∗. Aus (7), (8) und Satz 19.4 (oder 19.6) folgt, dass execute0 die Entfaltung von V (cs) in CTΣ mit der Faltung der entstandenen Σ-Terme in Mach verknüpft: V (cs) incV execute0 fold Mach ω = g TE unfold Mach f TE CTΣ 418 Literatur [1] M. Bonsangue, J. Rutten, A. Silva, An Algebra for Kripke Polynomial Coalgebras, Proc. 24th LICS (2009) 49-58 [2] J.A. Brzozowski, Derivatives of regular expressions, Journal ACM 11 (1964) 481–494 [3] H. Comon et al., Tree Automata: Techniques and Applications, link, Inria 2008 [4] J. Gibbons, R. Hinze, Just do It: Simple Monadic Equational Reasoning, Proc. 16th ICFP (2011) 2-14 Jeremy Gibbons and Ralf Hinze [5] J.A. Goguen, J.W. Thatcher, E.G. Wagner, J.B. Wright, Initial Algebra Semantics and Continuous Algebras, Journal ACM 24 (1977) 68-95 [6] H.H. Hansen, J. Rutten, Symbolic Synthesis of Mealy Machines from Arithmetic Bitstream Functions, CWI Report SEN-1006 (2010) [7] R. Hinze, Functional Pearl: Streams and Unique Fixed Points, Proc. 13th ICFP (2008) 189-200 [8] R. Hinze, D.W.H. James, Proving the Unique-Fixed Point Principle Correct, Proc. 16th ICFP (2011) 359-371 419 [9] J.E. Hopcroft, R. Motwani, J.D. Ullman, Introduction to Automata Theory, Languages, and Computation, Addison Wesley 2001; deutsch: Einführung in die Automatentheorie, Formale Sprachen und Komplexitätstheorie, Pearson Studium 2002 [10] G. Hutton, Fold and unfold for program semantics, Proc. 3rd ICFP (1998) 280-288 [11] B. Jacobs, Introduction to Coalgebra, draft, Radboud University Nijmegen 2012 [12] B. Jacobs, A Bialgebraic Review of Deterministic Automata, Regular Expressions and Languages, in: K. Futatsugi et al. (eds.), Goguen Festschrift, Springer LNCS 4060 (2006) 375–404 [13] B. Klin, Bialgebras for structural operational semantics: An introduction, Theoretical Computer Science 412 (2011) 5043-5069 [14] D. Knuth, Semantics of Context-Free Languages, Mathematical Systems Theory 2 (1968) 127-145; Corrections: Math. Systems Theory 5 (1971) 95-96 [15] D. Kozen, Realization of Coinductive Types, Proc. Math. Foundations of Prog. Lang. Semantics 27, Carnegie Mellon University, Pittsburgh 2011 [16] C. Kupke, J. Rutten, On the final coalgebra of automatic sequences, in: Logic and Program Semantics, Springer LNCS 7230 (2012) 149-164 [17] A. Kurz, Specifying coalgebras with modal logic, Theoretical Computer Science 260 (2001) 119–138 420 [18] P.J. Landin, The Mechanical Evaluation of Expressions, Computer Journal 6 (1964) 308–320 [19] W. Martens, F. Neven, Th. Schwentick, Simple off the shelf abstractions for XML Schema, SIGMOD Record 36,3 (2007) 15-22 [20] K. Meinke, J.V. Tucker, Universal Algebra, in: Handbook of Logic in Computer Science 1 (1992) 189 - 368 [21] E. Moggi, Notions of Computation and Monads, Information and Computation 93 (1991) 55-92 [22] F.L. Morris, Advice on Structuring Compilers and Proving Them Correct, Proc. ACM POPL (1973) 144-152 link [23] T. Mossakowski, L. Schröder, S. Goncharov, A Generic Complete Dynamic Logic for Reasoning About Purity and Effects, Proc. FASE 2008, Springer LNCS 4961 (2008) 199-214 [24] R.N. Moll, M.A. Arbib, A.J. Kfoury, Introduction to Formal Language Theory, Springer (1988) [25] P. Padawitz, Church-Rosser-Eigenschaften von Graphgrammatiken und Anwendungen auf die Semantik von LISP, Diplomarbeit, TU Berlin 1978 [26] P. Padawitz, Formale Methoden des Systementwurfs, TU Dortmund 2015 421 [27] P. Padawitz, Übersetzerbau, TU Dortmund 2015 [28] P. Padawitz, Modellieren und Implementieren in Haskell, TU Dortmund 2015 [29] P. Padawitz, Logik für Informatiker, TU Dortmund 2015 [30] P. Padawitz, Algebraic Model Checking, in: F. Drewes, A. Habel, B. Hoffmann, D. Plump, eds., Manipulation of Graphs, Algebras and Pictures, Electronic Communications of the EASST Vol. 26 (2010) [31] P. Padawitz, From Modal Logic to (Co)Algebraic Reasoning, TU Dortmund 2013 [32] P. Padawitz, Fixpoints, Categories, and (Co)Algebraic Modeling, TU Dortmund 2016 [33] H. Reichel, An Algebraic Approach to Regular Sets, in: K. Futatsugi et al., Goguen Festschrift, Springer LNCS 4060 (2006) 449-458 [34] W.C. Rounds, Mappings and Grammars on Trees, Mathematical Systems Theory 4 (1970) 256-287 [35] J. Rutten, Processes as terms: non-wellfounded models for bisimulation, Math. Struct. in Comp. Science 15 (1992) 257-275 [36] J. Rutten, Automata and coinduction (an exercise in coalgebra), Proc. CONCUR ’98, Springer LNCS 1466 (1998) 194–218 422 [37] J. Rutten, Behavioural differential equations: a coinductive calculus of streams, automata, and power series, Theoretical Computer Science 308 (2003) 1-53 [38] J. Rutten, A coinductive calculus of streams, Math. Struct. in Comp. Science 15 (2005) 93-147 [39] A. Silva, J. Rutten, A coinductive calculus of binary trees, Information and Computation 208 (2010) 578–593 [40] D. Turi, G. Plotkin, Towards a Mathematical Operational Semantics, Proc. LICS 1997, IEEE Computer Society Press (1997) 280–291 [41] J.W. Thatcher, E.G. Wagner, J.B. Wright, More on Advice on Structuring Compilers and Proving Them Correct, Theoretical Computer Science 15 (1981) 223-249 [42] J.W. Thatcher, J.B. Wright, Generalized Finite Automata Theory with an Application to a Decision Problem of Second-Order Logic, Theory of Computing Systems 2 (1968) 57-81 [43] Ph. Wadler, Monads for Functional Programming, Proc. Advanced Functional Programming, Springer LNCS 925 (1995) 24-52 [44] R. Wilhelm, H. Seidl, Übersetzerbau - Virtuelle Maschinen, Springer 2007 423 Index C-Abschluss, 355 E-Normalform, 100 E-Reduktionsrelation, 100 E-Äquivalenz, 97 DAut(X, Y ), 34 Σ(JavaLight), 121 Σ(XMLstore), 124 Σ-Algebra, 40 Σ-Gleichung, 89 Σ-Homomorphismus, 41 Σ-Isomorphismus, 41 Σ-Kongruenz, 87 Σ(G), 117 λ-Abstraktion, 206 λ-Applikation, 206 ω-CPO, 394 ω-stetig, 396 ω-stetige Funktion, 396 hai, 77 →c, 396 T (S, I), 29 state(ϕ), 183 (++), 216 abgeleitetes Attribut, 256 Abl(G), 129 Ableitungsbaum, 129 Ableitungsrelation, 114 absolute Adresse, 277 abstrakte Syntax, 117 Aktion eines Monoids, 70 all, 224 any, 224 Applikationsoperator, 210 Attribut, 230 Ausnahmefunktor, 141 Basisadresse, 277 424 Baumautomat, 80 Baumsprache, 80 Baumverhalten, 80 Befehlszähler, 276 Bild, 19 Bildalgebra, 41 bind-Operator, 145 bottom-up-Compiler, 177 Brzozowski-Automat, 60 Brzozowski-Gleichungen, 102 Calculus of Communicating Systems, 33 CCS(Act), 33 CFG, 109 charakteristische Funktion, 19 Coalgebra, 40 Coextension, 65 Coinduktion, 353, 357 Coinduktionsprinzip, 89 Compiler, 8 Compilermonade, 150 const, 213 Copotenzfunktor, 142 Coprodukt, 25, 415 Coterm, 47 curry, 214 denotationelle Semantik, 375, 399 destruktive Signatur, 30 Destruktor, 30, 230 deterministischer Baum, 18 Diagonale, 19 Diagonalfunktor, 140 Display, 277 Domain, 30 Domain-Tuplung, 25 drop, 217 eindeutig, 128 elem, 224 erkannte Baumsprache, 80 Erkennung einer Sprache, 71 Erreichbarkeitsfunktion, 61 425 execute, 272, 283 executeCom, 270 Extension, 62 Funktionsapplikation, 206 Funktionseinschränkung, 19 Funktionsprodukt, 24 Funktionssumme, 27 Funktionsupdate, 19 Funktor, 139 Färbung, 65 fail, 321 field label, 230 generischer Compiler, 155 filter, 224 Gleichungssystem einer CFG, 380 finale Algebra, 66 goto-Tabelle, 183 Fixpunktsatz für CFGs, 380 Fixpunktsatz für nicht-linksrekursive CFGs, Graph, 19 Grundcoterm, 48 389 Grundinstanz, 95 Fixpunktsatz von Kleene, 397 Grundterm, 46 flache Erweiterung von A, 394 flip, 214 halbgeordnete Menge, 394 fold, 63 Halbordnung, 394 fold2, 221 head, 216 foldl, 220 id, 213 foldr, 223 Identität, 14 Functor, 319 Identitätsfunktor, 140 Funktion höherer Ordnung, 208 Individuenvariable, 205, 212 426 Induktion, 346 Induktionsprinzip, 85 init, 217 initiale Algebra, 63, 408 initialer Automat, 71 Injektion, 25 Inklusion, 14 Instanz, 206 Instanz eines Terms, 95 Instanz eines Typs, 212 Instanzen von E, 97 Interpreter, 8 Invariante, 83 isomorph, 20, 41 iteratives Gleichungssystem, 378 JavaLight, 110 JavaLightP, 285 javaStackP, 289 Kategorie, 138 kausale Stromfunktion, 37 Kern, 19, 88 Kompositionsoperator, 210 Kongruenz modulo C, 355 Konkatenation, 17 konstanter Funktor, 140 konstruktive Signatur, 30 Konstruktor, 30 kontextfreie Grammatik, 109 Lösung eines iterativen Gleichungssystems, 378 LAG-Algorithmus, 315 Lambeks Lemma, 348 last, 217 leere Wort, 16 Leserfunktor, 142 lines, 219 linksrekursive Grammatik, 114 Liste, 16 Listenfunktor, 141 Listenkomprehension, 225 LL-Compiler, 335 427 lookup, 229 LR(k)-Grammatik, 178 LR-Automat für G, 183 map, 218 mapM, 326 Matching, 206 Mengenfunktor, 141 Methode, 230 Monad, 321 Monade, 143 MonadPlus, 324 Monoid, 43 monomorph, 212 monotone Algebra, 396 monotone Funktion, 396 mplus, 324 mzero, 324 natürliche Abbildung, 88 notElem, 224 Operation, 40 Operationen, 30 Parser, 8, 138 Paull-Unger-Verfahren, 91 Plusmonade, 147 polymorph, 212 Potenzfunktor, 142 präfixabgeschlossen, 18 Produkt, 21 Produktextension, 21 Produktfunktor, 140 Produkttyp, 29 Projektion, 21 Quotientenalgebra, 87 Range, 30 Range-Tuplung, 21 rational, 410 rationaler Coterm, 52 rationaler Term, 50 Realisierung eines Coterms, 68 Rechtsreduktion, 177 428 Redukt, 348 Reduktionsfunktion, 100 Reg(BS), 33 Regel, 109 reguläre Sprache, 64 regulärer Ausdruck, 33 rekursives Ψ-Gleichungssystem, 347 Relativadresse, 277 Resultatadresse, 298 return, 321 SAB, 119 Scanner, 7 Schreiberfunktor, 142 Sektion, 209 sequence, 325 Signatur, 30 Sprache über A, 16 Sprache einer CFG, 128 Sprache eines regulären Ausdrucks, 64 StackCom, 270 State, 270 statischer Vorgänger, 277 strikt, 396 strukturell-operationelle Semantik, 374 Substitution, 94 Summe, 25 Summenextension, 25 Summentyp, 29 symbolische Adressen, 278 Symboltabelle, 287 syntaktische Kongruenz, 93 syntaktisches Monoid, 93 Syntaxbaum, 118, 128 tail, 216 take, 217 Term, 45 Termfaltung, 63 Terminal, 109 top-down-Parser, 157 Trägermenge, 40 429 transientes Attribut, 256 Transitionsfunktor, 142 Transitionsmonoid, 92 Typ, 38 typ, 29 Typdeskriptor, 283 Typklassen, 235 Typkonstruktor, 205 Typvariable, 205 typverträglich, 38, 39 uncurry, 214 unfold, 66 unit-Typ, 205 universelle Eigenschaft, 21 unlines, 219 Unteralgebra, 83 unwords, 219 update, 213 Urbild, 19 vererbtes Attribut, 256 Verhaltensfunktion, 58 Verhaltenskongruenz, 89 Wildcard, 212 wohlfundierter Baum, 18 Word(G), 127 words, 219 Wort, 16 Wortalgebra, 127 zip, 218 zipWith, 218 Zustandsentfaltung, 66 Zustandsmonade, 323 Variablenbelegung, 62 430