4 Sprachanalyse
9. Vorlesung: Syntaktisches Parsen
Semantische Interpretation
hier nur am Beispiel kontextfreier Grammatiken
Problem:
Gegeben ein Satz als Folge von Wörtern.
Finde den zugehörigen Syntaxbaum.
1. Grundmethode:
Bottom-up Parsing
Idee:
--> Beispiel 1
Die Syntaxregeln werden "rückwärts" benutzt, bis sich der Satz
auf das Startsymbol der Grammatik zurückführen läßt.
2. Grundmethode:
Top-down Parsing
Idee:
--> Beispiel 2
Beginne mit dem Startsymbol der Grammatik und expandiere
durch Ausdrücke, die nach den Grammatikregeln möglich sind.
!
"
he
s-maj –> s final-punc
s –> np vp
vp –> verb np
np –> det noun
np –> proper-noun
np –> pronoun
det –> the
det –> a
noun –> boy
noun –> frog
verb –> ate
verb –> loves
proper-noun –> Jack
proper-noun –> Bill
pronoun –> he
final-punc –> .
he
frog
.
ate
a
frog
.
ate
a
frog
.
a
frog
.
np
pronoun
he
np
pronoun
verb
he
a
pronoun
ate
ate
!
#
np
s-maj –> s final-punc
s –> np vp
vp –> verb np
np –> det noun
np –> proper-noun
np –> pronoun
det –> the
det –> a
noun –> boy
noun –> frog
verb –> ate
verb –> loves
proper-noun –> Jack
proper-noun –> Bill
pronoun –> he
final-punc –> .
pronoun
verb
det
ate
a
frog
verb
det
noun
ate
a
frog
he
.
np
pronoun
he
np
final-punc
pronoun
verb
det
noun
ate
a
frog
he
.
!
.
$
s
final-punc
np
pronoun
he
noun
a
frog
ate
he
det
noun
a
frog
a
frog
s
noun
final-punc
np
.
vp
pronoun
.
s-maj
np
verb
he
det
ate
np
verb
he
.
np
verb
final-punc
vp
pronoun
vp
pronoun
det
ate
np
np
np
verb
final-punc
det
noun
a
frog
ate
!
.
%
• Die Ersetzungsregeln sind zu interpretieren als
"<linke Seite> kann ersetzt werden durch <rechte Seite>".
• Wenn mehrere Regeln anwendbar sind, kann ein begonnener
Syntaxbaum u.U. nicht konsistent weitergebaut werden.
np
noun –> can
modal –> can
That can made him sick.
That can make him sick.
np
Einziger Weg:
• Solange durchprobieren, bis eine Kombination von Regelanwendungen gefunden wird, die einen vollständigen Syntaxbaum liefert.
• Bei mehreren voneinander unabhängigen Ambiguitäten:
exponentiell viele Möglichkeiten!
!
&
hier nur am Beispiel kontextfreier Grammatiken
Problem:
Gegeben ein Satz als Folge von Wörtern.
Finde den zugehörigen Syntaxbaum.
1. Grundmethode:
Bottom-up Parsing
Idee:
--> Beispiel 1
Die Syntaxregeln werden "rückwärts" benutzt, bis sich der Satz
auf das Startsymbol der Grammatik zurückführen läßt.
2. Grundmethode:
Top-down Parsing
Idee:
--> Beispiel 2
Beginne mit dem Startsymbol der Grammatik und expandiere
durch Ausdrücke, die nach den Grammatikregeln möglich sind.
!
'
s-maj –> s final-punc
s –> np vp
vp –> verb np
np –> det noun
np –> proper-noun
np –> pronoun
det –> the
det –> a
noun –> boy
noun –> frog
verb –> ate
verb –> loves
proper-noun –> Jack
proper-noun –> Bill
pronoun –> he
final-punc –> .
Beginne mit dem Startsymbol der Grammatik und expandiere
durch Ausdrücke, die nach den Grammatikregeln möglich sind,
bis der Satz dasteht.
s-maj
s
final-punc
np
vp
pronoun
verb
he
ate
!
np
det
noun
a
frog
.
(
(s-maj (s (np (pronoun he))
(vp (verb ate)
(np (det a) (noun frog))))
(final-punc . ))
s-maj
s
final-punc
np
vp
pronoun
verb
he
ate
np
det
noun
a
frog
.
!
• Für bestimmte Sätze ist "top-down" besser als "bottom-up", für
andere schlechter – keine Methode ist grundsätzlich überlegen.
Did
you hit Bill?
Hilfsverb
• Striktes top-down parsing beginnt mit s –> np vp und würde (hier
ohne Ergebnis) erst alle Möglichkeiten suchen, np zu expandieren.
• In vielen Fällen werden top-down Parser vorgezogen (einfacher zu
realisieren).
• Sehr bekannte top-down Parser sind die sogenannten ATN-Parser.
(Augmented Transition Networks)
!
)
*
Bisher:
Natürlichsprachlicher Satz
Jetzt:
Syntaxbaum
->
->
Syntaxbaum
interne Repräsentation
semantische Interpretation
> vereinfachte Betrachtung
> Hauptzweck: Motivation
Zwei Teilaufgaben:
• Disambiguierung von Wortsinn und Referenz
• Konvertierung disambiguierter Syntaxrepräsentation in
logische Form (in der gewählten internen Repräsentationssprache)
!
)
)
Verstehen der syntaktischen Struktur natürlicher Sprache ist
ein Schritt in Richtung zur internen Repräsentation
+
Tiefenstruktur (deep structure): – alte Theorie –
+
verschiedene Anteile sprachlicher Konstruktionen sind aufgelöst
(mit Hilfe von Transformationsregeln), z.B.
passive Konstruktionen
Bezüge von Reflexivpronomen (Ich wusch mich.)
Wichtig: Die ursprüngliche Bedeutung des Satzes ändert sich nicht.
,
,
,
,
Tiefenstruktur ist nicht = interne Repräsentation:
+
enthält noch Wörter der natürlichen Sprache, während die interne
Repräsentation Ausdrücke einer Repräsentationssprache enthält.
,
!
)
"
gegeben durch definite Nominalphrasen (definite noun phrases)
-
.
/
0
1
2
Beschreibung der Szene durch Fakten
(in assertional notation)
3
@
>
A
B
5
5
@
-
.
/
0
1
2
7
.
.
/
A
B
7
2
3
5
>
8
.
6
.
/
0
1
2
.
7
C
6
3
-
.
/
0
1
C
5
9
4
@
0
/
.
/
-
.
/
0
1
2
3
7
C
?
<
6
:
;
=
>
<
?
<
@
/
B
:
>
.
7
2
A
B
-
-
.
.
/
0
1
2
1
2
3
-
.
/
0
1
2
4
C
?
<
@
-
2
5
:
5
7
D
;
/
0
1
2
4
-
.
/
0
1
C
5
3
6
@
0
/
.
/
-
.
/
0
1
2
4
-
.
7
C
D
<
"the red block"
@
/
B
7
D
:
A
B
-
-
.
@
0
/
0
1
2
/
.
/
-
.
F
G
H
I
G
A
B
5
5
.
K
>
H
@
J
2
L
7
H
B
.
/
0
3
1
-
2
O
P
Q
O
F
M
R
S
F
J
R
T
I
P
3
.
7
0
U
-
.
/
W
V
X
Y
F
W
V
N
V
G
P
Q
G
H
S
Y
Y
5
6
-
.
7
2
3
C
/
0
1
2
;
=
>
-
.
7
2
3
C
?
<
E
7
.
.
/
9
C
/
7
5
:
<
2
-
-
.
?
/
0
1
2
E
;
Y
!
)
#
Aufbau der Repräsentation für "the red block" erfordert:
C
0
N
6
1
C
5
• Zuordnung von Bedeutungen zu den einzelnen Wörtern
(zu finden in einem Konzept-Lexikon):
kompositionellen Semantik.
@
Q
6
Prinzip der
A
N
5
-
>
M
6
@
K
5
;
D
:
4
C
6
@
B
0
E
5
<
• muß Bezug auf "Weltmodell" (hier: die faktische
Szenenbeschreibung) auslösen wie folgt:
/
;
:
• Erwartung: bezieht sich auf einen definiten Referenten
.
?
<
@
>
2
5
:
/
.
/
-
.
/
0
1
2
3
7
C
?
<
<
(Theorie über Verstehen der
@
/
B
7
D
2
5
:
:
-
-
.
/
0
1
2
3
-
.
/
0
1
2
4
C
?
<
;
Bedeutung von Sprache)
@
-
>
@
A
B
0
.
/
0
1
2
4
-
.
/
0
1
C
5
/
.
/
-
.
/
0
1
2
4
-
.
7
C
D
<
@
/
B
7
D
2
5
:
:
-
-
.
/
0
1
2
4
-
?
5
<
.
7
2
3
C
6
;
1. Syntaktische Analyse
@
>
A
B
.
/
0
1
2
E
6
;
/
.
/
-
.
/
0
1
2
E
=
7
<
@
>
D
.
.
/
9
7
2
5
:
-->
(inst ?x block)
the
-->
retrieve-val
• Kombination der einzelnen Wortbedeutungen, um Bedeutung der
Wortgruppen zu erhalten:
C
des Ganzen aus der
:
block
?
;
/
B
(color ?x red)
<
2. Ableitung der Bedeutung
0
-->
C
5
:
@
red
-
-
?
.
/
0
1
2
E
-
5
<
.
7
2
3
C
6
;
-->
red block
Bedeutung der Teile.
(and(inst ?x block)(color ?x red)
the red block -->
Es gibt andere Formen der
(retrieve-val '?x
'(and (inst ?x block)
(color ?x red)))
semantischen Interpretation.
• Anbindung dieser Prozesse an den syntaktischen Parser
!
)
$
q
r
s
t
u
v
w
s
x
y
x
z
s
u
{
u
|
u
{
}
(anderer Ansatz)
• Die interne Repräsentation wird
Einbezug der semantischen Interpretation bereits bei
zur gleichen Zeit aufgebaut wie
der Syntaxanalyse, um den Parser zu führen (unsinnige
die syntaktischen Beziehungen.
Analysen der Satzkonstituentenstruktur auszuschalten).
• Dazu werden in die (z.B. ATN-)
Grammatik Regeln einbezogen,
die parallel zur Syntaxanalyse
Ich las einen Artikel über den Vietnamkrieg in der Zeitung.
Fakten in einer Datenbasis
assertieren: interne Repräsentation.
Ich las einen Artikel über den Vietnamkrieg in der Zeitung.
Beispiel: Einführung von Referenten
für Nominalphrasen
[Hier nicht weiter betrachtet.]
Z
[
\
]
^
q
_
r
`
s
a
t
b
u
c
v
w
d
s
x
e
y
x
z
s
u
{
u
|
u
{
`
f
g
]
h
`
c
h
`
^
i
j
c
a
f
_
k
l
g
`
c
m
c
f
`
_
_
k
d
`
c
n
o
p
o
~
}
Phonologie
Syntax
Input
Blackboard
Weltwissen
Z
Semantik
[
\
]
^
_
`
a
b
c
d
e
`
f
g
]
h
`
c
h
`
^
i
j
c
a
f
_
k
l
g
`
c
m
c
f
`
_
_
k
d
`
c
n
q
r
s
t
u
v
w
s
x
y
x
z
s
u
{
u
|
u
{
}
Probleme bei der Verarbeitung von sprachlichen Eingaben:
Strukturelle Analyse der natürlichen Sprache
Syntaxproblem
Erfassen der Bedeutung unter Bezug auf ein Weltmodell
Semantikproblem
Ableitung einer Antwort (in symbolischer Repräsentation)
Inferenzproblem
Generierung einer Antwort in natürlicher Sprache
Generierungsproblem
Z
[
\
]
^
q
_
r
`
s
a
t
b
u
c
v
w
d
s
x
e
y
x
z
s
u
{
u
|
u
{
`
f
g
]
h
`
c
h
`
^
i
j
c
a
f
_
k
l
g
`
c
m
c
f
`
_
_
k
d
`
c
n
o
}
nach dem alten Code „ETAOIN SHRDLU“, mit dem Linotype-Setzer
Satzfehler in Zeitungsspalten markierten ...
ein Programm soll (englisch gestellte) Fragen über eine
simulierte Blockwelt verstehen
auf solche Fragen (auf englisch) eine Antwort geben
(auf englisch gegebene) Instruktionen verstehen, um die
Klötzchen zu verschieben
jede Instruktion in eine Reihenfolge von Operationen, die
das Programm ausführen kann, zerlegen
„verstehen“, was getan wurde und warum
ausgeführte Handlungen und Gründe dafür beschreiben
Z
[
\
]
^
_
`
a
b
c
d
e
`
f
g
]
h
`
c
h
`
^
i
j
c
a
f
_
k
l
g
`
c
m
c
f
`
_
_
k
d
`
c
n
o
q
r
s
t
u
v
w
s
x
y
x
z
s
u
{
u
|
u
{
}
Terry Winograd
Z
[
\
]
^
q
_
s
a
t
b
u
c
v
w
d
s
x
e
y
x
z
s
u
{
u
|
u
{
`
f
g
]
h
`
c
h
`
^
i
j
c
a
f
_
k
l
g
`
c
m
c
f
`
_
_
k
d
`
c
n
o
}
Z
Charniak & McDermott, Kapitel 4, Seite 194-199 ff
über SHRDLU z.B. bei Hofstadter: „Gödel, Escher, Bach“
Stuttgart: Klett-Cotta, 1985 (S. 624-631)
Z
r
`
[
\
]
^
_
`
a
b
c
d
e
`
f
g
]
h
`
c
h
`
^
i
j
c
a
f
_
k
l
g
`
c
m
c
f
`
_
_
k
d
`
c
n
q
r
s
t
u
v
w
s
x
y
x
z
s
u
{
u
|
u
{
}
Videointermezzo
10. Vorlesung: KI – zu schwer für Computer?
q
r
s
t
u
v
w
s
x
y
x
z
s
u
{
u
|
u
aus der
Videosammlung
(zum Vorlesungstermin
16.11.99)
o
[
\
]
^
_
`
a
b
c
d
{
}
Eine Maschine verändert die Welt
53:00 min
Teil 4: Künstliche Intelligenz - zu schwer
für Computer? (1991)
NDR, 1991
Start kurz nach Filmanfang!
0001 KI-Historie (MIT: Minsky, McCarthy, INTEGRAL,
0126 Was ist Denken? Menschliche vs. künstliche Intelligenz
0257 Prof. Hubert Dreyfus
0312 Probleme der Klötzchen-Welt
0393 Univ. Edinburgh: Freddy (Erkennen von Gegenständen)
0444 Univ. Stanford: Sehen und Fortbewegung
0480 Turing-Test
0523 ELIZA
0634 Doug Lenat: Probleme des Sprachverstehens
0679 Erste MÜ-Anwendung Englisch-Russisch
(Illusion und Wirklichkeit - Problem Weltwissen und Kontext)
0827 Ernüchterung in der KI
0861 SHRDLU
0912 Edward Feigenbaum: Expertensysteme (u.a. DENDRAL)
1006 Hubert Dreyfus: Vorteile und Grenzen von XPS (Beispiele)
1039 Doug Lenat: dto.
1059 Vergleich mit einem "Idiot savoir"? (etwas makaber)
1120 Vorlage eher: Kinder (bereits diffuses Wissen)
1193 Frames (Child´s Birthday Party)
1211 Allgemeines Hintergrundwissen
1322 CYC
1402 Kritik an CYC (Dreyfus): Wissen ist an (sinnliche) Erfahrungen gebunden
1494 Neuronale Netze
1543 Perceptron
1610 netzgesteuertes Fahrzeug
1663 Dreyfus: Grenzen und Probleme von Neuronalen Netzen
1705 NETTALK (Aussprechen geschriebener Sprache)
(...)
Fortsetzung...
1785 Schlußpassage: Zusammenfassung, bisherige KI-Leistungen und Fazit
1852 Epilog - Noch mal: CYC
2021 Ende
e
`
f
g
]
h
`
c
h
`
^
i
j
c
a
f
_
k
l
g
`
c
m
c
f
`
_
_
k
d
`
c
n