Reduzieren der Wortformen - Institut für Computerlinguistik

Werbung
Reduzieren der Wortformen
c
Clab-Team
Institut für Computerlinguistik
Universität Zürich
Dez. 2008
Zusammenfassung
Das Reduzieren von verschiedenen Wortformen des selben Wortes auf eine geeignete Grundform ist für viele Anwendungen in
der Computerlinguistik relevant. Dies kann einerseits durch einfache, algorithmische Verfahren wie Trunkierung oder Stemming
erreicht werden, oder über komplexere, aufwendigere Methoden, die viel linguistische Information benötigen. Diese reichen
von der relativ einfachen Lemmatisierung bis zur vollständigen
Morphologieanalyse. Je nach Anwendungsgebiet und Sprache
eignet sich die eine oder die andere Vorgehensweise.
Reduzieren der Wortformen
1
1
Voraussetzungen
Derivation: Derivation erzeugt neue Wörter
(im Sinn von
L Lexemen) aus einem
Bevor Sie diese Lerneinheit bearbeiten, sollten
selbständigen Wort und verschiedenen L Af-
Sie einerseits wissen, was Tokenisierung ist (sie-
fixen:
he Hess (2005)), andererseits sollten Ihnen die
Ziele und Methoden des Information Retrieval
compute, computer, computerize, recompute, recomputerize etc.
(IR) bekannt sein (s. ebenfalls Hess (2005)).
Derivation verändert oft die Wortkategorie
(part-of-speech): compute ist ein Verb, computer ist
2
ein Substantiv.
Lernziel
Normalerweise wird auch semantischer Ge-
Sie sollten nicht nur in theoretischer Hinsicht
halt zugefügt: Das Präfix re- in recompute be-
den Unterschied zwischen L Trunkierung, L
deutet wieder. compute, computes, computing, und
Stemming und echter Morphologieanalyse ken-
computed hingegen differieren nur in (bedeu-
nen, sondern auch abschätzen können, wie weit
tungsirrelevanten) Aspekten wie L Tempus, L
Trunkierung in einem konkreten Anwendungs-
Numerus, L Genus, L Kasus, Aspekt etc.
kontext ( L Information Retrieval) trägt. Sie sollten sodann selbständig Regeln für einen konkre-
Eine sehr komplexe Wortform, graphisch
veranschaulicht1 , siehe Abbildung 1.
(QUIZ) Grundlagen der Wortreduktion
ten Stemmer (Porter-Stemmer) für verschiedenen Sprachen schreiben können.
3
Flexion,
Derivation
und
Komposition
Die Vielfalt von Wortformen für dieselben oder
ähnliche Inhalte in natürlichen Sprachen erschwert das Suchen in Texten sehr. Die Komplexität von Wortformen ergibt sich aus den Operationen, die bei der Wort(form)bildung involviert
sind:
1. L Flexion (Konjugation, Deklination.., u.a.
Komposition Komposition erzeugt ein neues
mit Ablauten)
Wort aus mehreren selbständigen Wörtern:
2. L Derivation (Affixierung etc.)
Haus + Bau → Hausbau
(Zusammensetzung
Komposition ist ebenfalls semantisch rele-
selbständig existierender Wortformen zu neu-
vant; allerdings ist es oft sehr schwierig, die Be-
en Wörtern)
deutung eines Kompositums aus den Bedeutun-
L
3.
Komposition
gen der Einzelwörter systematisch zu ermitteln.
Flexion: Flexion erzeugt verschiedene Formen
desselben Lemmas (Grundform):
Hund → Hunde
Die Wortkategorie wird dadurch natürlich nicht
verändert, aber die Flexion ist semantisch relevant.
1
Vgl. Smith (1991).
4
Grundlegendes zur Wortreduktion
Eines der grundlegenden Probleme der textbezogenen Informationstechnologie besteht darin,
Reduzieren der Wortformen
2
Texte so zu speichern, dass auf eine L Anfra-
• Trunkierung: Das Abtrennen einer bestimm-
ge hin möglichst alle relevanten Informationen
ten Anzahl von Zeichen am Wortende. Hier-
(und nur diese!) zurückgeliefert werden. Eine
bei muss man noch unterscheiden zwischen
erste wesentliche Hürde hierfür stellt die Vielfalt
dem Kürzen auf eine bestimmte Anzahl Zei-
von Formen dar, die Wörter, selbst bei gleichem
chen und dem Kürzen um eine bestimmte An-
Inhalt und gleicher Wortart, aufweisen.
Sogar im Englischen ist das ein echtes Pro-
zahl Zeichen. Beispiel:
blem:
{Museum, Museen, Mus, Muster}
→ mus
to mean →
mean
• Stemming: Die rein algorithmische Bestim-
means
mung von “Wortstämmen”, ohne Verwen-
meant
dung wortspezifischer, einzelsprachlicher In-
meaning
formation; oft ist das Gefundene daher keineswegs der L Stamm eines Worts im lingui-
Das offensichtliche Problem hierbei ist, dass
z.B. der Benutzer eines Dokumentenretrievalsystems grundsätzlich alle flektierten Formen jedes einzelnen Suchterms (also alle zu einem
stischen Sinn, weshalb der Begriff stemming eigentlich recht irreführend ist
{Museum, Museen} → muse
Wort gehörenden Wortformen) in seiner Anfra-
• Lemmatisierung: Reduktion der Wortform
ge eingeben müsste, um keine relevanten Dokumente zu verpassen. Er müsste also Anfragen
auf die linguistisch korrekte Grundform,
das sog. L Lemma (also das, was in ei-
stellen wie:
nem Wörterbuch den Eintrag einleitet) unter
Berücksichtigung einzelsprachlicher Regeln
(mean OR means OR meant OR meaning)
Weniger offensichtlich, aber mindestens so
der Wortbildung inkl. unregelmässigen Bildungen, also durch Benützung einzelsprachli-
schwerwiegend, ist das Problem, dass alle
cher Wortbildungsregeln und Wörterbücher:
brauchbaren Dokumentenretrievalsysteme die
{Museum, Museen} → Museum
Indexterme aufgrund ihrer Häufigkeit gewichten. Die L Gewichtung eines Terms hat grossen
Einfluss auf die Position eines Dokuments in der
Ergebnisliste. Beim Gewichten werden die extrem häufig vorkommenden Terme ebenso wie
• Morphologische Analyse: Ermittlung des
Lemmas und aller morphologischen Merkmale (wie Numerus, Genus, Kasus, Tempus,
L Modus etc.)
die extrem selten vorkommenden Terme gerne
Museen → Museum (Gender=Neutr,
ignoriert. Da nun aber, ohne besondere Vorkeh-
Number=Pl, Case=*)
rungen, jede gebeugte Form eines gegebenen
• Rooting: Manchmal ist noch das Isolieren der
Worts in einem Dokument als einzelnes Wort-
Wurzel sinnvoll. Das wird im Folgenden aber
vorkommen gezählt wird, wird das aufaddierte
nicht betrachtet.2
Total für dieses Wort (und damit sein Gewicht)
wahrscheinlich zu klein (da die selten vorkom-
Beispiel:
menden Beugungsformen ignoriert werden). Es
Farbe
|
ist daher fast unerlässlich, nur die “Grundform”
färben
|
der Wörter als Indexterme zu benutzen.
farbig
|
→ FARB
Prinzipiell gibt es mehrere Möglichkeiten,
um zu einer sinnvollen Grundform zu gelangen:
Aber: Die morphologische Analyse ist viel
aufwendiger zu automatisieren, deshalb hat
2
Rooting wird manchmal auch als Stemmatisierung bezeichnet. Das ist nicht dasselbe wie Stemming!
Reduzieren der Wortformen
3
man meist versucht, so lange es geht, die einfa-
S-Algorithmus (mit m=1):
cheren oben genannten Methoden einzusetzen.
give | s
Welche dieser automatischen Methoden
kann man wann einsetzen?
cat
• Für schwach flektierende Sprachen (wie z.B.
Englisch) und für anspruchslose Aufgaben
| s
Dieses Verfahren ist:
kann man zur Not die Trunkierung anwen-
• schnell
den.
• sprachunabhängig (allerdings nur im Prinzip)
• Für morphologisch komplexere Sprachen
(wie z.B. Deutsch) und etwas anspruchsvollere Aufgaben ist aber zumindest Stemming
• für sehr viele Zwecke ungeeignet
Zum Letzten:
oder aber Lemmatisierung erforderlich. Hier-
• Beim Indexieren werden abide und abiding
bei kann man nach mehr oder weniger lingui-
unterschieden werden (siehe Beispiel oben),
stischen Prinzipien verfahren. In einer Spra-
weshalb beide Terme ein zu geringes Gewicht
che mit wenig L Morphologie wie dem Eng-
erhalten. Es handelt sich jedoch um Wortfor-
lischen kommt man mit relativ unlinguisti-
men des selben Wortes.
schen Methoden schon weit; man wird aber
• Für den Stil eines Autors mag es z.B. wich-
in jedem Fall nur die regelmässigen Bildun-
tig sein, wie oft er Wörter aus der Klasse ab-
gen erfassen.
hor verwendet, aber da abhor und abhorr unter-
• Für wirklich anspruchsvolle Anwendungen
ist eine echte und vollständige Morphologieanalyse erforderlich. Dieses Thema wird in
schieden werden, wird hier der Wert bei der
Zählung erneut zu gering ausfallen.
Ebenso: abet/abetto, abide/abidin
der Vorlesung “Morphologie und Lexikogra-
Kann man durch die Wahl anderer Werte für
phie” viel tiefer behandelt.
m die Situation verbessern? Nicht prinzipiell zwar fallen nun abide und abiding korrekterwei-
5
Trunkierung
se zusammen, aber dafür fälschlicherweise auch
aboriginal und abort:
Trunkierung einer Wortform heisst: eine fixe Anzahl (m) Zeichen am Anfang der Wortform be-
Beispiel mit m=4:
halten (T-Algorithmus), oder (seltener) vom En-
aber | ration
de der Wortform abschneiden (S-Algorithmus).
Beispiel (aus Celex):
abet |
T-Algorithmus (mit m=6):
aberra | tion
abet
abetto | r
abeyan | ce
abeyan | t
abhor
abet | tor
abey | ance
abey | ant
abho | r
abho | rrence
abho | rrent
abid | e
abid | ing
abhorr | ence
Scheint nicht sehr ins Gewicht zu fallen, aber:
abhorr | ent
abor | iginal
abide
abor | iginal
abidin | g
abor | igine
Abor | igine
Reduzieren der Wortformen
4
abor | t
Im Englischen gibt es ca. 75 Präfixe und 250 Suf-
abor | tion
fixe. Ein kleiner Auszug:
abor | tionist
abor | tive
a-
anti-
de-
ex-
in-
pre-
re-
un-
Übereinstimmungen.
Testen Sie nun, ob Sie die Konzepte und
-able
-ages
-ance
-aric
-anced
-ature
-ble
-eature
Methoden des Trunkieren verinnerlicht haben:
-enced
-ened
-er
-fied
(QUIZ) Trunkieren
-icated
-ing
-ion
Hier gibt es nun schon sehr viele falsche
Das Entfernen von Präfixen ist zwar zu-
6
Stemming
verlässiger als das Entfernen von Suffixen, da
letztere oft orthographische Veränderungen in-
Stemming versucht den Stamm in etwas
volvieren (stratify → stratified). Je-
präziserer Weise zu isolieren.
doch verändern Präfixe die Bedeutung der
Stammwörter derart stark (asymmetry →
Methoden:
symmetry), dass das Entfernen von Präfixen
1. Kontextunabhängiges L Suffix-Stripping
für viele Zwecke nicht sinnvoll ist.
2. Kontextabhängiges Suffix-Stripping
fernen von Suffixen betrachtet.
6.1
Kontextunabhängiges
Stripping
Suffix-
Im Folgenden wird daher nur noch das Ent-
Resultate (Suffix-Stripping: einfacher exakter
longest match für obige Suffixe):
Am einfachsten sind jene Methoden, bei denen
asymmetry
→ asymmetry
Affixe aus einer vorgegebenen Liste abgetrennt
able
→ [ ]4
werden. Zu unterscheiden sind dabei:
interesting → interest
1. longest match: entferne (von hinten und/oder
von vorne) die längste Kette, die als Affix3
aufgelistet ist; siehe (Salton:381)
king
→ k
producer
→ produc
creature
→ cr
feature
→ f
2. shortest match: entferne die kürzeste Kette
3. in beiden Fällen: einfach oder iteriert; beim
iterativen Vorgehen werden wiederholt SuffiResultate (Suffix-Stripping: einfacher exakter
shortest match):
xe entfernt.
4. in beiden Fällen: entweder zuerst Präfixe und
dann Suffixe (→), oder umgekehrt (←).
asymmetry
able
→ symmetry
→ a
5. in beiden Fällen: exakter oder annähernder
Match. Beim partiellen Match genügt ein
interesting → interest
annäherndes Matchen mit z.B. einem Präfix:
king
→ k
producer
→ produc
sky ≈ ski
(skies → sky)
3
Affix sollte hier nicht als linguistisch korrekter Term aufgefasst werden!
4
[] = leere Menge
Reduzieren der Wortformen
5
Zu unterscheiden ist im Folgenden klar der
creature
→ cre
feature
→ fe
L Algorithmus selbst und die konkreten L Parameter-Werte. Der Algorithmus ist sprachun-
Diese Verfahren ergeben also teilweise ausserordentlich merkwürdige Resultate. Einige davon
kann man unterdrücken, indem z.B. eine Minimallänge von 3 verbleibenden Zeichen verlangt
wird. Damit würden [], k, cr, f, a, k
und fe wegfallen.
Auch dann gilt aber: Neben der korrekten
Ermittlung von Stämmen für einige Wortformen erhält man für andere Wortformen inkorrekte Stämme, weil die potentiellen Affixe als
abhängig, die Parameter-Werte5 hingegen sind
es nicht.
6.2.1
Der Lovins-Algorithmus
Der Algorithmus von Lovins (1968). 6
1. Einfacher longest match gegen 294 Suffixe:
-alistically
-izationally
-arizability
...
Buchstabenkombination am Ende oder Beginn
einer Wortform vorkommen. Verwendet man
-able
-ably
-ages
-ally
eine längere Liste von Affixen als in diesem Bei-
-ance
-ancy
-ants
-aric
spiel, erhält man noch viel mehr unerwünschte
-arly
-ated
-ates
-atic
overstemming-Resultate. In bestimmtem Anwen-
-ator
-ealy
-edly
-eful
dungen (z.B. IR) schadet das oft wenig, in ande-
-eity
-ence
-ency
-ened
ren hingegen schon.
-enly
-eous
-hood
-ials
-ians
-ible
-ibly
-ical
-ides
-iers
-iful
-ines
-ings
-ions
-ious
-isms
-ists
-itic
-ized
-izer
• basiert aber nicht auf linguistischen Prinzi-
-less
-lily
-ness
-ogen
pien, und overstemming ist daher ein grosses
-ward
-wise
-ying
-yish
Problem, da “Stämme” ermittelt werden, die
...
-i
-s
Beurteilung: Simples Suffix-Stripping
• ist zwar einfach (und daher schnell)
es in der jeweiligen Sprache gar nicht gibt.
• ist daher nur sehr beschränkt verwendbar
-a
-e
-o
-y
2. Mit 29 Anwendbarkeitsbedingungen (jedes
6.2
Kontextabhängiges
stripping
Suffix-
der 294 Suffixe hat eine dieser Anwendbarkeitsbedingungen):
Man versucht oft, durch den kontextabhängigen
W-age → W
sofern W > 3
Einsatz von Suffixregeln bessere Resultate zu
W-ion → W
sofern W > 3 und
nicht nach L oder N
erreichen. Bekannt sind in diesem Zusammenhang zwei Stemmer:
Beispiel: production
→ product
1. Algorithmus von Lovins (halbwegs linguistisch basiert)
2. Algorithmus von Porter (wenig linguistisch
basiert)
3. Mit
35
Rekodierungsregeln
(recoding:
“Flicken von Stämmen”):
• Wortstammtransformationsregeln (Englisch):
5
Welche Suffixe gibt es? Was ist die Minimallänge eines Stamms
6
http://www.ifi.uzh.ch/arvo/cl/hess/classes/le/lovins_stemmer.html
Reduzieren der Wortformen
6
{bb|dd|gg|mm|nn|pp|rr|ss|tt} | Suffix
→
|{b|d|g|m|n|p|r|s|t}
(bei betonter Endsilbe)
Beispiel: hopp|ing → hopp → hop
• *d die Grundform endet auf Doppelvokal
(z.B. -tt, -ll)
• *o die Grundform endet auf cvc, wobei das
zweite c nicht W, X oder Y ist (z.B. -wil, -hop)
• -uct →-uc:
production →produc [-er]
-umpt→-um:
consumption→consum [-er]
-ond →-ons:
responding →respons [-ive]
CVCV...C
VCVC...C
-olut→-olv:
resolution →resolv [-e]
CVCV...V
VCVC...V
metr-→meter-: metrical
Ein Wort (bzw. Teil davon) kann sein:
→meter [-ing]
Beispiel:
resp.
production → product → produc
[C](VC)m [V]
6.3
Der Porter-Algorithmus
Der Algorithmus von Porter (1980) 7 :
1. Suffixe sind in Klassen aufgeteilt:
mit m ≥ 0
Porter nennt m das “Mass” eines Wortes oder
Wortteils. Beispiele:
(a) -s, -es, -sses, -ies, -ss, -eed, -ed, -ing etc. (Fle-
[C]
(VC)m
[V]
xion)
(b) -ion, -tion, -ic, -ate, -ence, -ance etc. (Deri-
m=0
vation)
Ein Wort kann mehrere Suffixe aufweisen,
aber nur eins pro Klasse
m=1
ee
by
b
y
trouble
tr
oubl
e
pr
iv at
e
trees
Suffix-Klassen geordnet, immer längste Kette
und Regeln
tr
oats
2. iteratives Suffix-Stripping in 5 Schritten, nach
3. Anwendbarkeitsregeln auf Stamm, Suffix
tree
ivy
m=2
private
troubles
Begriffsunterscheidungen:
m=3
• Vokale v sind A,E,I,O,U und Y nach Konso-
thesaurus
th
es aur us
consonsant
nant
Überlegen Sie sich, wie das Ergebnis für die
• Konsonanten c sind der Rest
fehlenden Beispiele aussehen würde (by, oats,
• eine Kette aus einem oder mehreren v wird V
trees..).
geschrieben, analog C
• (VC)m ist die m-fache Wiederholung von VC
• [x] ist ein optionales Vorkommen von x
• *S die Grundform eines Worts endet auf S
(analog für andere Buchstaben)
Die folgende Auswahl von Regeln soll
zeigen, wie der Porter-Stemmer verschiedene
Phänomene behandelt. Die Regeln müssen nicht
notwendigerweise in dieser Reihenfolge abgearbeitet werden; die exakte Sequenzierung ist ein
zusätzlich zur Regelformulierung zu lösendes
Problem.
• *v* die Grundform beinhaltet einen Vokal
7
Lokale Kopie: http://www.ifi.uzh.ch/cl/hess/classes/le/porter_stemmer.txt
Reduzieren der Wortformen
7
Regeln (Auswahl):
european/europe
Regel 1:
create/creation
-sses
→
-ss
(caresses
→
caress)
-ies
→
-i
(ponies
→
poni)
-ss
→
-ss
(caress
→
caress)
-s
→
-
(cats
→
cat)
abschätzen zu können, betrachte man folgendes
(m>0)ed
→
ee
(feed
→
feed)
Beispiel (mit Stopwortelimination)
(*v*)ed
→
-
(plastered
→
plaster)
(*v*)ing
→
-
(motoring
→
motor)
(m>0)ational
→
ate
(relational
→
relate)
(m>0)tional
→
tion
(conditional
→
condition)
(m>0)enci
→
ence
(valenci
→
valence)
(m>0)izer
→
ize
(digitizer
→
digitize)
matrices/matrix
Um die Leistungen dieses Stemmers grob
Text:
Regel 2:
This document will describe marketing
strategies carried out by U.S.
companies for their agricultural
chemicals, report predictions for
Regel 3:
(m>0)icate
→
ic
(triplicate
→
triplic)
market share of such chemicals,
(m>0)ative
→
-
(formative
→
form)
or report market statistics for
(m>0)alize
→
al
(formalize
→
formal)
agrochemicals, pesticide, herbicide,
Regel 4:
fungicide, insecticide, fertilizer,
((m>1) and
predicted sales, market share,
(*S or *T))ion
→
-
(adoption
→
adopt)
stimulate demand and price cut,
(m>1)ou
→
-
(homologous
→
homolog)
volume of sales
(m>1)ism
→
-
(platonism
→
platon)
→
-
(rate
→
rate)
→
-
(cease
→
ceas)
Regel 5:
(m>1)e
Extrahierte Terme:
((m=1) and
not *o)e
chemic report predict market share
chemic report market statist agrochem
((m>1) and
d and *L)
→
single
letter
market strateg carr compan agricultur
(controll
→
Auch hier ist ein Hauptproblem die Erzeugung nicht existierender “Stämme”:
iteration -> iter
general -> gener
control)
pesticid harbicid fungicid insecticid
fertil sale stimul demand price cut
volum sale
Beachte auch: Diese Art des Stemming führt
im Deutschen zu deutlich schlechteren Resultaten, und zwar aus folgenden Gründen:
Man könnte meinen, das sei kein Problem,
da bei der Query ja derselbe Stamm erzeugt
wird, aber:
• Wortinterne
Prozesse
(v.a.
Umlautung
im Wortinneren: Baum/Bäume; Ablaut: lesen/liest/las), Präfigierung: lesen/gelesen
1. Die Präzision leidet (wegen künstlicher Ambiguitäten):
{organization, organ} -> organ
{policy, police} -> polic
• Komposita
lierung
verhindern
von
L
sinnvolle
Constraints:
FormuFerienen-
de/lesende/Ende
Sie finden hier eine ILAP, anhand derer Sie
{execute, executive} -> execut
herausfinden können, inwieweit Sie Trunkie-
{arm, army} -> arm
rung und Stemming allein mit regulären Aus-
2. Die Ausbeute leidet auch, weil verwandte
Formen nicht identifiziert werden:
drücken implementieren können, und was die
Resultate im Deutschen und im Englischen sind:
Reduzieren der Wortformen
8
und Komposition und Nachschlagen der po-
(ILAP) Trunkierung mit regulären Ausdrücken
tentiellen Grundform in einem Grundformenlexikon.
Versuchen Sie nun insbesondere, die Leistungsfähigkeit des Porter-Stemmers genauer
und gezielter in folgender ILAP zu ermitteln:
(ILAP) Porter-Stemmer
Nachdem Sie das Verhalten der verschiedenen Wortreduktionsmethoden in einem eher abstrakten Sinn kennengelernt haben, können Sie
in der folgenden ILAP diese Methoden in einem
konkreten Anwendungskontext (IR) ausprobieren und vergleichen:
(ILAP) (Demo) Information Retrieval und Wortreduktion
Schliesslich können Sie versuchen, die
Ein Vollformenlexikon ist aufwendiger hinsichtlich Speicherplatz, aber effizienter bei der Verarbeitung (wenn richtig gespeichert, z.B. als “Trie”
(Buchstabenbaum) oder als endliche Automaten).
Sie können die Leistungsfähigkeit eines
kommerziellen
Morphologieanaylsesystems
hier ermitteln:
(ILAP) (Demo) Morphologische Analyse mit
GERTWOL
(SET) Was ist ein Lemma?
8
Echte Morphologieanalyse
Regeln eines dieser Verfahren (des PorterStemmers) für diesen spezifischen Anwen-
8.1
Aspekte einer echten Morphologieanalyse
dungskontext zu optimieren:
(ILAP) IR mit eigenen Porterstemmer-Regeln
Ziele (in der Theorie):
1. wohlgeformte Eingaben akzeptieren und
Testen Sie schliesslich, ob Sie die Konzepte
und Methoden des Stemming verinnerlicht ha-
analysieren (also alle morphologischen Merkmale ermitteln)
ben:
2. nicht wohlgeformte Eingaben zurückweisen
(QUIZ) Stemming
7
Lemmatisierung
Sie kennen nun die Grenzen der rein algorithmischen Wortreduktionsmethoden. Um besse-
Beispiel:
• akzeptiert werden sollten big, bigger, und biggest
• aber nicht akzeptiert werden sollte aliver (als
Komparativ von alive)
re Resultate zu erreichen, sind linguistisch informierte Methoden unerlässlich: Die Reduktion der Wortformen auf ihre Grundform durch
In der Praxis der Computerlinguistik wird
das zweite Ziel nicht so hoch bewertet werden, da aliver kaum vorkommen wird. Aber:
1. Nachschlagen in einem Vollformenlexikon:
Übergenerierung wie hier erzeugt immer spu-
jede Wortform kann direkt im Lexikon nach-
rious ambiguity (und beim Generieren würde es
geschlagen werden.
mit derartigen Regeln natürlich ganz chaotisch
2. Reduzieren der Wortform auf eine potentiel-
werden).
le Grundform durch Anwendung morpholo-
Ein Fall von spurious ambiguity: Wenn -er
gischer Regeln bezüglich Flexion, Derivation
nicht nur als Suffix von Adjektiven, sondern
von allen Typen von Wörtern erlaubt würde, so
Reduzieren der Wortformen
9
würde writer zwei Analysen erhalten: Einmal er (korrekt) als agentives Suffix eines Verbs, und
einmal als komparatives Suffix.
In Morphologieanalyseprogrammen muss
zumindest die Flexionsinformation ermittelt
werden, und wenn möglich auch noch die Derivationsinformation. Wie das Resultat einer Morphologieanalyse aussieht, soll anhand des Outputs von PC-Kimmo gezeigt werden.8
1. Auflistung: explizite Liste: compute, computer,
computerize, recompute, recomputerize
2. Regelbasierte L Ableitung (echte Derivation): Liste von Stämmen und Affixen (computer, +er, +ize und +ation) plus Regeln zu ihrer
Kombination (morphologische Komponente
einer Grammatik)
Die echte Derivation ist der offensichtlich
mächtigere Ansatz:
Für die Wortformen
1. auch neue Wörter können erkannt werden.
• fox (singular Substantiv)
Wobei man noch unterscheiden muss, ob die-
• foxes (ein regelmässiger Plural)
se nur neu für das System oder echte Neologismen, und somit neu für den Menschen,
• mice (ein unregelmässiger Plural) und
• computer (von einem Verb abgeleitetes Sub-
sind.
2. markant kleineres Wörterbuch
stantiv)
3. theoretisch attraktiver, da dies ein Modell der
ermittelt PC-Kimmo
‘fox
[[
Sprache,und nicht einfach eine Liste, darstellt.
‘fox
Allerdings gibt es auch Probleme mit dem
number:SG
pos:
Derivations-Ansatz:
N]]
1. Dekomposition kann zu Pseudo-Analysen
(spurious parses) führen:
‘fox+s
‘fox
[[
number:PL
Wenn man das Suffix +age hat, um baggage,
pos:
acreage, voltage etc. abzuleiten, dann wird man
N]]
auch bekommen: cab → cabbage. Da das Suf‘mice
‘mouse
[[
number:SG
die falschen Analysen), könnte man in diesem
pos:
Fall auch die Derivate auflisten.
fix +age jedoch recht selten ist (seltener als
N]]
com‘pute+er ‘computer
[[
2. Phonologische und/oder morphologische Ir-
number:SG
regularitäten:
pos:
reception
N]]
ist
klarerweise
abgeleitet
vom
Stamm receive plus NominalisierungssufJedes Wort hat:
1. das Merkmal number (da alle Wörter in dieser Liste Substantive sind)
2. ein Merkmal pos (part-of-speech).
Zur Derivation: Für die Derivation gibt es zwei
Strategien:
fix -tion, ebenso wie deceive/deception, conceive/conception, perceive/perception. Der phonologische Abstand macht Derivations-Regeln
(zwischen -ceive und -cep) sehr kompliziert.
Da nur relativ wenig Wörter so gebildet werden, kann man
• diese abgeleitete Formen explizit ins Lexikon schreiben
8
siehe auch Englex: A Computational Morphology of English: http://www.sil.org/pckimmo/v2/doc/englex.html
Reduzieren der Wortformen
10
• ihre Herkunft aber im Lexikon angeben
(V(re‘ceive)+NR)
8.2
Probleme der Mehrdeutigkeit
Wie in anderen Bereichen der Computerlingui-
3. Viele abgeleitete Wörter erhalten eine neue
stik quält uns auch in der Morphologie das Pro-
(spezialisierte) Bedeutung:
blem der Mehrdeutigkeit:
business ist eine reguläre nominale Derivation
1. kategoriale Mehrdeutigkeit (besonders im
Englischen sehr verbreitet):
des Adjektivs busy, aber es hat nicht (mehr)
die Bedeutung state of being busy.
mean:
Daher kann man
• diese abgeleiteten Formen mit neuer Bedeutung ins Lexikon schreiben
• die nicht mehr verfügbare abgeleitete
1.
Substantiv (Durchschnitt)
2.
Adjektiv
(durchschnittlich)
3.
Verb
(bedeuten;im Sinn haben;..)
can:
Form (busy+ness AJ+NR) evtl. explizit
1.
Substantiv (Büchse,Kanister;..)
blockieren
2.
Hilfsverb
4. Manche an sich klare Ableitungen sind im
(können)
2. lexikalische Mehrdeutigkeit:
normalen Sprachgebrauch nicht mehr bewusst: resilient ist (morphologisch und seman-
mean (Adjektiv):
tisch) transparent abgeleitet vom Verb resile.
1. durschnittlich
Dies ist aber bloss noch etymologisch rele-
2. gemein, niederträchtig
vant, daher werden in solchen Fällen abgeleitete Formen ins Lexikon aufgenommen.
3. Kombinationen von Mehrdeutigkeit und L
Homonymie:
Zur Komposition: Komposita und Nominal-
mean:
verkettungen kommen in drei Arten vor (im
1. Substantiv
Englischen):
2. Adjektiv a. (durchschnittlich)
solid
hyphenated
open
“bedroom”
“moth-eaten”
“rose bush”
Oft alle 3 wild durcheinander: on line, on-line,
online.
(Durchschnitt)
b. (gemein, niederträchtig)
3. Verb
9
(bedeuten;im Sinn haben;..)
Konkrete Systeme für die
Morphologieanalyse
Offene Komposita fallen eigentlich nicht in
die Kompetenz eines Morphologieanalyseprogramms. Manche Systeme (z.B. PC-KIMMO)
Eine kurze und sehr unvollständige Übersicht
können nur Bindestrich-Komposita analysieren;
über konkrete Systeme (kommerzielle und aka-
die festen werden als einfache Lexeme behan-
demische) für die Morphologieanalyse:9
delt, die offenen als zwei (rsp. mehrere) getrennte. Dies ist natürlich keine Lösung, schon gar
nicht für Sprachen wie das Deutsche. GERTWOL kann Komposita sehr gut zerlegen. Bei
der Analyse von geschlossenen (solid) Komposita entstehen allerdings teilweise bizarre Lesarten (siehe 9.3).
9.1
PC-KIMMO
PC-KIMMO ist eine eigentliche Wortgrammatik mit entsprechender Analyseform als Baum.
Das System verfügt über ca. 20’000 Lexikoneinträge und analysiert zwar Flexion und Derivationen, jedoch keine Komposita. Ausserdem ist
PC-KIMMO gratis.
9
siehe auch http://www.ifi.uzh.ch/arvo/cl/InteractiveCLtools/index2.php#as-t1-Morp
Reduzieren der Wortformen
11
enlargement:
*buch+s+neutr+pl+dat
--> *büchern
Diese Systeme weisen eine hohe Korrektheit auf, 99% für orthographisch korrekten Text
und über 98% für unbeschränkten Text. Einziger
Nachteil: da es sich um kommerzielle Systeme
handelt, sind sie nicht gratis. Die Grundlage für
das Lexikon von GERTWOL bildet der Collins
German Dictionary, zuätzlich wurde das Lexikon um 6’300 Substantive und 11’000 Eigennamen erweitert.
Total:
Word:
[ head:
1. 11’000 Adjektive
[ number:SG
pos:
N ]
2. 2’000 Adverbien
lemma: ‘large
3. 400 Interjektionen
lemma pos:AJ ]
lemma pos ist die Wortart; Kimmo kann also
auch als Teil eines Taggers verwendet werden.
9.2
4. 50’000 Substantive
5. 6’500 Verben
6. 12’000 Eigennamen
Morphy
Morphy (Lezius, 2000) ist ein frei verfügbares
System zur Morphologieanalyse und Wortar-
7. 1’700 Abkürzungen
Derivationen (˜ steht für Suffix):
tenbestimmung im Deutschen. Das verwendete
Lexikon umfasst ca. 16’500 Einträge. Komposita werden nicht analysiert. Morphy ist nur für
ENGTWOL
enlargement:
Windows verfügbar und wird auch nicht mehr
"<enlargement>"
weiterentwickelt.10
"enlargement" N NOM SG
9.3
ENGTWOL/GERTWOL/etc.
Engtwol und Gertwol sind kommerzielle Sy-
GERTWOL:
"<interessanten>"
steme zur Morphologieanalyse, entwickelt von
"interess˜ant"
A POS SG AKK MASK
der Firma Lingsoft in Finnland. Neben Flexion
"interess˜ant"
A POS SG DAT MASK
und Derivation analysieren diese System auch
"interess˜ant"
A POS SG GEN MASK
Komposita, ausserdem sind sie sehr schnell (200
"interess˜ant"
A POS SG DAT NEUTR
Wörter/sec auf Sun SPARCstation 2). Zusätzlich
"interess˜ant"
A POS SG GEN NEUTR
zur Analyse gibt es auch eine Version, mit der
"interess˜ant"
A POS SG DAT FEM
man Wortformen generieren kann:
"interess˜ant"
A POS SG GEN FEM
"interess˜ant"
A POS PL NOM
"interess˜ant"
A POS PL AKK
"interess˜ant"
A POS PL DAT
"interess˜ant"
A POS PL GEN
lernen+v+ind+präs+sg3
--> lernt
gut+a+komp+sg+akk+neutr --> besseres
10
siehe http://www.wolfganglezius.de/doku.php?id=public:cl:morphy
Reduzieren der Wortformen
12
Die Ausgabeinformation ist sehr viel einfacher
als PC-KIMMO, aber für viele Anwendungen
genügend. Komposita werden analysiert:
und, auch sehr schön:
Abchasen:
"<Abchasen>"
Berg#wiese
"Abchas˜e"
S MASK PL NOM
Schreib#maschine
"Abchas˜e"
S MASK PL AKK
"Abchas˜e"
S MASK PL DAT
rache|durst˜ig
"Abchas˜e"
S MASK PL GEN
fett|arm
"Abchas˜e"
S MASK SG GEN
“#” trennt Elemente, die auch separat auftreten
"Abchas˜e"
S MASK SG DAT
können, während “|” unselbständige Elemen-
"Abchas˜e"
S MASK SG AKK
te trennt (u.a. Präpositionen, Präfixe). Fugen-
"Abc#hase"
S MASK PL NOM
elemente, die besonders schwierig zu erkennen
"Abc#hase"
S MASK PL AKK
sind, werden ebenfalls erkannt (markiert durch
"Abc#hase"
S MASK PL DAT
“\”):
"Abc#hase"
S MASK PL GEN
"Abc#hase"
S MASK SG GEN
"Abc#hase"
S MASK SG DAT
"Abc#hase"
S MASK SG AKK
Lehrling\s#not
Wohnung\s#tür
Strasse\n#bahn#linie
Bund\es#verfassung\s#gericht
Zu beachten sind insbesondere die von GERTWOL gelieferten z.T. recht bizarren (aber techni-
Zum Ausprobieren: GERTWOL von LingSoft
(SET) Was ist Morphologie?
sche gesehen korrekten!) Analysen:
10
Fleischerzeugnis:
"<*fleischerzeugnis>"
"*fleischer#zeug˜nis"
"*fleischer#zeug˜nis"
"*fleischer#zeug˜nis"
S NEUTR SG NOM
S NEUTR SG AKK
S NEUTR SG DAT
"*fleisch#er|zeug˜nis" S NEUTR SG NOM
"*fleisch#er|zeug˜nis" S NEUTR SG AKK
"*fleisch#er|zeug˜nis" S NEUTR SG DAT
"*fleisch˜er#zeug˜nis" S NEUTR SG NOM
"*fleisch˜er#zeug˜nis" S NEUTR SG AKK
"*fleisch˜er#zeug˜nis" S NEUTR SG DAT
Schluss
In vielen Anwendungenbereichen der Computerlinguistik ist man darauf angewiesen, dass
man unterschiedliche Wortformen, die dieselben oder ähnliche Inhalte ausdrücken, auf eine
gemeinsame Form bringen kann. Dies kann mit
unterschiedlichen Mitteln erreicht werden (nach
Aufwand geordnet):
1. Trunkierung
⇓
2. Stemming
oder
⇓
Regalbretter:
"<*regalbretter>"
"*regal#brett"
"*regal#brett"
"*regal#brett"
2a. kontextunabhängies Suffix-Stripping
⇓
S NEUTR PL NOM
2b. kontextabhängiges Suffix-Stipping
S NEUTR PL AKK
⇓
S NEUTR PL GEN
3. Lemmatisierung
"*reg#alb#rett˜er"
"*reg#alb#rett˜er"
S MASK SG NOM
"*reg#alb#rett˜er"
"*reg#alb#rett˜er"
S MASK SG DAT
S MASK PL NOM
Grundsätzlich gilt: Je genauer das Vorgehen, de-
"*reg#alb#rett˜er"
"*reg#alb#rett˜er"
S MASK PL AKK
sto aufwendiger ist es zu realisieren.
S MASK SG AKK
S MASK PL GEN
⇓
4. Morphologieanalyse
Reduzieren der Wortformen
13
Literatur
Hess, Michael: Einführung in die Computerlinguistik I: Interaktives Vorlesungsskript WS 04/05. Link: Skript
ECL WS05, 2005
Lezius, Wolfgang: Morphy - German Morphology, Part-of-Speech Tagging and Applications. In Heid,
Ulrich et al. (Hrsg.): Proceedings of the 9th EURALEX International Congress. Stuttgart, 2000
hURL: http://www.wolfganglezius.de/lib/exe/fetch.php?id=public%3Acl%3Amorphy\
&cache=cache\&media=public:cl:euralex2000.pdfi, 619–623
Lovins, J.B.: Development of a Stemming Algorithm. 1968, 220–31
Porter, Martin F.: An Algorithm for Suffix Stripping. Program, 14 1980, Nr. 3, 130–137
Salton, G.: Automatic Text Processing; The Transformation, Analysis, and Retrieval of Information by Computer. Reading, Mass.: Addison-Wesley, 1989
Smith, George W.: Computers and Human Language. New York/Oxford: Oxford University Press, 1991
Herunterladen