9. Vorlesung Lineare Algebra, SVD und LSI • Grundlagen lineare Algebra – Vektornorm, Matrixnorm – Eigenvektoren und Werte – Lineare Unabhängigkeit, Orthogonale Matrizen • SVD, Singulärwerte und Matrixzerlegung • LSI:Latent Semantic Indexing WS 2006/07 Alexander Hinneburg, Martin-Luther-Universität Halle/Wittenberg Seite 248 Matrix-Vektor Multiplikation Symbolisch WS 2006/07 Alexander Hinneburg, Martin-Luther-Universität Halle/Wittenberg Seite 249 Beispiel WS 2006/07 Alexander Hinneburg, Martin-Luther-Universität Halle/Wittenberg Seite 250 Alternative Präsentation von Matrix-Vektor Multiplikation • Sei aj der j-te Spaltenvektor von A • y ist eine Linearkombination der Spalten von A WS 2006/07 Alexander Hinneburg, Martin-Luther-Universität Halle/Wittenberg Seite 251 Matrix-Matrix Multiplikation • Sei und dann ist • Jede Zeile in B wird mit A multipliziert. WS 2006/07 Alexander Hinneburg, Martin-Luther-Universität Halle/Wittenberg Seite 252 Beispiel WS 2006/07 Alexander Hinneburg, Martin-Luther-Universität Halle/Wittenberg Seite 253 Vektor Normen • • • • L1 Norm: L2 Norm, Euklidische Norm Lunendlich, Maximum Norm Lp Norm WS 2006/07 Alexander Hinneburg, Martin-Luther-Universität Halle/Wittenberg Seite 254 Allgemeine Definition von Vektornormen • Eine Norm ist eine Funktion WS 2006/07 Alexander Hinneburg, Martin-Luther-Universität Halle/Wittenberg Seite 255 Distanz zwischen Vektoren • Distanz zwischen x und y ist wobei eine beliebige Norm ist • Oft Euklidische Norm • Alternative: Winkel zwischen Vektoren – Skalarprodukt – Beziehung zu Euklidischer Norm – Cosinus des Winkels zwischen zwei Vektoren (Ähnlichkeit) WS 2006/07 Alexander Hinneburg, Martin-Luther-Universität Halle/Wittenberg Seite 256 Beispiel Term-Dokument Matrix • Termhäufigkeiten • Mit Euklidischer Dist. sehen 1 und 2 unähnlich aus und 2 und 3 ähnlich, nur wegen der Dokumentlängen • Mit Cosinus Ähnlichkeit sind 1 und 2 ähnlich und unähnlich zu 3. WS 2006/07 Alexander Hinneburg, Martin-Luther-Universität Halle/Wittenberg Seite 257 Eigenwerte, Eigenvektoren • Sei A eine n x n Matrix und v ein Vektor mit • Dann ist v ein Eigenvektor von A und lambda ist ein Eigenwert WS 2006/07 Alexander Hinneburg, Martin-Luther-Universität Halle/Wittenberg Seite 258 Beispiel WS 2006/07 Alexander Hinneburg, Martin-Luther-Universität Halle/Wittenberg Seite 259 Matrixnormen • Sei eine Vektornorm und die korrespondierende Matrixnorm ist • Wurzel des größten Eigenwertes von • • • Max. der Zeilensummen Max. der Spaltensummen Frobeniusnorm: korrenspondiert zu keiner Vektornorm WS 2006/07 Alexander Hinneburg, Martin-Luther-Universität Halle/Wittenberg Seite 260 Lineare Unabhängigkeit • Die Vektoren wenn sind linear unabhängig, gdw. für alle • Eine Menge von m linear unabhängigen Vektoren aus wird Basis für genannt. Alle Vektoren aus können als Linearkombination der Basisvektoren ausgedrückt werden. WS 2006/07 Alexander Hinneburg, Martin-Luther-Universität Halle/Wittenberg Seite 261 Beispiel • Die Spalten sind nicht linear unabhängig, da für WS 2006/07 Alexander Hinneburg, Martin-Luther-Universität Halle/Wittenberg Seite 262 Rang einer Matrix • Rang einer Matrix ist die maximale Anzahl linear unabhängiger Spalten. • Eine quadratische Matrix mit Rang n ist nicht-singulär und hat eine Inverse mit • Die äußere Produktmatrix hat Rang 1 WS 2006/07 Alexander Hinneburg, Martin-Luther-Universität Halle/Wittenberg Seite 263 Orthogonalität • Zwei Vektoren sind orthogonal wenn • Seien orthogonal mit dann sind sie lin. unabhängig • Sei die Menge orthogonaler Vektoren normalisiert mit dann ist sind sie eine orthonormale Basis • Eine Matrix mit orthonormalen Spalten, heißt orthogonale Matrix WS 2006/07 Alexander Hinneburg, Martin-Luther-Universität Halle/Wittenberg Seite 264 Warum sind orthogonale Matrizen nett? • Eine orthogonale Matrix hat Rang m • • Inverse einer orthogonalen Matrix Q ist • Euklidische Länge eines Vektors ist invariant bei einer orthogonalen Transformation Q • Das Produkt von orthogonalen Matrizen ist orthogonal: WS 2006/07 Alexander Hinneburg, Martin-Luther-Universität Halle/Wittenberg Seite 265 Matrixdekomposition • Eine Matrix A soll in ein Produkt von ein oder mehreren Matrizen zerlegt werden • Die rechten Seiten sollen nützliche Eigenschaften haben WS 2006/07 Alexander Hinneburg, Martin-Luther-Universität Halle/Wittenberg Seite 266 Beispiel SVD WS 2006/07 Alexander Hinneburg, Martin-Luther-Universität Halle/Wittenberg Seite 267 Beispiel SVD WS 2006/07 Alexander Hinneburg, Martin-Luther-Universität Halle/Wittenberg Seite 268 Singulärwertzerlegung • Jede werden • wobei und Matrix A mit und ist diagonal kann zerlegt orthogonal sind • Abgespeckte Version: WS 2006/07 Alexander Hinneburg, Martin-Luther-Universität Halle/Wittenberg Seite 269 Singulärwerte und Vektoren • Die Diagonalelemente von sind die Singulärwerte der Matrix A. • Die Spalten von U und V sind linke und rechte Singulärvektoren. • Äquivalente Form der SVD: WS 2006/07 Alexander Hinneburg, Martin-Luther-Universität Halle/Wittenberg Seite 270 Äußere Produktform • Beginnt mit abgespeckter Form • Summe von Matrizen mit Rang 1. WS 2006/07 Alexander Hinneburg, Martin-Luther-Universität Halle/Wittenberg Seite 271 Matrix Approximation • Satz: Sei und und definiere dann ist WS 2006/07 Alexander Hinneburg, Martin-Luther-Universität Halle/Wittenberg Seite 272 Was bedeutet das? • Die beste Approximation mit Rang k einer Matrix A ist • Sinnvoll für – Kompression – Rauschunterdrückung – Finden von Konzepten oder Themen, LSI • Korrekter Rang durch Singulärwerte WS 2006/07 Alexander Hinneburg, Martin-Luther-Universität Halle/Wittenberg Seite 273 Beispiel: Rauschunterdrückung • Angenommen eine Matrix besteht aus einer Matrix mit niedrigem Rang und Rauschen • Singulärwerte WS 2006/07 Alexander Hinneburg, Martin-Luther-Universität Halle/Wittenberg Seite 274 Log der Singulärwerte WS 2006/07 Alexander Hinneburg, Martin-Luther-Universität Halle/Wittenberg Seite 275 Konsequenzen • Beste Rang 1 Approximation von A ist • Angenommen dann d.h. der Rang ist die Anzahl der Nicht-Null Singulärwerte von A WS 2006/07 Alexander Hinneburg, Martin-Luther-Universität Halle/Wittenberg Seite 276 Störungstheorie • Satz: Seien A und A+E in dann ist für mit • E wird als Rauschen gedacht WS 2006/07 Alexander Hinneburg, Martin-Luther-Universität Halle/Wittenberg Seite 277 Log der Singulärwerte Eigengap WS 2006/07 Alexander Hinneburg, Martin-Luther-Universität Halle/Wittenberg Seite 278 Eigenwert- und Singulärwertzerlegung • • deshalb: d.h. in Spaltenschreibweise • Äquivalent gilt mit WS 2006/07 Alexander Hinneburg, Martin-Luther-Universität Halle/Wittenberg Seite 279 Singulärwerte und Vektoren • Die Singulärwerte sind die nicht-negativen Wurzeln der Eigenwerte von • Die Spalten von V sind die Eigenvektoren von • Die Spalten von U sind die Eigenvektoren von WS 2006/07 Alexander Hinneburg, Martin-Luther-Universität Halle/Wittenberg Seite 280 Latent Semantic Indexing • Annahme: es gibt eine verborgene Struktur in den Daten • Diese Struktur kann erhellt werden durch die Projekttion der Daten (Term-Dokument Matrix) in einen Unterraum mit niedriger Dimension durch SVD WS 2006/07 Alexander Hinneburg, Martin-Luther-Universität Halle/Wittenberg Seite 281 LSI Methode • Normalisiere die Spalten auf Länge 1 (sonst dominieren lange Dok. die ersten Singulärwerte und Vektroren). • Berechne SVD der Term-Dokument-Matrix und approximiere • • orthogonale Basis für alle Dokumente Spalte j hat die Koodinaten von Dok. j in der neue Basis • ist eine Projektion von A auf den von aufgespannten Unterraum WS 2006/07 Alexander Hinneburg, Martin-Luther-Universität Halle/Wittenberg Seite 282 Datenkompression • hält die Koordinaten der Dokumente bezüglich der ersten k linken Singulärvektoren WS 2006/07 Alexander Hinneburg, Martin-Luther-Universität Halle/Wittenberg Seite 283 Beispiel WS 2006/07 Alexander Hinneburg, Martin-Luther-Universität Halle/Wittenberg Seite 284 Dk fuer k=2 Dokumente 4 3 1 2 7 6 WS 2006/07 Alexander Hinneburg, Martin-Luther-Universität Halle/Wittenberg Seite 285 Themen • Tk sind die Koordinaten der Terme bezüglich der ersten k rechten Singulärvektoren WS 2006/07 Alexander Hinneburg, Martin-Luther-Universität Halle/Wittenberg Seite 286 Themen, k=2 Toddler Safety Health Guide Baby Child Proofing WS 2006/07 Alexander Hinneburg, Martin-Luther-Universität Halle/Wittenberg Seite 287 Fehler der Approximation • Relativer Fehler • Beispiel: • Oft wird Frobeniusnorm statt Euklidischer Norm genutzt WS 2006/07 Alexander Hinneburg, Martin-Luther-Universität Halle/Wittenberg Seite 288 Anfragen mit LSI • Repräsentiere Term-Dok. Matrix als • Berechne • Folding In der Anfrage • Ähnlichkeit • Anfrage wird im k-dimensionalen Unterraum bearbeitet WS 2006/07 Alexander Hinneburg, Martin-Luther-Universität Halle/Wittenberg Seite 289 LSI Zusammenfassung • LSI erhöht die Retrieval Qualität • Auch wenn der Approximationsfehler hoch ist • LSI kann mit Synonymen umgehen • ... und auch mit Mehrfachbedeutungen WS 2006/07 Alexander Hinneburg, Martin-Luther-Universität Halle/Wittenberg Seite 290