W ESTF ÄLISCHE W ILHELMS -U NIVERSIT ÄT M ÜNSTER I NSTITUT F ÜR M ATHEMATISCHE L OGIK UND G RUNDLAGENFORSCHUNG Lineare Algebra Vorlesung von Wolfram Pohlers Wintersemester 1997/98 Sommersemester 1998 Typeset by Wolfram Pohlers 2 Vorwort Das vorliegende Skript ist eine Mitschrift der Vorlesung, die ich im Wintersemester 1997/98 und Sommersemester 1998 an der Westfälischen Wilhelms-Universität gehalten habe. Ein Teil der Mitschrift – etwa bis Kapitel 4 – beruht auf Aufzeichnungen der von mir vorgetragenen Definitionen und Sätze, die mir Herr stud. math. P ETER H ORN bereits in geTEXter Form überlassen hat. Allerdings habe ich diesen Text so weit verändert und ergänzt, daß alle eventuellen Ungenauigkeiten zu meinen Lasten gehen. Die Niederschrift des übrigen Textes erfolgte vorlesungsbegleitend. Mein ganz besonderer Dank gebührt den Studierenden Frau M AIKE WALTHER, Herrn H ENRIK B UCHHOLZ , Herrn K EVIN B UCHIN und Herrn H ENDRIK K L ÄVER, die den vorliegenden Text Korrektur gelesen und einen Großteil der Korrekturen auch eigenhändig eingearbeitet haben. Ich hoffe, daß dieses Skript sich als hilfreich für die Prüfungsvorbereitungen erweisen wird. Im Januar 1999 Wolfram Pohlers i ii INHALTSVERZEICHNIS Inhaltsverzeichnis 0 1 Vorbemerkungen 0.1 Etwas Aussagenlogik . 0.2 Etwas Quantorenlogik 0.3 Etwas Mengenlehre . . 0.4 Relationen . . . . . . . 0.5 Funktionen . . . . . . 0.6 Natürliche Zahlen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Vektorräume 1.1 Gruppen, Ringe und Körper . . . . . . . . . . . . . . . . . . . . 1.2 Vektorräume . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Ein kleiner Exkurs ins Unendliche . . . . . . . . . . . . . . . . . 1.3 Einige Beispiele . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.3.1 Der Vektorraum 1.3.2 Der Vektorraum der Abbildungen von einer Menge in einen Körper . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.3.3 Polynome . . . . . . . . . . . . . . . . . . . . . . . . . . 1.3.4 Produkte und Summen von Vektorräumen . . . . . . . . . 19 19 25 31 38 38 Lineare Abbildungen 2.1 Homomorphismen . . . . . . . . . . . . . . . . . 2.2 Kanonische Faktorisierung von Homomorphismen 2.3 Lineare Abbildungen . . . . . . . . . . . . . . . . 2.4 Direkte Summen von Unterräumen . . . . . . . . . 2.5 Der Vektorraum Hom . . . . . . . . . . . . . . . . . 45 45 47 53 57 61 Matrizen 3.1 Basisdarstellung linearer Abbildungen . . . . . . . . . . . . . . . 3.2 Der duale Raum und die transponierte Matrix . . . . . . . . . . . 3.3 Basistransformationen . . . . . . . . . . . . . . . . . . . . . . . 65 65 72 81 2 3 1 1 3 4 8 11 14 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40 41 42 iii INHALTSVERZEICHNIS 3.4 3.5 3.6 Der Rang linearer Abbildungen und der Rang einer Matrix . . . . Elementare Umformungen . . . . . . . . . . . . . . . . . . . . . Lineare Gleichungssysteme und affine Räume . . . . . . . . . . . 4 Determinanten 4.1 Permutationen . . . . . . . . . . . . . . . . . . . . . . . . 4.2 Determinantenfunktionen . . . . . . . . . . . . . . . . . . 4.3 Die Determinante eines Endomorphismus und einer Matrix 4.4 Die inverse Matrix und die Cramersche Regel . . . . . . . . . . . . . . . . . . . . . . . 87 88 98 113 113 116 119 126 5 Normalformdarstellungen von Endomorphismen 5.1 Teilbarkeit in Ringen . . . . . . . . . . . . . . . . . . . . . . . . 5.2 Euklidische Ringe . . . . . . . . . . . . . . . . . . . . . . . . . . 5.3 Der Polynomring . . . . . . . . . . . . . . . . . . . . . . . 5.4 Eigenwerte und Eigenvektoren von Endomorphismen . . . . . . . 5.5 Diagonalisierung . . . . . . . . . . . . . . . . . . . . . . . . . . 5.6 Algebren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.7 Die Minimalzerlegung eines algebraischen Elements . . . . . . . 5.8 Die Algebra der Endomorphismen eines endlich dimensionalen Vektorraumes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 131 131 135 138 142 145 149 153 6 Euklidische und unitäre Vektorräume 6.1 Bilinearformen . . . . . . . . . . . . . 6.2 Positiv definite Bilinearformen . . . . . 6.3 Euklidische Vektorräume . . . . . . . . 6.4 Isometrien euklidischer Räume . . . . . 6.5 Sesquilinearformen . . . . . . . . . . . 6.6 Unitäre Vektorräume . . . . . . . . . . 6.7 Komplexifizierung reeller Vektorräume 6.8 Isometrien unitärer Räume . . . . . . . 6.9 Normale Endomorphismen . . . . . . . 6.10 Unitäre und orthogonale Abbildungen . 6.11 Selbstadjungierte Endomorphismen . . 171 171 177 180 187 192 199 200 202 203 209 213 iv . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 159 0. Vorbemerkungen, Notationen, Konventionen 0.1 Etwas Aussagenlogik Beispiele von Aussagen Die Sonne scheint. Es regnet. Ich spanne den Schirm auf. Eine Aussage besteht also aus einem (oder mehreren) Objekten, die Sonne, Es, ich, der Schirm und Prädikaten, die auf die Objekte angewendet werden. Die Sonne scheint; es regnet, ich spanne den Schirm auf. Mehrere Aussagen lassen sich zu einer neuen Aussage verknüpfen. Z.B.: Die Sonne scheint und es ist warm. Die Sonne scheint oder es regnet. Wenn es regnet, dann spanne ich den Schirm auf. Durch Negation lassen sich Aussagen in ihr Gegenteil umformen. Dies ist bei wenn. . . dann Aussagen nicht immer ganz einfach. So erhalten wir beispielsweise als Negation der Aussage Wenn es regnet, dann spanne ich den Schirm auf die Aussage Es regnet und ich spanne den Schirm nicht auf. Um den umgangssprachlichen Begriffen wie und, oder, wenn . . . dann und nicht eine präzise mathematische Bedeutung zu geben, führen wir aussagenlogische Junktoren ein. Aussagen sind dadurch gekennzeichnet, daß sie wahr oder falsch sein 1 0. Vorbemerkungen können. Die Verknüpfung von Aussagen ist also dadurch festgelegt, daß wir vereinbaren, welcher Wahrheitswert der verknüpften Aussage in Abhängigkeit der Wahrheitswerte der zu verknüpfenden Aussagen zukommen soll. Eine -stellige aussagenlogische Operation ist also eine Funktion, die Wahrheitswerten einen Wahrheitswert zuordnet. Wir kommen mit den folgenden - und –stelligen aussagenlogischen Operationen aus. (Mit Mitteln der Mathematischen Logik läßt sich zeigen, daß jede aussagenlogische Operation schon aus den folgenden aufgebaut werden kann.) 0.1.1 Definition Die aussagenlogischen Operationen (Junktoren) oder nicht und wenn-dann und genau dann wenn werden durch die folgenden Wahrheitstafeln definiert: w f f w w f w w f f f f w f w w w f w f w f w w w f f w w f w w f f f w Dabei sind die Wahrheitstafeln so zu lesen, daß in der Spalte unter dem Junktor dessen erstes Argument und in der Zeile neben dem Junktor dessen zweites Argument steht. Der Wahrheitswert der verknüpften Aussage steht dann im Schnittpunkt von Zeile und Spalte. Legen wir die Wahrheitstafeln zugrunde, so erhalten wir durch einfaches Nachrechnen die folgenden 0.1.2 Rechenregeln für Aussagenlogische Operationen (i) (ii) (iii) (iv) (v) 2 ! " ! ! 0.2. Etwas Quantorenlogik (vi) (vii) (viii) (xi) (x) (xi) (xii) (xiii) " " (xiv) 0.2 Etwas Quantorenlogik Neben reinen Aussagen wie “die Sonne scheint” spielen auch quantifizierte Aussagen eine Rolle, wie z.B. “alle Studenten sind fleißig” oder “es gibt Studenten, die fleißig sind”, die etwas über alle Studenten aussagen oder die Existenz (von fleißigen Studenten) behaupten. Solche Aussagen nennt man quantifizierte Aussagen. Die Theorie, die solche Aussagen untersucht, ist die Quantorenlogik (oder Prädikatenlogik, wie sie häufiger genannt wird). Man kommt für die üblichen mathematischen Anwendungen mit den beiden folgenden Quantoren aus. (für Alle) (Es gibt) Als Beispiel wollen wir eine Formel angeben, die die Stetigkeit einer reellen Funk tion in einem Punkte ausdrückt. Oft steht man vor dem Problem, quantifizierte Aussagen negieren zu müssen. Schon das obige Beispiel der Stetigkeit zeigt, daß dies im allgemeinen nicht einfach ist. Folgt man der inhaltlichen Bedeutung der Aussage “ Es gilt nicht, daß für alle die Aussage zutrifft”, so kommt man zu dem Schluß, daß es dann zumindest ein geben muß, für das nicht zutrifft. Ebenso wird die Aussage “für alle gilt ” falsch, wenn es ein mit gibt. Damit erhält man die folgenden “Rechenregeln” für die Negation quantifizierter Aussagen (die sich im Rahmen 3 0. Vorbemerkungen der Mathematischen Logik genauer begründen lassen, ohne daß wir dies hier tun wollen). Wenden wir dies aufdas Beispiel der Stetigkeit an, so erhalten wir, daß eine Funktion in einem Punkt nicht stetig ist, wenn gilt: Um zu zeigen, müssen wir nachweisen, daß für ein beliebiges Element gilt. zu zeigen, genügt es, ein Objekt mit zu finden. Man kann Um jedoch auch zeigen, indem wir annehmen und daraus etwas Falsches schließen. Damit haben wir und mit 0.1.2 (xi) folgt , was und damit bedeutet. 0.3 Etwas Mengenlehre Alle in der Mathematik betrachteten Objekte lassen sich als Mengen auffassen. Dabei verstehen wir eine Menge naiv als eine Zusammenfassung von Objekten zu einem Oberbegriff. Diese Objekte bezeichnen wir dann als die Elemente der Menge, die durch den Oberbegriff repräsentiert wird. Es mag einem zunächst merkwürdig vorkommen, daß sich sogar natürliche Zahlen als Mengen darstellen lassen, obwohl wir uns gar nicht so recht vorstellen können, was wohl die Elemente einer natürlichen Zahl sein sollen. Wir wollen uns daher kurz klarmachen, daß dies tatsächlich geht. Es sei das Symbol für die leere Menge, d.h. die Menge, die keine weiteren Elemente hat. Dann setzen wir 4 0.3. Etwas Mengenlehre usw. . . . und erhalten so alle natürlichen Zahlen als Mengen. Es ist ein Ergebnis der Mengenlehre, daß sich tatsächlich alle in der Mathematik betrachteten Objekte als Mengen darstellen lassen. Daher hat sich die Sprache der Mengenlehre als eine in der Mathematik üblicherweise gebrauchte Sprache eingebürgert. Dies zwingt uns, uns hier kurz mit einigen Grundbegriffen der Mengenlehre auseinanderzusetzen. Dabei wollen wir nicht definieren, was eine Menge ist (das wäre ein viel zu schwieriges Unterfangen, bis heute können wir nicht genau sagen, was eigentlich Mengen sind). Wir wollen uns daher nur mit den Beziehungen auseinandersetzen, in denen Mengen untereinander stehen können. Die wesentlichste Beziehung der Mengenlehre ist die ausdrücken soll, daß die Menge ein Element von ist. Die Klasse aller Mengen (die selbst keine Menge sein kann) bezeichnen wir als das mathematische Universum , in dem alle mathematischen Objekte zu finden sind. bedeutet daher “ ist eine Menge” und damit ein mathemaDie Notation tisch vernünftiges Objekt. Zusammenfassungen von Mengen, von denen wir noch nicht so genau wissen, ob sie mathematisch vernünftige Objekte, also Mengen, sind, bezeichnen wir vorsichtshalber zunächst als Klassen. Insbesondere sind alle Mengen auch Klassen. Obwohl wir Klassen nicht als die eigentlichen Objekte unseres Interesses betrachten, wollen wir einige ihrer grundlegenden Eigenschaften charakterisieren. So wollen wir zwei Klassen und als gleich betrachten, wenn sie die gleiche Extension haben, d.h. die gleichen Elemente besitzen. In Formelschreibweise bedeutet dies: (Extensionalität) . Beachte, daß alles, was für Klassen definiert wird, auch für Mengen gilt, die ja selbst alle auch Klassen sind. So sind zwei Mengen gleich, wenn sie als Klassen gleich sind, d.h. die gleichen Elemente besitzen. Wir sagen, daß eine Teilklasse von oder eine Oberklasse von ist, wenn jedes Element von auch ein Element von ist. Wissen wir, daß und Mengen sind, so sprechen wir auch von Teil– und Obermengen. In Formelschreibweise Wir definieren und nennen eine echte Teilklasse (Teilmenge) von . 5 0. Vorbemerkungen 0.3.1 Lemma genau dann, wenn Beweis: Nach 0.1.2 gilt gilt. Daraus erhalten wir Um Klassen bilden zu können, müssen wir ihre Objekte beschreiben können. Dazu benötigen wir eine Sprache. Wir wollen diese Sprache hier nicht exakt festlegen (das wäre für diese Vorlesung übertrieben pingelig), sondern unsere übliche Umgangssprache, angereichert um die bereits bekannten mathematischen Symbole benutzen. Wir drücken durch die Schreibweise aus, daß dem Objekt die (die in unserer Sprache beschrieben ist) zukommt. Haben wir so Eigenschaft eine Eigenschaft, so bilden wir den Ausdruck und sprechen von der Klasse der mit der Eigenschaft . Eine Menge ist genau dann ein Element dieser Klasse, wenn es die Eigenschaft hat. In Formeln ausgedrückt schreiben wir dies als Insbesondere definieren wir die leere Klasse durch Wir wollen nun einige Prinzipien angeben, wie wir Mengen (also Elemente des Universums ) bilden können. Wir beginnen mit (Leere Menge) . Haben wir bereits eine Menge , so wollen wir aus dieser die Elemente aussondern können, denen die Eigenschaft zukommt. Wir fordern daher (Aussonderungsaxiom) . Wir werden es in dieser Vorlesung nie mit echten Klassen zu tun haben, d.h. mit Klassen, die keine Mengen sind. Da es darüber hinaus oft klar oder unerheblich ist, aus welcher Menge ausgesondert wird, schreiben wir einfach salopp , falls anstatt festgelegt ist. Als Beispiel wollen wir endlich viele Objekte zu einer Klasse zusammenfassen. Dies läßt sich beschreiben durch: 6 0.3. Etwas Mengenlehre oder kürzer durch für ein mit . Natürlich wollen wir wieder als Menge haben, wenn Dann gilt Das erreichen wir durch die folgende Vereinbarung (Paarmengenaxiom) Mengen sind. . Um weitere Mengenbildungen zu beschreiben, führen wir zunächst die folgenden Operationen auf Klassen ein. Klassenoperationen Für zwei Klassen und sei: (Durchschnitt zweier Klassen) (Klassendifferenz) Allgemeiner definieren wir für eine Klasse (Vereinigung zweier Klassen) – eine solche Klasse nennt man auch eine Mengenfamilie mit Indexmenge – die Klassen (Vereinigung) und (Durchschnitt) . Wir fordern nun, daß die Vereinigung über eine Mengenfamilie, deren Indexmenge eine Menge ist, ebenfalls wieder eine Menge ist. Dies wird formuliert im (Vereinigungsmengenaxiom) Man beachte, daß man jede Menge als eine Mengenfamilie fassen kann. Daher schreibt man oft kurz und anstatt Das Vereinigungsmengenaxiom vereinfacht sich dann zu bzw. . auf . 7 0. Vorbemerkungen Eine weiteres Axiom zur Mengenbildung ist das (Potenzmengenaxiom) Pow . Dabei nennt man Pow die Potenzmenge (powerset) von . Das sind die wesentlichen Mengenbildungsoperationen, mit denen wir in dieser Vorlesung auskommen werden. Zu erwähnen ist noch, daß wir die Existenz einer unendlichen Menge aus den bisher eingeführten Axiomen nicht folgern können. Daher fordert man im Unendlichkeitsaxiom die Existenz einer unendlichen Menge. Bezeichnen wir mit die Menge der natürlichen Zahlen, so genügt es zu fordern: (Unendlichkeitsaxiom) . Wir geben das folgende Lemma ohne weiteren Beweis an. Die Beweise werden in der Vorlesung über Mengenlehre geführt. Hier können wir die Aussagen des Lemmas einfach als Grundtatsachen über Mengen voraussetzen. 0.3.2 Lemma Es gelten und (i) (ii) Eine häufige Anfängerunsicherheit resultiert aus der extensionalen Gleichheit von Mengen. So sollte man beachten, daß und (1) (2) gilt. 0.4 Relationen Will man die Reihenfolge der Elemente in einer Menge respektiert wissen, so muß man geordnetet Paare einführen. In der Sprache der Mengenlehre läßt sich das geordnete Paar definieren. 0.4.1 Definition Wir definieren 8 0.4. Relationen und nennen das geordnete Paar von 0.4.2 Lemma und . und Beweis: Wir zeigen zunächst die einfache Richtung “ ” Aus erhalten wir zunächst und und damit auch . Die Gegenrichtung “ ” ist deutlich aufwendiger zu zeigen. Hier beginnen wir mit für . Wegen (i) (ii) folgt aus (i) und (ii) Aus der Voraussetzung erhalten wir aus (iii) (iii) und wir haben Damit folgt und (iv) , was (v) (vi) nach sich zieht. Nun haben wir zwei Fälle zu unterscheiden: . Dann ist nach (vi) 1. Fall: und damit . . Dann ist nach (v) und mit Extensionalität 2.Fall: . folgt 0.4.3 Definition Seien und nennen und Mengen, dann definieren wir ! das kartesische Produkt von und . 9 0. Vorbemerkungen Wegen Pow Pow erhalten wir Mit Lemma 0.3.2 erhalten wir daher Pow Pow . (3) 0.4.4 Definition Eine Menge heißt eine Relation zwischen und . Wir sagen, daß und in Relation stehen, wenn ist. Im allgemeinen notieren wir dies in der “Infixnotation”, d.h. wir schreiben statt . Ist , also , so sprechen wir von einer Relation auf . 0.4.5 Definition Sei eine Relation auf . Wir nennen symmetrisch ; antisymmetrisch ; ; reflexiv ; antireflexiv ; transitiv linear oder konnex . reflexiv, antisymmetrisch und transitiv ist; strikte Halbordnung, wenn antireflexiv und transitiv ist; eine lineare Halbordnung ist; strikte Ordnung, wenn eine lineare strikte Halbordnung ist; Äquivalenzrelation, wenn reflexiv, symmetrisch und transitiv ist. 0.4.6 Beispiele Für folgende, von der Schule her bekannten Relationen , auf der Menge der natürlichen Zahlen gilt: heißt eine Halbordnung, wenn Ordnung, wenn Die Relation , ist lineare strikte Ordnung, ist lineare Ordnung, ist Äquivalenzrelation. Als Beispiel einer vielleicht weniger bekannten Äquivalenzrelation führen wir die Kongruenzrelation “modulo ” auf der Menge der ganzen Zahlen wie folgt ein: 10 0.5. Funktionen mod Die Relation der ganzen Zahlen. wobei für die Aussage steht, daß die ganze Zahl die Differenz teilt. Man rechnet leicht nach, daß dies eine Äquivalenzrelation definiert. definiert dann eine Halbordnung auf der Menge Ein weiteres Beipiel für eine Halbordnung ist die Teilmengenbeziehung auf der Potenzmenge Pow einer Menge . , d.h. eine Relation zwischen und , so sei und (gesprochen als “ konvers”) eine Relation zwischen . Wir nennen die zu konverse Relation. 0.4.7 Definition Ist 0.4.8 Definition Wir führen die folgenden Bezeichnungen und Redeweisen ein. Es eine Relation. Dann definieren wir sei dom Wir nennen dom ; rng Wir nennen rng feld 0.5 . rng 0.4.9 Definition Sind Wir nennen den Nachbereich (englisch range) von heißt das Feld der Relation den Definitionsbereich, den Vorbereich oder den Domain von dom . und Relationen, so sei die Komposition der Relationen und . Funktionen 0.5.1 Definition Eine Relation Eine rechtseindeutige Relation und Ziel . heißt rechtseindeutig, wenn gilt: heißt eine partielle Funktion mit Quelle 11 0. Vorbemerkungen , daß F eine partielle Funktion mit Quelle und Wir notieren durch Ziel ist. und ist . Ist dom , so gibt es genau ein Element mit Dieses bezeichnen wir mit , also . Die Menge dom heißt der Definitionsbereich von . Es ist dom mit dom Üblicherweise betrachten wir Funktionen . Solche . Anstelle von Funktionen nennt man auch total und schreibt sie als totalen Funktionen sprechen wir auch von Abbildungen. Die Menge Im rng heißt das Bild von der Funktion . Es gilt Im dom Oft schreibt man Funktionen in der Form 0.5.2 Definition Eine (totale) Funktion surjektiv bijektiv dom ; injektiv heißt Durch Kontraposition der Definition der Injektivität erhalten wir für Schreibweisen Für sei Wir nennen weise ist Für sei (4) das Bild der Menge unter der Abbildung . Mit dieser Schreib surjektiv, wenn ist. 12 und ! Die Menge heißt die Urbildmenge von ist injektiv und surjektiv. injektiv . 0.5. Funktionen 0.5.3 Lemma Ist injektiv, so ist eine partielle Funktion mit dom Im . Ist bijektiv, so ist eine (totale) bezeichnet wird und die zu inverse bijektive Funktion, die üblicherweise mit Funktion genannt wird. Diese Bezeichnung ist von der Schreibweise wohl zu unterscheiden. Beweis: Wir haben für die erste Behauptung zu zeigen, daß auf Im definiert und rechtseindeutig ist. Aus der Injektivität von f folgt sofort die Rechtseindeutig . Damit ist keit von . Zu Im gibt es ein mit und somit dom . Damit ist Im dom . Ist Im , , d.h. so folgt und damit auch . Damit dom , und wir haben auch Im gezeigt. Ist darüber ist aber dom hinaus auch noch surjektiv, so ist dom Im und somit total. 0.5.4 Lemma Sind eine Funktion. und Funktionen, so ist auch Beweis: Nach Definition 0.4.9 ist . Nachdem und Funktionen sind, ist durch und durch eindeutig bestimmt. Damit ist aber durch eindeutig bestimmt und es folgt . Somit ist rechtseindeutig und damit eine Funktion. 0.5.5 Lemma Ist (Identität auf ), so gilt bijektiv und bezeichne id id und id . Beweis: Nach Lemma 0.5.3 und Lemma 0.5.4 sind sowohl als auch Funktionen. Für erhalten wir und . Damit und damit ist id . Ganz analog zeigt man ist id . 0.5.6 Lemma Ist id , so ist . bijektiv, und ist Beweis: Wir haben zu zeigen, daß indirekt und nehmen dazu derart, daß für alle an. Wegen der Injektivität von folgt daraus absurd ist. gilt. Dies tun wir (i) , was 13 0. Vorbemerkungen 0.5.7 Lemma Sind auch bijektiv, und es gilt und bijektive Funktionen, so ist . Beweis: Wir zeigen zunächst, daß injektiv ist. Seien dazu mit . Dann folgt wegen der Injektivität von zunächst und wegen der Injektivität von dann auch . und Um die Surjektivität von zu erhalten, beginnen wir mit einem finden wegen der Surjektivität von dazu ein mit . Wegen der Surjektivität von erhalten wir ein mit . Setzen wir dies zusam , und wir haben ein Urbild von unter men, so folgt gefunden. Zum Schluß berechnen wir und erhalten mit Lemma 0.5.6 . 0.6 Natürliche Zahlen Eine wesentliche Rolle in mathematischen Betrachtungen kommt der Menge der natürlichen Zahlen zu. Wir wollen daher einige Grundtatsachen über diese Menge zusammenstellen. Alle hier aufgelisteten Tatsachen lassen sich im Rahmen einer Mengenlehre mit Unendlichkeitsaxiom folgern. Wir wollen darauf hier aber nicht näher eingehen, sondern diese Tatsachen als Grundeigenschaften natürlicher Zahlen ansehen. Natürliche Zahlen werden über den Prozeß des Zählens eingeführt. Eine Menge zu zählen, heißt ihre Elemente zu ordnen. Eine Element kommt vor dem Element wenn vor gezählt wurde. Umgekehrt können die Elemente einer geordneten Menge ihrer Ordnung nach gezählt werden. Allerdings eignet sich nicht jede Ordnung zum Zählen. So muß, damit wir weiterzählen können, die Ordung gewährleisten, daß jede verbleibende Restmenge von noch nicht gezählten Elementen ein kleinstes Element besitzt. Mit diesem Element können wir dann weiterzählen. Ordnungen mit dieser Eigenschaft heißen Wohlordnungen, die wir im folgenden formal korrekt einführen wollen. 0.6.1 Definition Eine strikte lineare Ordnung Wohlordnung von , wenn gilt: feld d.h. wenn jede nicht leere Teilmenge des Feldes von Element besitzt. 14 auf einer Menge heißt eine ein bezüglich , kleinstes 0.6. Natürliche Zahlen Wir wollen hier die –Relation auf den natürlichen Zahlen als bekannt voraussetzen. Es ist die Ordnung, die sich durch den Zählprozess ergibt. (Im Rahmen einer Mengenlehre würde sich die Ordnung durch die -Beziehung ergeben.) Wir wollen die folgende Vereinbarung treffen. 0.6.2 Vereinbarung Die Menge der natürlichen Zahlen durch ihre kanonische Ordnung wohlgeordnet. wird 0.6.3 Eigenschaften natürlicher Zahlen Ohne weitere Begründung halten wir die folgenden Eigenschaften natürlicher Zahlen fest: ; Jedes Ist besitzt einen Nachfolger ; , so ist mit und ; , so ist oder der Nachfolger einer natürlichen Zahl, d.h. . Ist 0.6.4 Vollständige Induktion Gilt so folgt Das Prinzip der vollständigen Induktion besagt also, daß wir, um zu die Induktionsbehauptung zeigen, aus der Induktionsvoraussetzung folgern müssen. Beweis: Wir zeigen die Behauptung indirekt und nehmen an. Dann ist und hat, da (i) (ii) eine Wohlordnung ist, ein kleinstes Element . Damit gilt aber , d.h. . Nach Voraussetzung folgt daraus aber im Widerspruch zu . 15 0. Vorbemerkungen Äquivalent und vielleicht auch vertrauter ist eine Umformulierung der vollständigen Induktion, wie wir sie im folgenden angeben: 0.6.5 Vollständige Induktion Gilt der Induktionsanfang und der Indukti , so erhalten wir bereits onsschritt . Beweis: Wir gehen wieder indirekt vor und nehmen an. Dann gibt es wieder ein kleinstes mit . Wegen der Vor und damit ist mit nach aussetzung ist und . Wegen haben wir aber und schließen nach Voraussetzung , d.h. , was absurd ist. daraus auf Man wird sich als Anfänger Gedanken darüber machen, wo denn in der ersten Fassung (0.6.4) der Induktionsanfang geblieben ist. Sehen Sie genauer hin, so werden Sie bemerken, daß die Formel aus logischen Gründen wahr also auch für wird. Um die Implikation zur Verfügung zu haben, muß man haben. Dies ist der Induktionsbeginn. 0.6.6 Definition durch Rekursion Sind die Abbildungen gegeben, so ist die durch die Rekursionsvorschrift definierte Funktion und (5) eindeutig bestimmt. Beweis: Vorbemerkung: Die durch die obige Rekursionsvorschrift definierte Funktion ist wieder eine Menge, d.h. ein mathematisch sinnvolles Objekt. Im Rahmen einer Mengenlehre läßt sich die Existenz von auch beweisen. Wir wollen hier auf einen solchen Beweis verzichten, denn wir “sehen die Funktion” ja als sinnvolles Objekt. Allerdings werden wir nachweisen, daß es nur eine Funktion geben kann, die den obigen Rekursionsgleichungen gehorcht. Sie also eine weitere Funktion, die die Rekursionsgleichungen (5) erfüllt. Wir zeigen (i) durch vollständige Induktion. Für den Induktionsbeginn hat man zunächst (ii) und für den Induktionsschritt haben wir die Induktionsvoraussetzung 16 (iii) 0.6. Natürliche Zahlen woraus sich, da und beide die Rekursionsgleichungen (5) erfüllen, (iv) ergibt. Mit vollständiger Induktion erhalten wir daraus aber (i). Als Beispiel für eine Anwendung der Definition durch Rekursion wollen wir tupel für alle natürlichen Zahlen definieren. 0.6.7 Definition Wir beginnen die Rekursion bei , d.h. wir setzen und definieren und in 0.6.6 wobei wir von der in Definition 0.4.1 definierten Funktion ausgehen, die zwei Mengen , das geordnete Paar zuordnet. 0.6.8 Lemma Beweis: Wir führen Induktion nach . Für wir von der Induktionsvoraussetzung aus so erhalten wir mit 0.4.2 ist die Behauptung klar. Gehen (i) wobei wir bei der letzten Äquivalenz die Induktionsvoraussetzung eingesetzt ha ben. Als Anwendung der -tupel wollen wir -fache kartesische Produkte einführen. 0.6.9 Kartesisches Produkt Sind Mengen, so definieren wir Ebenso definieren wir 17 0. Vorbemerkungen und nennen 18 " das –fache kartesische Produkt von . Es ist dann fach 1. Vektorräume 1.1 Gruppen, Ringe und Körper 1.1.1 Definition Sei und eine Abbildung. Wir schreiben anstatt und nennen eine Verknüpfung auf . heißt eine Halbgruppe, wenn die Verknüpfung die folgende Das Paar Identität erfüllt. Wir sprechen dann von einer assoziativen Verknüpfung. , so nicht von der eine Halbgruppe und sind 1.1.2 Bemerkung Ist hängt wegen der Assoziativität von der Wert des Produkts Beklammerung ab. Wir definieren daher und erhalten und gilt. Analog heißt gilt. Wir nennen und 1.1.3 Definition Sei in , wenn eine Halbgruppe. Ein (1.1) heißt linksneutral rechtsneutral in , wenn neutral, wenn sowohl links- als auch rechtsneutral ist. 1.1.4 Satz Eine Halbgruppe besitzt höchstens ein neutrales Element. Beweis: Sind neutral, so folgt sofort . 19 1. Vektorräume eine Halbgruppe und 1.1.5 Definition Sei ein linksneutrales Element in . Gilt für , so heißt ein Linksinverses von . Analog heißt ein Rechtsinverses für , wenn für ein gilt. rechtsneutrales 1.1.6 Definition Eine Gruppe ist ein Paar , wobei eine Verknüpfung auf ist, die den folgenden Bedingungen genügt: (G1) ist eine Halbgruppe. (G2) Es gibt ein linksneutrales Element (G3) Zu jedem . existiert ein Linksinverses bzgl. . In Formelschreibweise lauten (G2) und (G3) (i) 1.1.7 Satz Ist eine Gruppe mit linksneutralem Element , so gelten: Jedes linksinverse Element bezüglich ist auch rechtsinvers bzgl. . (ii) ist das eindeutig bestimmte neutrale Element in . (iii) Das linksinverse Element jedes bestimmt. (iii) Sei und . Wir wählen so, daß . mit . Dann gilt . Nach 1.1.4 ist dann eindeutig Beweis: (i) Seien mit gilt. Dann ist . Nach (i) gibt es ein (ii) Sei ist eindeutig bestimmt. . Dann folgt Mit bezeichnen wir das nach 1.1.7 eindeutig bestimmte neutrale Element einer Gruppe , zu sei das eindeutig bestimmte Inverse. Ist aus dem Zusammenhang klar, um welche Gruppe es sich handelt, so schreiben wir im allgemeinen anstatt . Anstelle von schreiben wir in Zukunft oft kurz . dann eine Gruppe, wenn die ist genau für alle eine Lösung in haben. und Beweis: Ist eine Gruppe, so ist eine Lösung von eine Lösung von . 1.1.8 Satz Ein Halbgruppe Gleichungen und 20 1.1. Gruppen, Ringe und Körper Für die Gegenrichtung gehen wir davon aus, daß eine Halbgruppe ist und die o.a. Gleichungen in lösbar sind. Dann ist und wir wählen daher ein und suchen eine Lösung der Gleichung . Sei diese . Zu jedem gibt es dann eine Lösung von , d.h. ein mit . Damit folgt . Also ist linksneutral. Da wir die Gleichung für alle lösen können, hat jedes bezüglich ein linksinverses Element. Somit ist eine Gruppe. 1.1.9 Definition Sei Untergruppe von , wenn eine Gruppe und eine Gruppe ist, d.h. wenn . Wir nennen eine gilt und alle Gruppenaxiome erfüllt sind. ist genau gilt. Beweis: Ist eine Untergruppe und sind , so ist auch und . Dann damit auch . Gelte nun umgekehrt und folgt insbesondere für damit auch . Wegen erhalten folgt und für wir demnach und schließlich . Damit ist abgeschlossen unter der Verknüpfung , enthält das neutrale Element und mit jedem Element auch sein inverses. Also ist eine Gruppe und somit eine 1.1.10 Satz Sei eine Gruppe. Eine nicht-leere Menge dann eine eine Untergruppe von , wenn Untergruppe von . 1.1.11 Definition Ist eine Gruppe und gilt so heißt kommutativ oder abelsch. Oft werden abelsche Gruppen additiv ge schrieben, d.h. wir schreiben statt , statt und statt . Anstelle von schreibt man . 1.1.12 Beispiele (i) Wir sehen leicht, daß die Menge der natürlichen Zahlen zusammen mit der Addition ein Halbgruppe bilden. Wegen für alle ist eine Halbgruppe mit neutralen Element . Jedoch ist keine Gruppe, da wir zu einem kein mit finden können. (ii) Wollen wir zu einer Gruppe machen, so müssen wir zu jedem sein Inverses hinzunehmen. Dies ergibt die Menge 21 1. Vektorräume der ganzen Zahlen, die mit der Addition eine abelsche Gruppe bildet. Die Motivation zur Einführung ganzer Zahlen liegt natürlich darin, Gleichungen der Form lösen zu können. (iii) Die Menge der ganzen Zahlen zusammen mit der Multiplikation bildet wieder eine Halbgruppe mit neutralem Element . Diese läßt sich nicht so leicht zu einer Gruppe machen, da sich für keine inverses Element definieren läßt. Den noch läßt sich durch Hinzunahme der Lösungen der Gleichungen für zu der Menge der rationalen Zahlen erweitern, deren von verschiedenen Elemente zusammen mit der Multiplikation eine Gruppe bilden. (iv) Ein Ihnen vielleicht weniger vertrautes Beispiel einer Gruppe erhalten wir, wenn wir Permutationen betrachten. Dazu bezeichne die -elementige Men , die wir als paradigmatisch für eine beliebige -elementige Menge ge betrachten wollen. Sei nun bijektiv (1.2) heißt eine Permutation der Zahlen . Wir beobachten, daß eine Gruppe bildet, wobei wie im Abschnitt 0.5 die Komposition von Abbildungen bedeutet. Zunächst folgt aus Lemma 0.5.4, daß mit auch gilt. Aus Lemma 0.5.5 folgt, daß id ein neutrales Element für die Komposition ist und zu jedem ein inverses Element existiert. Man nennt die symmetrische Gruppe. Überzeugen Sie sich, daß diese Gruppe nicht kommutativ ist. Ein 1.1.13 Definition Seien , fungen auf . Das Tripel gungen erfüllt sind: (R2) (R3) es gelten die Distributivgesetze und Verknüp heißt ein Ring, wenn die folgenden Bedin ist eine additive abelsche Gruppe, ist eine Halbgruppe, (R1) Hat ein neutrales Element, so heißt ein Ring mit . Nach Satz 1.1.4 hat ein Ring höchstens eine . Gilt , so heißt kommutativ. 1.1.14 Einige Rechenregeln für Ringe (o) 22 1.1. Gruppen, Ringe und Körper (i) (ii) (iii) und ist nach . Also ist . Analog erhält man und damit . . Also ist . Analog gilt (ii) und . damit . (iii) Beweis: (o) Wegen Satz 1.1.7 (iii). (i) ein Ring. Ein Element 1.1.15 Definition Sei heißt linker Nullteiler in , wenn ist und es ein gibt mit und . Analog heißt rechter Nullteiler in , wenn ist und es ein gibt mit und . Ein Ring ohne Nullteiler heißt nullteilerfrei. Ein nullteilerfreier Ring mit 1 heißt Integritätsring. 1.1.16 Lemma Ist und folgt sein. Damit folgt aber teiler hat, muß folgt analog. nullteilerfrei, so gelten die Kürzungsregeln Beweis: Aus und . Da und keine Null . Die zweite Kürzungsregel ein Ring. Ist ein 1.1.17 Definition Sei , so heißt Unterring oder Teilring von , wenn ein Ring ist, d.h. wenn gilt ist eine Untergruppe von und . 1.1.18 Beispiele (i) Die Menge ist mit den Verknüpfungen und ein Ring. Der Ring ist nullteilerfrei und besitzt eine , damit ist ein Integritätsring. 23 1. Vektorräume (ii) Eine weiteres Beispiel ist die endliche Menge Verknüpfungen durch die Verknüpfungstafeln 0 1 2 3 0 0 1 2 3 1 1 2 3 0 2 2 3 0 1 3 3 0 1 2 1 2 3 1 1 2 3 2 2 3 1 , dessen 3 3 1 2 gegeben sind. Man rechnet leicht nach, daß es sich mit den angebenen Verknüpfun , indem man in den ganzen Zahgen um einen Ring handelt. Man erhält len “modulo 4” rechnet. Das heißt, man addiert und multipliziert die Elemente in als ob sie ganze Zahlen wären, teilt dann durch und behält nur den Rest. Dies ergibt dann immer eine Zahl zwischen und . Beachte, daß aber Nullteiler besitzt. wegen (iii) Das obige Beispiel läßt sich verallgemeinern zu ! indem man “modulo ” rechnet, d.h. die Elemente von wie ganze Zahlen addiert und multipliziert, durch teilt und nur den Rest behält. Versuchen Sie einmal, sich davon zu überzeugen, daß dieser Ring genau dann ein Integritätsring wird, wenn eine Primzahl oder ist. (K1) (K2) ist ein Ring, 1.1.20 Folgerungen (i) heißt ein (Schief-) Körper, wenn gilt 1.1.19 Definition Ein Ring bildet zusammen mit eine Gruppe. Jeder Körper hat mindestens zwei Elemente. (ii) Jede Gleichung der Form (iii) Jede Gleichung der Form eindeutig lösbar. ist in einem Körper eindeutig lösbar. und ist für in einem Körper (iv) Jeder Körper ist ein Integritätsring. Einen Schiefkörper mit kommutativer multiplikativer Gruppe heißt ein kommutativer Körper. Oft spricht man nur von Körpern und meint damit kommutative Körper im Gegensatz zu Schiefkörpern. Im folgenden betrachten wir nur noch Körper, d.h. Schiefkörper mit kommutativer multiplikativer Gruppe. 24 1.2. Vektorräume 1.2 Vektorräume Sei im Folgenden stets ein kommutativer Körper. Die Elemente von nen wir durch kleine griechische Buchstaben , , , . . . . 1.2.1 Definition Eine Menge Vektorraum –, wenn gilt: heißt Vektorraum über dem Körper (V1) Es gibt eine Verknüpfung abelsche Gruppe ist. (V2) Es gibt eine Abbildung genden Eigenschaften: (V21) (V23) (V22) (V24) Die Elemente von so, daß bezeich- – oder - eine additive (skalare Multiplikation) mit fol- . . . . heißen Vektoren. Anstatt schreiben wir oft kurz . 1.2.2 Folgerung Sei ein -Vektorraum. Es gilt genau dann, wenn oder ist, wobei das neutrale Element (Nullelement) der additiven abelschen Gruppe und das Nullelement des Körpers bedeuten. Beweis: Wir zeigen zuerst die Richtung Wir erhalten Analog ist und . Damit ist . somit Zum für . Dann folgt sei Beweis der Gegenrichtung . Also ist nach (V24). 1.2.3 Einige Rechenregeln (i) (ii) Ist eine Abbildung, so definieren wir für rekursiv 25 1. Vektorräume Dann gelten: (iii) (iv) (v) (1.3) . Beweis: (i) ist . . Damit (ii) . Also ist . (iii) Wir führen Induktion nach . Den Induktionsbeginn liefert . Dann erhalten wir . Für den Induktionsschritt haben wir die Induktionsvoraussetzung . Damit erhalten wir Analog zeigt man (iv). (v) Auch hier führen wir Induktion nach . Für erhalten wir . Der Induk tionsschritt ergibt sich aus . 1.2.4 Definition Sei ein -Vektorraum. Eine Teilmenge heißt ein Teilraum ( oder Untervektorraum) von , wenn (U1) (U2) mit gilt. 1.2.5 Satz Sei ein -Vektorraum. Dann ist Teilraum von , wenn mit den Operationen von 26 genau dann ein ein Vektorraum ist. 1.2. Vektorräume Sei ein Teilraum von . Dann ist und für . Dann ist auch und somit nach Satz 1.1.10 Untergruppe der abelschen Gruppe. Da mit und auch Beweis: folgt eine ist, , wo sie ja nach Vorausset- übertragen sich die übrigen Vektorraum-Axiome von zung gelten, auf . Ist ein Vektorraum, so ist , da zumindest gelten muß. Darüber hinaus muß als Vektorraum gegenüber Addition und skalarer Multiplikation ab geschlossen sein. -Vektorraum und eine Familie von Teilräumen wieder ein Teilraum von . 1.2.6 Satz Sei ein von . Dann ist . Da jedes der zumindest die enthalten . Gilt ist und so erhalten wir . Damit und, da alle Teilräume sind, sowie . Damit ist als auch und ist ein Teilraum. Beweis: Sei muß, folgt 1.2.7 Definition Sei ein -Vektorraum und . Dann definieren wir ist Teilraum von Wir nennen das Erzeugnis oder den Span von oder auch den von gespannten Raum. Die Menge heißt ein Erzeugendensystem für . auf- Nach Satz 1.2.6 ist ein Teilraum von . Als Beispiele erhalten wir den Nullvektorraum, dessen einziger Vektor der Nullvektor ist als und für (Null-Vektorraum) den von einem einzigen Vektor aufgespannten Raum. Anstelle von schreiben wir in Zukunft einfach . Wir wollen dieses Beispiel im folgenden Satz noch vertiefen. 1.2.8 Satz Sei ein -Vektorraum und , dann gilt 27 1. Vektorräume Man nennt einen Ausdruck der Form eine Linearkombination der Vek toren . Der Span von ist damit die Menge aller Linearkombinationen von Vektoren in M. Beweis: Sei d.h. ist die Menge aller Linearkombinationen von Vektoren aus . Zunächst ist klar, daß die Summe zweier Linearkombinationen von Vektoren aus wieder eine Linearkombinationen von Vektoren aus ist. Damit ist gegenüber der auch Addition abgeschlossen. Offensichtlich ist für . Damit ist ein Teilraum von . Wegen gilt natürlich auch für alle . Damit ist . Um auch die umgekehrte Inklusion zu erhalten, müssen wir zeigen, daß jeder Teilraum von , der umfaßt, auch umfaßt. Sei also und ein Teilraum von . Wählen wir , so gilt mit und . Wegen erhalten wir dann aber sofort , da als Teilraum gegenüber skalarer Multiplikation und Addition abgeschlossen ist. 1.2.9 Definition Ein -Vektorraum heißt endlich erzeugt, wenn es eine endliche Teilmenge mit gibt. erzeugt und gilt 1.2.10 Satz Ist endlich endliche Teilmenge mit . für , so gibt es eine . Dann gibt es zu jedem für ein Beweis: Sei . Dann erhalten und Vektoren mit wir als eine endliche Teilmenge von und für jedes folgt nach Satz 1.2.8 Damit ist . 1.2.11 Definition Sei ein -Vektorraum. Eine Teilmenge abhängig genau dann, wenn es eine endliche Teilmenge Elemente gibt mit 28 heißt linear und 1.2. Vektorräume Anderenfalls heißt linear unabhängig. D.h. wenn für jede endliche Teilmenge von Elementen aus gilt: ist genau dann linear unabhängig, und für alle Tupel Der Begriff der linearen Unabhängigkeit ist der zentrale Begriff der linearen Al gebra. Ist nun eine endliche Menge linear abhängiger Vektoren eines Vektorraumes , so bedeutet das, daß sich aus als nicht triviale Ligibt, die nicht alle nearkombination darstellen läßt, d.h. daß es verschwinden und doch gilt. Sind jedoch linear un folgt abhängig, so läßt sich die nur trivial darstellen, d.h. aus . 1.2.12 Bemerkung Ist 1.2.13 Satz Ist äquivalent: (i) mit , so ist -Vektorraum und ein linear abhängig wegen für mit , so sind sind linear abhängig, ist eine Linearkombination der übrigen, d.h. der , wird bereits durch viele Elemente erzeugt. (iii) Beweis: (i) (ii): Sind linear abhängig, so gibt es ein . mit und und ein . Also . Für gilt dann (ii) (iii): Sei . (iii) (i): Ohne die Allgemeinheit einzuschränken, dürfen wir annehmen. Dann ist und damit . Da ist, folgt daraus, daß linear abhängig sind. (ii) eines der Vektoren in 1.2.14 Korollar Jeder endlich erzeugte abhängiges Erzeugendensystem. -Vektorraum besitzt ein linear un- 29 1. Vektorräume ErzeuBeweis: Wir führen den Beweis durch Induktion nach . Sei gendensystem von . Für ist , und wir sind fertig, da die leere Menge linear unabhängig ist. Ist , so folgt die Behauptung aus der Tatsache, daß immer linear unabhängig ist. Sei also ein einzelner Vektor . Sind linear unabhängig, so sind wir fertig. Anderenfalls können wir nach Satz 1.2.13 (iii) einen der Vektoren im Erzeugendensystems weglassen und er halten so . Nach Induktionsvoraussetzung enthält ein linear unabhängiges Erzeugendensystem und wir sind fertig. 1.2.15 Definition Ein linear unabhängiges Erzeugendensystem Vektorraum heißt eine Basis von . für einen - 1.2.16 Satz Ist ein –Vektorraum und eine Basis von so läßt sich jedes eindeutig (bis auf Umnummerierung) als Linearkombivon verschiedene nation von Elementen aus darstellen. Beweis: Da ein Erzeugendensystem von ist, finden wir zu mit und Körperelemente Vektoren mit . Um die Eindeutigkeit der Darstellung zu zeigen, nehmen wir an, daß auch und mit gelte. Sei nun . Nach geeigneter Umnummerierung erhalten wir dann und Damit folgt linear unabhängige Menge ist, folgern wir daraus und . für für . Da eine und damit Wir wollen eine Menge von Vektoren maximal linear unabhängig nennen, für jedes linear wenn linear unabhängig ist, aber die Menge abhängig ist. Analog nennen wir eine Menge ein minimales Erzeugendensystem, wenn ist, aber für jedes gilt. 1.2.17 Satz Für einen –Vektorraum und sind äquivalent: (i) ist eine Basis von (ii) ist eine maximale linear unabhängige Menge. (iii) ist ein minimales Erzeugendensystem. 30 . 1.2. Vektorräume , so folgt (ii): Ist und und damit . Also ist linear abhängig. Damit ist eine maximal linear unabhängige Menge. (ii) (iii): Sei maximal linear unabhängig. Dann gibt es zu Körperelemente sowie und mit . Damit ist . Damit ist jedes eine Linearkombination von Elementen in und ist ein Erzeugendensystem. Wäre so, daß nicht minimal, so fänden wir ein noch immer ein Erzeu gensystem wäre. Insbesondere wäre dann mit . Das steht aber im Widerspruch zur linearen Unabhängigkeit von . (iii) (i): Nehmen wir an, daß noch keine Basis ist, so muß linear abhängig sein. Dann gibt es , die und verschwin nicht alle . Ist , so folgt und damit den mit Beweis: (i) . Dies steht aber im Widerspruch zur Minimalität von gendensystem. als Erzeu- Unser Ziel wird es nun sein, den folgenden Satz zu beweisen. 1.2.18 Satz Jeder -Vektorraum mit besitzt eine Basis. Die Schwierigkeit im Beweis dieses Satzes liegt darin, daß es nicht endlich erzeugte Vektorräume gibt. Für endlich erzeugte Vektorräume ist Satz 1.2.18 eine sofortige Folgerung aus Korollar 1.2.14. Man kann ihn im Vereine mit Satz 1.2.10 sogar in der folgenden Art verschärfen. 1.2.19 Satz Jeder endlich erzeugte Vektorraum, der nicht der Nullraum ist, besitzt eine endliche Basis. Im Falle von unendlich erzeugten Vektorräumen wird sich der Beweis schwieriger gestalten, da wir etwas mehr über die zugrunde liegende Mengenlehre wissen müssen. Wem dies für den Anfang zu schwierig erscheint, sollte den folgenden Abschnitt überschlagen und im Beweis von Satz 1.2.20 den “Limesfall” einfach auslassen. Ein kleiner Exkurs ins Unendliche Wir haben die natürlichen Zahlen als eine durch die kanonische Ordnung wohlgeordnete Menge eingeführt. Man abstrahiert nun von der zugrunde liegenden Menge und betrachtet nur den Typus der Ordnung (Mathematisch exakt ist der Ordnungstypus die Äquivalenzklasse von Ordnungen, wobei zwei Ordnungen äquivalent heißen, wenn sie sich ordnungstreu und bijektiv aufeinander abbilden lassen.). Die Ordnungstypen von Wohlordnungen bezeichnet man als Ordinalzahlen. Endliche Mengen lassen sich bis auf Äquivalenz nur 31 1. Vektorräume auf eine Art ordnen. Den Ordnungstypus einer -elementigen Menge identifiziert man mit der natürlichen Zahl . Natürliche Zahlen lassen sich also als endliche Ordinalzahlen auffassen. Den Ordnungstypus der Ordnung aller natürlichen Zahlen in ihrer kanonischen Ordnung bezeichnet man als . Dies ist der einfachste unendliche Ordnungstypus. Für unendliche Mengen gilt nun aber nicht mehr, daß sie sich bis auf Äquivalenz nur auf eine Art ordnen lassen. So erhalten wir eine neue Ordnung, wenn wir ! " # setzen. Dann haben wir eine Ordnung %$ &' (1.4) die sich offensichtlich nicht mehr bijektiv ordnungstreu auf eine Menge vom Ordnungs typus abbilden läßt, da sie ein größtes Element, nämlich , besitzt, was bei nicht der %$ Fall ist. Andererseits sind aber der Ordnungstypus von und offensicht%$(& lich gleich. Damit ist der Ordnungstypus von offenbar größer als , da er einen Ordnungstypus als ein echtes Anfangsstück enthält. Anschaulich kann man sich das so vorstellen, daß man eine Menge vom Ordnungstypus fertiggezählt hat und dann um eines weiter zählt. Es handelt sich also um eine Fortsetzung des Zählprozesses in das Unendliche. Die in (1.4) gezeigte Ordnung ist offensichtlich wieder eine Wohlordnung. Da sie um genau ein Element über hinauszählt, sagen wir, daß sie den Ordnungstypus *) hat. Wir $%+(&' können den Prozeß fortsetzen, indem wir eine Wohlordnung vom Ordnungs$ &'/0 3)4- , 1 typus ,) , eine Wohlordnung - -.) vom Ordnungstypus eine Wohlordnung 2 '&$' /&+5 vom Ordnungstypus 6)7 angeben, in der alle geraden Zahlen vor den ungeraden kommen und so fort. Was man aus diesen Beispielen lernen sollte ist die Tatsache, daß drei Arten unendlicher Ordinalzahlen auftreten können: 8 Die Ordinalzahl als der Ordnungstypus der leeren Menge, die der natürlichen Zahl entspricht; 8 32 Ordinalzahlen die einen Ordnungstypus repräsentieren, der ein größtes Element be sitzt, wie z.B. jede endliche Ordinalzahl, die Ordinalzahlen 3) , 3)9- , . . . ; diese Ordinalzahlen heißen Nachfolgerzahlen, da zwischen ihrem Vorgänger, den man als Ordnungstypus der Ordnung erhält, in der man das größte Element einfach fortläßt, und der Ordinalzahl selbst keine weiteren Ordinalzahlen liegen. 1.2. Vektorräume 8 Ordinalzahlen, die einen Ordnungstypus repräsentieren, der kein größtes Element besitzt, wie z.b. , ) , etc. Diese Ordinalzahlen nennt man Limeszahlen. Hat man nämlich eine Limeszahl und eine Ordinalzahl kleiner als , d.h. der Ordnungstypus ist äquivalent zu einem echten Anfangsstück einer durch repräsentierten Ordnung, so ist der Nachfolger ) von noch immer äquivalent zu einem echten Anfangsstück der durch repräsentierten Ordnung und damit kleiner als . Die Klasse On der Ordinalzahlen erweist sich selbst als wohlgeordnet. Damit folgt das Prinzip der Induktion über Ordinalzahlen genauso, wie wir es für natürliche Zahlen gefolgert haben. Wir erhalten also in Verallgemeinerung von 0.6.4: Gilt On ( (( so folgt On (1.5) Wollen wir 0.6.5 verallgemeinern, so habe wir die drei Typen von Ordinalzahlen zu beachten. Gilt der Induktionsanfang der Induktionsschritt On ) und der Limesschritt so folgt On für Limeszahlen (1.6) Ebenso lassen sich Funktionen rekursiv über Ordinalzahlen definieren. Wir erhalten die folgende Verallgemeinerung von 0.6.6 Definition durch transfinite Rekursion Sind die Abbildungen 1!#" $ On %&"'% 1(!#" gegeben, so ist die durch die Rekursionsvorschrift +* und * On ) / * $ ) * +* ) * -,/.021 ) * für Limeszahlen ) 12!#" eindeutig bestimmt. definierte Funktion On % ) * + Natürlich muß hierbei sicher gestellt sein, daß , .0(1 immer wieder ein Element von ) ) " ist. Man kann die Rekursion wie in 0.6.6 statt bei auch bei jeder beliebigen Ordinalzahl beginnen lassen. Die Annahme, die wir über unsere Mengenwelt nun machen, ist der Wohlordnungssatz Jede Menge 354 läßt sich wohlordnen. Der Ordnungstyp der kürzesten Wohlordnung, die sich auf einer Menge definieren läßt, heißt die Kardinalzahl der Menge und wird im allgemeinen mit 6 6 bezeichnet. Man kann daher die Forderung des Wohlordnungssatzes auf die Form “Jede Menge besitzt eine Kardinalzahl” bringen. Der Wohlordnungssatz mag einem zunächst merkwürdig anmuten. Eine Wohlordnung der Menge der reellen Zahlen kann man sich beispielsweise kaum vorstellen. Vor dem Hintergrund der übrigen Annahmen über unser Mengenuniversum ist der Wohlordnungssatz jedoch äquivalent zu einem anderen Prinzip, dem Auswahlaxiom, welches besagt: 33 1. Vektorräume Auswahlaxiom Zu jeder Indexmenge und Familie ) Mengen gibt es eine Auswahlfunktion 1(! , so daß ) 0 von nicht leeren gilt. Das Auswahlaxiom besagt also, daß sich aus jedem Mitglied einer Familie nicht leerer Mengen in uniformer Weise ein Element auswählen läßt. Das klingt schon viel plausibler als der Wohlordnungssatz und ist auch ein in der Mathematik allgemein akzeptiertes Prinzip. Auf der anderen Seite leuchtet es ein, daß sich das Auswahlaxiom aus dem Wohlordnungssatz folgern läßt. Wir ordnen die Vereinigung der Mengen und wählen dann aus jedem Familienmitglied das kleinste Element aus. Auf der anderen Seite ist es auch möglich, mit Hilfe des Auswahlaxioms jede nicht leere Menge zu zählen. Wir fangen einfach mit einem beliebigen Element an, zählen und entfernen dies aus und setzten diese Prozedur mit Hilfe einer Auswahlfunktion auf der Potenzmenge von so lange fort, bis wir zur leeren Menge gelangen. Algebraikern ist der Begriffsapparat, der mit der Einführung von Ordinalzahlen verbunden ist, in der Regel viel zu aufwendig. (Obwohl dieses Gebiet für sich gesehen äußerst faszinierend ist. David Hilbert hat die Einführung der transfiniten Zahlen als eine der größten Leistungen der Mathematik bezeichnet.) Daher machen sie sich oft eine weitere Tatsache, das Lemma von Zorn, zu Nutze, die ihrerseits zum Auswahlaxiom und damit auch zum Wohlordnungssatz äquivalent ist. Um das Lemma zu formulieren, erinnern wir uns an den Begriff der Halbordnung. Das ist eine reflexive, antisymmetrische und transitive Relation, die nicht unbedingt linear sein muß, d.h. zwei Elemente des Feldes der Relation müssen nicht unbedingt vergleichbar sein. Haben wir eine Teilmenge feld . in der je zwei * * * * 6 , so Elemente vergleichbar sind, d.h. gilt nennen wir eine Kette in . Ein Element feld * ist eine obere Schranke für eine Kette , wenn - gilt. Wir nennen ein Element feld . maximal, wenn immer schon nach sich zieht. Ist Lemma von Zorn eine Halbordnung, in der jede Kette eine obere Schranke besitzt, so hat maximale Elemente. Die Äquivalenz von Zornschen Lemma und Auswahlaxiom plausibel zu machen, ist nicht ganz so einfach, und deshalb will ich hier auch nicht weiter darauf eingehen. Dies ist die Angelegenheit einer Vorlesung über Mengenlehre. Wir wollen daher hier unseren Exkurs ins Unendliche beenden. 1.2.20 Satz Sei ein -Vektorraum und ein Erzeugendensystem für . Zu jeder linear unabhängigen Menge gibt es eine Teilmenge mit und ist eine Basis von . . (Wer Beweis: Sei . Dann können wir schreiben als den Exkurs in das Unendliche nicht mitgemacht hat, soll hier als endlich annehmen. Dann ist eine natürliche Zahl und er kann den Limesfall übergehen, da 34 1.2. Vektorräume unterhalb natürlicher Zahlen keine Limeszahlen liegen. Der Beweis bleibt aber unter der Voraussetzung, daß ein endliches Erzeugendensystem ist, völlig korrekt.) Durch Rekursion nach definieren wir uns Mengen . falls diese Menge linear unabhängig ist sonst für Limeszahlen und setzen Dann zeigen wir durch Induktion nach , daß alle Mengen linear unabhängig gilt dies nach Voraussetzung. Für sind. Für gilt dies nach Kon struktion, und haben wir schließlich für eine Limeszahl und nehmen wir an, so gibt es ein mit . Nach Induktionsvoraussetzung ist aber linear unabhängig und damit erhalten wir . Wir behaupten nun weiter, daß die Menge maximal linear und alle linear unabhängig sind, erhalten unabhängig ist. Da wir wie im vorherigen Limesfall, daß auch linear unabhängig ist. Sei nun und . Dann gibt es ein mit . Damit ist . Nach Konstruktion von muß daher linear abhängig sein. Dann gibt es aber Vektoren und Körperelemente und so, daß ist, aber nicht alle und gleichzeitig sind. Damit ist eine Linearkombination von Elementen in . Für gilt dies tri vialerweise. Für ein beliebiges finden wir, da ein Erzeugendensystem ist, Vektoren mit . und Körperelemente eine Linearkombination von Wir haben aber gerade gesehen, daß jedes der Elementen in ist. Dann ist aber auch eine Linearkombination von Elementen in , und ist auch ein Erzeugendensystem. Damit ist eine Basis. Setzen wir , so ist , und , und der Satz ist bewiesen. Wir wollen, einfach weil man es in der Literatur oft so findet, den Satz nochmals mit Hilfe des Lemma von Zorn beweisen. Dazu betrachten wir die Menge ist linear unabhängig . Diese Menge wird durch die Mengeninklusion halbgeordnet. Sei nun eine Kette in dieser Halbordnung. Jedes hat die Gestalt und damit hat die Gestalt . Wie im vorherigen Beweis folgt, daß als Vereinigung linear unabhängiger Mengen selbst linear unabhängig ist. Damit hat jede Kette in 35 1. Vektorräume eine obere Schranke und besitzt nach dem Lemma von Zorn maximale Elemente. Sei ein solches maximales Element. Wegen ist dann linear un , so folgt aus der Maximalität von , daß abhängig. Ist oder linear abhängig ist. In beiden Fällen läßt sich als Linearkombination von darstellen. Da ein Erzeugendensystem war, gilt Elementen in mit für jedes Da sich jedes als Linearkombination von Elementen in darstellen läßt, erhalten wir auch als Linearkombination von Elementen aus . Damit ist auch ein Erzeugendensystem und somit eine Basis, und wir setzen wie im vorherigen Beweis . Beide Beweise unterscheiden sich nur in der Konstruktion der Menge . Die sich daran anschließende Argumentation ist im wesentlichen identisch. Die Konstruktion der Menge ist im ersten Beweis durchsichtiger (beim Zornschen Lemma fällt sie vom Himmel), und der Vorteil des ersten Beweises durch transfinite Rekursion liegt auch darin, daß sich der endlich erzeugte Fall einfach durch Weglassen des Limesfalles ergibt. Der Beweis über das Zornsche Lemma hat seinerseits den Vorteil, daß er neben dem Zornschen Lemma keinen zusätzlichen Begriffsapparat benötigt. Wie bereits gesagt werden in dieser Vorlesung endlich erzeugte Vektorräume die Hauptrolle spielen. Für diese Vektorräume erhalten wir Satz 1.2.20 ohne den Exkurs ins Unendliche. 1.2.21 Korollar Jeder Vektorraum besitzt eine Basis. Beweis: Jeder Vektorraum besitzt ein Erzeugendensystem, z.B. selbst. Da die leere Menge linear unabhängig ist, können wir in Satz 1.2.20 setzen und erhalten so die Behauptung. 1.2.22 Satz Ist ein -Vektorraum und sind und Basen von einer der folgenden Fälle: (i) , so gilt und , (ii) und sind beide unendlich, (iii) ist endlich erzeugt und . . Ist nicht endlich erzeugt, so kann keine endliche BaBeweis: Sei sis besitzen. Sei daher endlich erzeugt und und Basen. Dann ist die Menge linear unabhängig und nach Satz 1.2.17 keine Basis. Nach Satz 1.2.20 finden wir eine Menge mit so, daß eine Basis ist. Damit ist insbesondere . 36 1.2. Vektorräume . Diese Menge ist wieder linear unNun definieren wir abhängig und kein Erzeugendensystem. Nach Satz 1.2.20 finden wir eine Menge so, daß und eine Basis ist. Wir iterieren nun dieses Verfahren und erhalten nach –vielen Schritten eine Basis , . Vertauso daß alle paarweise verschieden sind. Also ist schen wir die Rollen von und , so erhalten wir mit dem gleichen Verfahren . Diese Stelle erscheint mir geeignet zu sein, einmal zu präzisieren, wie das obige Argument “Wir iterieren nun dies Verfahren. . . ” zu verstehen ist. Dahinter steckt eine Definition durch Rekursion und ein Beweis durch Induktion. Zunächst defi nieren wir durch Rekursion Mengen und derart, daß gilt. Wir setzen eine Basis bilden und . Als Induktionvoraussetzung gehen wir davon aus, daß und definiert sind und die geforderten Eigenschaften besitzen. Dann ist die Men linear unabhängig und, da sie eine echte Teilmenge der Basis ge ist, nach Satz 1.2.17 keine Basis. Da ein Erzeugendensystem ist, , so daß gibt es nach Satz 1.2.20 eine Menge eine Basis ist. Damit sind und für und , definiert, es ist eine Basis und alle sind paarweise verschieden. Wann immer Konstruktionen durch “Iteration” fortgesetzt werden, sind diese analog wie im obigen Beispiel zu präzisieren. 1.2.23 Definition (Dimension eines Vektorraumes) Wir definieren dessen Dimension durch (ii) Sei ein -Vektorraum. ist; nicht endlich erzeugt ist; eine Basis von ist. 1.2.24 Satz Ist ein -Vektorraum und sind Vektoren, so sind äquivalent: falls falls falls Ist es klar oder unerheblich, um welchen Grundkörper ben wir kurz statt . (i) es sich handelt, so schrei- linear unabhängige . ist eine Basis. Beweis: (i) (ii): Ist eine Basis von , so gibt es nach Satz 1.2.20 eine Men ge , so daß eine Basis von und 37 1. Vektorräume genau Elemente schon eine Basis. . ist. Nach Satz 1.2.22 müssen dann aber und besitzen, woraus sich ergibt, und daher ist eine Basis, so ist (ii) (i): Ist 1.2.25 Satz Sei gen: ein endlich erzeugter Vektorraum. Dann gelten folgende Aussa- linear unabhängig, so ist . (ii) Wird von erzeugt, so ist . linear unabhängig, so lassen sie sich nach Satz 1.2.20 Beweis: (i): Sind mit ergänzen. zu einer Basis Also ist . nach Satz 1.2.10 ein minima(ii): Ist , so enthält les Erzeugendensystem. Also ist . Sind (i) 1.2.26 Bemerkung Man beachte, daß die Kontraposition der Aussage (i) in Satz 1.2.25 besagt, daß für je viele Vektoren stets linear abhängig sind. 1.2.27 Satz Ist , so gelten: (i) (ii) ein endlich dimensionaler Vektorraum und ein Teilraum von . . Beweis: (i): Ist eine Basis von , so ist eine in linear unabhängige Men ge. Damit ist . (ii): : Ist eine Basis von , so ist linear unabhängig in . Aber ist auch maximal linear unabhängig in , da jede Erweiterung von mehr als viele Elemente enthalten müßte, was nach Bemerkung 1.2.26 unmöglich . ist. Damit ist eine Basis von und wir erhalten Die Gegenrichtung gilt offensichtlich. Einige Beispiele 1.3.1 Der Vektorraum 38 1.3 Sei ein Körper. Wir definieren für (1.7) 1.3. Einige Beispiele und nennen die Menge der -tupel über . Wir wollen Verknüpfungen auf dem so definieren, daß mit diesen Verknüpfungen zu einem Vektorraum wird. Wir beginnen mit der Addition und setzen (1.8) Man nennt diese Art der Definition, die sich in jeder Komponente des -tupels auf Addition im Grundkörper bezieht, auch eine komponentenweise oder punktweise wird also komponentenweise festgesetzt. Ebenso Definition. Die Addition im definieren wir die skalare Multiplikation punkt- (oder komponenten)weise durch (1.9) Die Tatsache, daß eine Gruppe ist, überträgt sich dank der komponenten . Man rechnet dies leicht nach. Das neuweise Definition unmittelbar auf trale Element ist das -tupel, das aus lauter Nullen besteht. Das inverse Element ergibt sich sofort als . Die Axiome (V21)–(V24) zu rechnet man ebenfalls sofort nach. Damit ist ein Vektorraum. Dies ist natürlich auch für richtig. Jeder Körper kann also als Vektorraum über sich selbst aufgefaßt werden. Setzen wir , so erhalten wir die bekannten Vektorräume , die Gera de, , die euklidische Ebene, und , den euklidischen Raum. Diese mag man sich als anschauliche Beispiele für Vektorräume vor Augen halten. Dabei soll man sich aber stets bewußt sein, daß diese Vektorräume noch viel zusätzliche Struktur tragen (z.B. rechtwinkelige Koordinatensysteme), die wir im bisher eingeführten allgemeinen Fall noch nicht zur Verfügung haben. Kehren wir daher wieder zum allgemeinen Fall eines beliebigen Körpers zurück. Eine nützliche Notationshilfe ist das von Kronecker eingeführte Symbol falls falls (1.10) . Mit Hilfe dieses Kroneckersymbols definieren wir die Vektoren (1.11) Die Komponenten des Vektors sind daher alle bis auf die -te Stelle, an der eine steht. Das Superskript lassen wir im allgemeinen weg, da es sich im Regelfall aus dem Zusammenhang ergibt. Gilt nun , so erhalten wir für . Da jeder Körper nullteilerfrei ist, folgt daraus . Damit sind linear unabhängig. Anderenfalls gilt für stets . Damit ist auch ein Erzeugendensystem und somit eine Basis. Also haben wir 39 1. Vektorräume 1.3.1 Satz Die Menge der -tupel über einen Körper bilden mit der komponentenweisen Addition und skalaren Multiplikation einen Vektorraum der Dimen ist eine Basis des sion . Die Menge . Sie heißt dessen kanonische Basis. 1.3.2 Der Vektorraum der Abbildungen von einer Menge in einen Körper Ein -tupel läßt sich auch als eine Abbildung der Menge auffassen, die gegeben ist durch . Die nahelie gende Verallgemeinerung ist, nun die Menge aller Abbildungen einer Menge einen Körper zu betrachten. Sei also in (1.12) Wir definieren auf Abb eine Addition und skalare Multiplikation durch " (1.13) Abb Die Definition (1.13) ist so zu verstehen, daß zwei Abbildungen und zu einer neuen Abbildung verknüpft werden, die wie in (1.13) definiert ist. Da und Elemente von sind, ist durch die Addition im Körper wohldefiniert. Ebenso werden und die in (1.13) definierte Abbildung eine additive abel zugeordnet. Man rechnet wieder sofort nach, daß sche Gruppe bildet, deren neutrales Element durch die Nullabbildung für alle gegeben ist. Das inverse Element einer Abbildung erhalten wir . als durch die Festsetzung Wir erhalten einen Unterraum von Abb für fast alle (1.14) Dabei bedeutet “für fast alle ”, daß dies für alle bis auf endlich viele Ausnahmen gilt. Wir wollen uns als erstes davon überzeugen, daß Abb auch tatsächlich ein Unterraum ist. Sind und in Abb , so gibt es endliche Mengen und . Dann gilt mit , d.h. aber für fast alle , denn endlich. Ebenso erhalten wir, daß mit mit und ist auch Abb und auch Abb ist. Ist bereits eine endliche Menge, so sind Abb und Abb offen bar identisch. Ist , so ist, wie bereits eingangs erwähnt, Abb kann Abb , denn für Abb mit dem -tupel identifiziert werden. 40 1.3. Einige Beispiele Bei unendlichem liegt die Situation jedoch völlig anders. Definieren wir ein verallgemeinertes Kroneckersymbol durch falls sonst, so sehen wir, daß die Menge linear unabhängig ist. in Abb Aus erhalten wir nämlich und damit für . Andererseits ist nicht zu sehen, daß die Funktionen für auch ein Erzeugendensystem bilden. Betrachten wir jedoch den Raum Abb , auch ein Erzeugendensystem. Ist nämlich so ist die Menge Abb , so finden wir eine endliche Teilmenge , so daß gilt. Dann erhalten wir offenbar für alle und somit für beliebiges , d.h. es . Somit erhalten wir ist 1.3.2 Satz Die Menge der Funktionen Abb . Damit ist Abb , so ist Abb Abb 1.3.3 Polynome . bilden eine Basis des Raumes . Ist eine endliche Menge mit Wählen wir im vorherigen Beispiel als die Menge der natürlichen Zahlen, so erhalten wir den Vektorraum der Polynome mit Koeffizienten in . Wir definieren Abb (1.15) Wie wir im Abschnitt 1.3.2 gesehen haben, ist die Menge der Kroneckersymbole . Zu jedem von der Nullabbildung verschiedenen eine Basis des gibt es dann ein kleinstes derart, daß für alle gilt. Wir nennen den Grad von und notieren ihn mit . Als Konvention set zen wir , wobei 0 die Nullabbildung ist. Jedes Element ist daher durch das Tupel mit vollständig charakterisiert. Damit bietet sich die folgende Schreibweise an. Wir schreiben " wobei einfach als ein Symbol – eine Unbestimmte – zu lesen ist. So erklärt sich auch die Notation . Diese Schreibweise hat den Vorteil, daß wir unsere übli chen Rechenregeln “formal” anwenden können. So ist z.B. für ! und die Summe mit und . Die eigentlichen 41 1. Vektorräume Vorteile dieser Schreibweise ergeben sich dann, wenn man eine Multiplikation auf definieren und somit zu einem Ring machen will. Hier definiert man und für und sieht sofort, daß man dieses Produkt erhält, wenn man und formal ausmultipliziert und dann nach spielt in der Algebra eine wichtige Potenzen von ordnet. Der Polynomring Rolle und wird uns auch in dieser Vorlesung noch mehrfach begegnen. 1.3.4 Produkte und Summen von Vektorräumen eine Familie von Vektorräumen über einem Grundkörper Ist definieren wir und für fast alle , so (1.16) (1.17) das Produkt der Vektorräume und das KoproMan nennt dukt oder die direkte Summe der Vektorräume . Warum man von einer Summe spricht, wird uns in Abschnitt 2.4 klarwerden. Die Addition und skalare Multiplikation in beiden Räumen wird wieder punktweise definiert, d.h. durch und Da und bei im Vektorraum liegen, ist dies wohldefiniert. Ist die Indexmenge endlich, z.B. , so schreiben wir anstatt anstatt und . (Hierbei ist aber zu bemerken, daß endliche Produkte und endliche Summen sich nicht unterscheiden.) und für wählen. Spezialfälle erhalten wir, wenn wir Dann erhalten wir den Vektorraum der -tupel von Vektoren aus . Untersu 42 1.3. Einige Beispiele chungen über Basen und Dimension von und stellen, bis uns mehr Hilfsmittel zur Verfügung stehen. wollen wir zurück- 43 1. Vektorräume 44 2. Lineare Abbildungen 2.1 Homomorphismen (am Beispiel von Gruppen) Wir haben bereits bemerkt, daß Abbildungen zwischen Mengen eine wichtige Rolle in mathematischen Untersuchungen spielen. Tragen die Mengen darüber hinaus noch eine Struktur (handelt es sich also beispielsweise um Gruppen, Ringe, Körper, Vektorräume, . . . ), so sind die Abbildungen von besonderem Interesse, die diese Struktur respektieren. Solche Abbildungen nennt man Homomorphismen. Wir wollen den Begriff des Homomorphismus und einige seiner wichtigsten Eigenschaften am Beispiel der Struktur von Gruppen studieren. 2.1.1 Definition Es seien und Gruppen. Eine Funktion heißt ein Homomorphismus der Gruppen, wenn gilt: Für einen Homomorphismus definieren wir Kern wobei das neutrale Element der Gruppe den Kern des Homomorphismus . 2.1.2 Folgerungen Sei gelten: (i) . bedeutet. Wir nennen Kern ein Homomorphismus der Gruppen. Dann (ii) (iii) Kern ist eine Untergruppe von . (iv) Im ist eine Untergruppe von (v) ist injektiv . Kern . . 45 2. Lineare Abbildungen . Damit ist " . Also . ist Für Kern gilt Beweis: (i): Es ist (ii): (iii): . Also ist Kern , der damit nach Satz 1.1.10 eine Untergruppe von ist. (iv): Sind es mit und . Damit Im , so gibt . Damit ist erhalten wir ein Urbild von . Damit ist Im , und Im ist nach Satz 1.1.10 eine Untergruppe von . (v): : Ist injektiv und Kern , so folgt wegen sofort . D.h. Kern Kern folgt aus (iii), denn , aber jede Untergruppe muß das neutrale Element enthalten. und : Ist , so erhalten wir Kern und damit durch Multiplikation mit , woraus sofort von rechts folgt. 2.1.3 Lemma Sind auch und ein Homomorphismus. Beweis: Es ist Homomorphismen, so ist 2.1.4 Ist ein bijektiver Homomorphismus, so Lemma ebenfalls ein bijektiver Homomorphismus. Beweis: Seien . Da surjektiv ist finden wir und . Damit folgt . Ein surjektiver Homomorphismus heißt ein Epimorphismus. Ein injektiver Homomorphismus heißt ein Monomorphismus. Ein bijektiver Homomorphismus heißt ein Isomorphismus. Ein Homomorphismus mit Bezeichnungen heißt ein Endomorphismus. Ein bijektiver Endomorphismus heißt ein Automorphismus. 46 ist 2.2. Kanonische Faktorisierung von Homomorphismen 2.1.5 Definition Zwei Gruppen heißen isomorph, wenn es einen Isomorphismus zwischen den Gruppen gibt. Die Isomorphie der Gruppen und wird mit notiert. 2.1.6 Lemma Die Isomorphie von Gruppen ist eine Äquivalenzrelation auf der Menge aller Gruppen. Beweis: Es gilt vermöge der Identität, die offensichtlich ein Isomorphismus der Gruppen ist. Damit ist die Relation reflexiv. Gilt vermöge des Isomorphismus , so ist nach Lemma 2.1.4 ebenfalls ein Isomorphismus der Gruppen, und wir haben . Damit ist als symme und der Isomorphistrisch nachgewiesen. Gilt schließlich vermöge men und , so ist nach Lemma 2.1.3 ein Homomorphismus der Gruppen und nach Lemma 0.5.7 auch bijektiv. Damit ist vermöge , und wir haben auch als transitiv nachgewiesen. 2.2 Kanonische Faktorisierung von Homomorphismen und der Homomorphiesatz 2.2.1 Lemma Ist ein Homomorphismus der Gruppen und , so ist die Relation Beweis: Wegen ist symmetrisch und wegen transitiv. reflexiv, wegen ! 2.2.2 Lemma Die Äquivalenzklassen tion von . eine Äquivalenzrelation auf . ! auch bilden eine Parti- von Teilmengen von eine ParBeweis: Wir nennen eine Familie tition von , wenn gilt und die Vereinigung disjunkt ist, d.h. wenn gilt. Wir haben demnach zu zei ist und aus schon folgt. Nach gen, daß . Ist umgekehrt Definition der Äquivalenzklassen ist , so folgt . Damit haben wir auch . Nehmen wir an, so gibt es ein , d.h. es gilt . und damit . Die Kontraposition dieser Aussage ist Also folgt , und wir sind fertig. aber gerade 2.2.3 Lemma Es gilt Kern Kern . 47 2. Lineare Abbildungen , so gilt . Die Gleichung hat in Beweis: Ist eine Lösung und wir erhalten . Es folgt und damit Kern . Kern . Also ist Kern , so ist Ist für ein Kern , und es folgt . Also gilt und damit . 2.2.4 Lemma Die Menge Kern Kern wird mit der Ver Kern Kern eine Gruppe. Diese Gruppe knüpfung Kern heißt die Faktor- oder Quotientengruppe von modulo dem Kern von . Beweis: Zunächst haben wir zu zeigen, daß die im Lemma definierte Verknüpfung Kern Kern ist. Man tatsächlich eine Abbildung Kern sagt, daß wir die Wohldefiniertheit der Verknüpfung zeigen müssen. Nachzuprüfen ist nur die Rechtseindeutigkeit. Seien also Kern Kern und Kern Kern . Wir haben Kern Kern nachzuprüfen. Mit Lemma 2.2.3 erhalten wir aber Kern Kern . Damit ist Kern und die Kern Gegenrichtung erhalten wir aus Symmetriegründen in völlig analoger Weise. Nun Kern ! Kern überzeugen wir uns davon, daß Kern Kern ist und haben Kern damit ein linksneutrales Element. Wegen Kern Kern ! Kern besitzt jedes Element Kern das Kern als inverses Element. Damit ist Kern eine Gruppe. Element 2.2.5 Lemma Die Abbildung die definiert ist durch Kern Kern , ist ein Epimorphismus der Gruppen mit Kern Kern . Man nennt den kanonischen Epimorphismus von auf Kern . Beweis: Wegen Kern Kern Kern Kern , so gibt es ein liegt ein Homomorphismus vor. Ist mit Kern . Damit ist ein Urbild von unter . Da dies für Kern gilt, ist beliebige surjektiv. Ist Kern , so ist Kern Kern . Also ist , d.h. . Damit ist Kern Kern . Ist umgekehrt Kern , so Kern . ist und damit Kern Kern , d.h. Somit ist Kern Kern . 2.2.6 Lemma Die Abbildung Kern , die definiert ist durch Kern ist ein Monomorphismus der Gruppen. Man nennt die kanonische Einbettung von Kern in . 48 2.2. Kanonische Faktorisierung von Homomorphismen Beweis: Zunächst wollen wir betonen, daß die Abbildung wegen Kern Kern Kern wohldefiniert Kern " (d.h. rechtseindeutig) ist. Aber da wir ja überall Äquivalenzen stehen haben, ist sie folgt . Damit ist injektiv. ebenso linkseindeutig, d.h. aus Kern Kern Kern Wegen Kern Kern ist auch ein Homomorphismus der Gruppen. 2.2.7 Homomorphiesatz für Gruppen Ist ein Homomorphismus der Gruppen, so ist Kern eine Gruppe, und es gibt einen surjektiven Ho Kern und einen injektiven Homomorphismus momorphismus Kern derart, daß das folgende Diagramm kommutiert. Kern D.h. es gilt Insbesondere ist Kern Im . Beweis: Nach den Lemmata 2.2.5 und 2.2.6 erhalten wir sowohl den kanonischen Epimorphismus als auch die kanonische Einbettung Kern Kern . Für erhalten wir Kern , und wir haben die Kommutativität des Diagramms gezeigt. Im , so ist für ein , und es folgt Ist Kern Kern . Damit ist der Monomorphismus Im surjektiv und folglich ein Isomorphismus. Wir wollen die Situation, die zum Homomorphiesatz geführt hat, nochmals von einem anderen Standpunkt aus betrachten. Als erstes haben wir eingesehen, daß Kern eine Untergruppe der Gruppe ist. Dann haben wir eine Äquivalenzrelation eingeführt. Nun gilt Kern . Die erste Frage, die wir uns von durch die Definition hier stellen können, ist, ob für jede Untergruppe eine Äquivalenzrelation definiert wird. Dies wollen wir im folgenden Lemma untersuchen. 2.2.8 Lemma Ist mod eine Untergruppe einer Gruppe , so definiert die Relation 49 2. Lineare Abbildungen eine Äquivalenzrelation auf . Für deren Äquivalenzklassen mod gilt Man nennt die linke Nebenklasse von bzgl. . Die Nebenklassen bilden eine und Partition von , d.h. es gilt Beweis: Wegen reflexiv. Aus mod folgt ist mod und daraus , d.h. mod . Damit ist mod symmetrisch. erhalten wir wegen mod Die Transitivität mod mod . Ist so folgt mod und daher . Damit ist aber , so gibt , und es ist . Damit ist . Ist umgekehrt es ein mit . Dann folgt aber und damit mod , d.h. . Damit haben wir gezeigt. Die Tatsache, daß die Nebenklassen eine Partition von bilden, wollen wir etwas allgemeiner nachweisen. Wir zeigen: Hilfssatz Ist eine Menge und Äquivalenzklassen eine Äquivalenzrelation auf eine Partition von . , so bilden die Es ist klar, daß dann die letzte noch offenen Behauptung des Lemma 2.2.8 dann aus dem Hilfssatz folgt. Beweis des Hilfssatzes: Wir haben zu zeigen, daß und (i) (ii) für alle ist die Inklusion in (i) klar. Umgekehrt gilt. Wegen gilt aber wegen der Reflexivität von immer womit auch folgt. Damit ist (i) gezeigt. Ist nun so gibt es ein , und damit folgt , was wegen der Transitivität von auch nach sich zieht. Wir behaupten nun 50 (iii) 2.2. Kanonische Faktorisierung von Homomorphismen (iv) Aus (iii) und (iv) folgt dann die Behauptung. Um (iv) zu zeigen, nehmen wir , d.h. an. Dann haben wir woraus mit der Symmetrie und daraus mit der Transitivität von folgt. Also ist . Völlig symmetrisch erhalten wir auch , und alles ist gezeigt. Die Tatsache, daß die Nebenklassen bezüglich einer Untergruppe eine Partition der Gruppe bilden, gibt die Motivation zur folgenden Definition. 2.2.9 Definition Die Ordnung einer endlichen Gruppe ist die Anzahl ihrer Elemente. Der Index einer Untergruppe in einer endlichen Gruppe ist die Anzahl der Nebenklassen bezüglich . Der Index wird notiert durch . D.h. es gilt , die nur aus dem neutralen Betrachten wir die triviale Untergruppe Element besteht, so erhalten wir die Nebenklassen . Damit ist , und es folgt (2.1) Allgemein erhalten wir 2.2.10 Satz Ist eine endliche Gruppe und eine Untergruppe von , so ist . D.h. die Ordnung einer Untergruppe ist stets ein Teiler der Ordnung der Gruppe. mit Beweis: Die Abbildung jektiv und wegen folgt . Nun ist wegen Lemma 2.2.8 . offensichtlich sur istauch injektiv. Damit Wir haben nun gesehen, daß jede Untergruppe einer Gruppe eine Äquivalenz relation mod auf und damit auch eine Partition von in viele Nebenklassen erzeugt. Die nächste Frage, die sich daran anschließt, ist, ob sich auf der Menge der Nebenklassen wieder eine Gruppenstruktur definieren läßt. Ist Kern für einen Gruppenhomomorphismus , so wissen wir bereits, daß dies möglich ist. Entscheidend für die Wohldefiniertheit der damals eingeführten Verknüpfung auf den Nebenklassen war, daß die durch den Homomorphismus induzierte Äquivalenzrelation mit der Gruppenverknüpfung auf verträglich 51 2. Lineare Abbildungen und auch war, d.h. daß aus folgte. Das ist im allgemeinen für die durch eine Untergruppe erzeugte Äquivalenzrelation mod nicht richtig. Um und mod aus mod mod zu , d.h. , aus und folgern, müßten wir für jedes und , folgern. Hinreichend dafür ist es, mit zu haben. Nun gilt und wegen mod ist, wie (iv) im Beweis des Hilfsatzes gezeigt hat, . Hinreichend für die Verträglichkeit der Äquivalenzrelation mod mit der Gruppenverknüpfung ist daher, daß gilt. Dies für alle ist der Hintergrund für die folgende Definition. 2.2.11 Definition Eine Untergruppe einer Gruppe heißt ein Normalteiler von gilt. , falls für alle Warnung Die Aussage bedeutet nicht, daß für gilt, sondern und Bemerkung Ist eine abelsche, d.h. kommutative, Gruppe, so ist jede Untergruppe von bereits ein Normalteiler. 2.2.12 Satz Ist ein Normalteiler von , so ist mit der Verknüpfung eine Gruppe. Man nennt die Faktoroder Quotientengruppe von nach dem Normalteiler . Die Abbildung , die definiert ist durch , ist ein Epimorphismus der Gruppen mit Kern . Sie heißt der kanonische Epimor. Für endliche Gruppen gilt phismus von auf . Beweis: Wir haben in unseren Vorbetrachtungen bereits festgestellt, daß die Eigen schaft, Normalteiler zu sein, hinreicht, um mod mod mod zu erhalten, d.h. aus und folgt . Das bedeutet aber, daß die Verknüpfung wohldefiniert ist. Offensichtlich ist ein linksneutrales Element und invers zu . Damit ist mit dieser Verknüpfung eine Gruppe. We gen ist ein Homomorphismus. Zu ist ein Urbild unter . Damit ist surjektiv und aus folgt , d.h. Kern . stets . Damit ist Kern . Umgekehrt ist für 52 2.3. Lineare Abbildungen 2.2.13 Satz Eine Untergruppe ist genau dann ein Normalteiler, wenn der Kern eines Gruppenhomomorphismus ist. Beweis: Ist ein Normalteiler, so folgt nach Satz 2.2.12, daß Kern des ka nonischen Epimorphismus ist. Ist ein Homomorphismus, so gilt Kern genau dann, wenn für ein Kern ist. Die Gleichung ist in lösbar und es gilt , woraus " folgt. Also ist Kern und damit Kern . Damit haben wir Kern Kern und völlig analog ergibt sich auch Kern Kern . Wir wollen diesen Abschnitt mit der Bemerkung beschließen, daß die hier gemachten Untersuchungen keinesfalls auf Gruppen und deren Homomorphismen beschränkt sind, sondern für beliebige algebraische Strukturen gelten. In dieser Vorlesung werden wir jedoch vorwiegend Gruppen und Vektorräume betrachten. 2.3 Lineare Abbildungen -Vektorräume, so nennen wir eine Abbildung 2.3.1 Definition Sind und linear oder einen Vektorraumhomomorphismus, wenn ein Homomorphismus der additiven abelschen Gruppen ist und für alle und auch gilt. Berücksichtigen wir die Tatsache, daß wir nun additiv notierte abelsche Gruppen vorliegen haben, so erhalten wir die anschließenden Folgerungen in ähnlicher Weise wie die Folgerungen 2.1.2. 2.3.2 Folgerungen Ist ; (i) (iv) Kern Im (v) (ii) (iii) linear, so gelten: ; ist ein Unterraum von ist ein Unterraum von W; ist injektiv Kern . ; Beweis: Die Behauptungen (i), (ii) und (v) folgen nach 2.1.2 sofort aus der Tatsache, daß ein Homomorphismus der abelschen Gruppen ist. Um (iii) zu zeigen, beachten wir zuerst, daß nach 2.1.2 Kern eine Untergruppe der abelschen Gruppe von ist. Ist und Kern , so folgt , d.h. daß Kern gegenüber skalarer Multiplikation abgeschlossen ist. Damit ist 53 2. Lineare Abbildungen Kern ein Unterraum von . Ähnlich erhalten wir (iv). Zunächst ist Im eine Untergruppe der abelschen Gruppe von . Für und Im folgt aber für ein , und wir erhalten , woraus Im folgt. 2.3.3 Lemma Sind falls linear. Beweis: Nach Lemma 2.1.3 ist , 2.3.4 Lemma Ist linear, so ist eben- ein Homomorphismus der Gruppen. Wegen ist dann aber auch linear. linear und bijektiv, so ist linear. ein Homomorphismus Beweis: Nach Lemma 2.1.4 ist der abelschen Gruppen. Durch Nachrechnen erhalten wir , wobei das Urbild von unter linear. war. Damit ist 2.3.5 Lemma Ist linear, so gelten: Im ; linear abhängig linear abhängig; (ii) (iii) linear unabhängig linear unabhängig. es mit Beweis: (i): ,Istd.h. , so gibt . Die Aussagen (ii) und (iii) sind wechselseitig Es genügt Kontrapositionen. daher, " eine zu beweisen. Wir zeigen (iii). Aus folgt und wegen der linearen Unabhängigkeit von dar . aus (i) Beweis: Ist . eine Basis von , so ist nach Lem Im ma 2.3.5 (i) ein Erzeugendensystem von Im . Damit ist . 2.3.6 Satz Ist 2.3.7 Korollar Gilt 54 linear, so ist Im , so ist . 2.3. Lineare Abbildungen ein Isomorphismus, so gilt nach Satz 2.3.6 . Da nach Satz 2.3.4 auch ein Isomorphismus ist, folgt gleichermaßen . Beweis: Ist 2.3.8 Lemma Ist linear, so sind äquivalent: ist injektiv. (i) (ii) linear unabhängig linear unabhängig. Beweis: (i) (ii): Ist linear, so folgt nach Lemma 2.3.5 (iii) aus der linearen Unabhängigkeit von auch die lineare Unabhängig keit von . Sind linear unabhängig und gilt , . Ist nun injektiv, , d.h. Kern so erhalten wir so folgt daraus und somit . Damit sind linear unabhängig. eine Basis des Unterraums Kern . Für Kern (ii) (i): Sei erhalten wir , woraus wir wegen der linearen Unabhängigkeit von erhalten. Damit ist und somit Kern . D.h. ist injektiv. 2.3.9 Satz Sind und -Vektorräume mit eine lineare Abbildung, so sind äquivalent: (i) ist injektiv; (ii) ist surjektiv; (iii) ist bijektiv. und Beweis: Es Beginnen wir mit (i) (ii): genügt natürlich (i) (ii) zu beweisen. Sei injektiv. Nach Satz 2.3.6 folgt Im und nach Im . Damit ist Im . Da Lemma 2.3.8 Im ein Unterraum von ist, folgt nach Satz 1.2.27 (ii) Im , und ist surjektiv. (ii) (i): Ist eine Basis von , so ist Im , da surjektiv ist. Damit sind aber linear unabhängig. Nach Lemma 2.3.8 folgt daraus die Injektivität von . 2.3.10 Satz Ist , so ist die Menge ein Teilraum eines -Vektorraumes mit den Verknüpfungen 55 2. Lineare Abbildungen und ein Vektorraum. Man nennt den Quotientenraum von in . Der kanonische Epimorphismus , der definiert ist durch , ist linear mit Kern . Beweis: Zunächst ist als Teilraum eine Untergruppe der abelschen Gruppe von . Damit ist ein Normalteiler, und wird nach Satz 2.2.12 mit der oben definierten Verknüpfung eine Gruppe. Es bleibt also zu zeigen, daß die skalare Multiplikation wohldefiniert ist und die Axiome in (V2) erfüllt. Wir beginnen mit der Wohldefiniertheit. Sei dazu und . Dann gibt es ein mit . Wegen ist für ein , und wir erhalten , da ist. Damit ist , und die umgekehrte Inklusion folgt analog. Die skalare Multiplikation ist also wohldefiniert. Nun ist . Damit gilt (V21). Weiter erhalten wir , womit (V22) erfüllt ist. Nun berechnen wir und haben damit (V23) nachgewiesen. Schließlich erhalten wir auch (V24) wegen . Wir wissen bereits nach Satz 2.2.12, daß ein Epimorphismus der Gruppen mit Kern ist. Wegen ist aber auch linear, und alles ist bewiesen. 2.3.11 Homomorphiesatz für Vektorräume Sind , beides -Vektorräu me und ist eine lineare Abbildung, so gibt es einen Epimorphismus und einen Monomorphismus derart, daß das folgende Diagramm kommutiert, d.h. daß Kern gilt. Insbesondere ist dann Kern . Beweis: Nach dem Homomorphiesatz für Gruppen (Satz 2.2.7) wissen wir bereits, daß die Aussage des Satzes für die den Vektorräumen zugrunde liegenden Grup pen korrekt ist. Es bleibt daher nur zu zeigen, daß die Abbildungen und auch linear sind. Für den kanonischen Epimorphismus haben wir das in Satz 2.3.10 bereits eingesehen. Wir müssen uns also nur noch davon überzeugen, daß sich die 56 2.4. Direkte Summen von Unterräumen kanonische Einbettung Kern linear ist. Dazu berechnen wir Kern Kern Kern . Damit ist linear, und alle Behauptungen folgen aus Satz 2.2.7. 2.4 Direkte Summen von Unterräumen 2.4.1 Definition Sei definieren und nennen -Vektorraum und ein die Summe der Unterräume 2.4.2 Satz Sind von und es gilt Teilräume von Unterräume von . Wir . , so ist . wieder ein Teilraum Beweis: Es genügt natürlich zu zeigen, da per definitionem ein Teilraum ist. Gilt für , so ist . Damit haben wir . Ist umgekehrt , wobei wir ggf. , so gibt es und mit zulassen. Da alle Unterräume sind, ist mit auch . Setzen wir , so erhalten wir . Wir erinnern an die Definition von in (1.17). 2.4.3 Satz Die Abbildung ist ein Epimorphismus der Vektorräume. Wir nennen die Summe der Unterräume direkt, wenn ein Isomorphismus ist. Direkte Summen von Unterräumen notieren oder . wir als Beweis: Zunächst ist klar, daß die Abbildung surjektiv ist. Wir haben daher nur die Linearität nachzuprüfen. Es ist und . Damit ist linear. 57 2. Lineare Abbildungen 2.4.4 Satz Seien Teilräume von . Die Abbildung ist genau dann ein Isomorphismus, wenn gilt: Insbesondere gilt . Beweis: Wegen seiner Surjektivität ist genau dann bijektiv, wenn es injektiv ist. für ein aus und Dazu gehen wir von wählen und somit Kern . Dann gilt aber d.h. Kern . Also ist . Dann ist und damit Kern . aus und betrachten für und damit für und damit . Ist , und ist injektiv. Beachte Gilt Damit ist nicht injektiv. Hier gehen wir von , so hat jedes eine Darstellung eine weitere Darstellung, so folgt wegen , d.h. für schon der Injektivität von . Die Darstellung als Summe ist bei direkten Summen von Unterräumen also eindeutig. 2.4.5 Satz Sei ein -Vektorraum und ein Teilraum von . Dann gibt es einen Teilraum von mit . heißt das Komplement von in . Beweis: Sei eine Basis von . Nach Satz 1.2.20 finden wir eine Menge , eine Basis von so daß und ist. Wir definieren , so gibt es endliche Mengen . Ist und mit . Es bleibt als nur noch die Direktheit der Sum me nachzuweisen. Ist , mit , so erhalten wir wieder mit endlichen Mengen und . Wegen der linearen Unabhängigkeit der Menge folgt daraus für alle und für alle . Also ist und 58 2.4. Direkte Summen von Unterräumen , d.h. Kern ist injektiv. 2.4.6 Satz Ist ein -Vektorraum mit , so ist , und . Bemerkung Satz 2.4.6 besagt insbesondere, daß K-Vektorräume gleicher (endlicher) Dimension isomorph sind. Es gilt sogar, daß zwei endlich dimensionale K-Vektorräume genau dann isomorph sind, wenn sie die gleiche Dimension haben. Beweis: Wir wollen uns als erstes die Bemerkung klar machen. Sind zwei Vektorräume isomorph, so haben sie nach Korollar 2.3.7 gleiche Dimension. Haben umgekehrt zwei Vektorräume und die gleiche endliche Dimension , so gilt und damit . Nun zum Beweis des Satzes. Wir wählen eine Basis und defi von bezüglich der Basis nieren die Koordinatendarstellung durch (2.2) Wir behaupten, daß ein Isomorphismus der Vektorräume ist. Da eine Basis nach Satz 1.2.16 eine eindeutige Darstellung in der Form ist, hat jedes . Damit ist auf ganz wohldefiniert. Man rechnet nun leicht nach, daß linear ist. Zu jedem ist ein surjektiv. Gilt , so folgt Urbild. Damit ist und damit . Damit ist Kern und somit auch injektiv. 2.4.7 Satz Für endlich dimensionale Vektorräume . und gilt Beweis: Ist und , so folgt nach Satz 2.4.6 . Seien und Basen von bzw. und und und Koordinatendarstellungen bzgl. und . Für die und definieren wir Die Abbildung 59 2. Lineare Abbildungen definiert dann, wie man leicht nachrechnet, einen Isomorphismus der Vektorräume. Damit ist . 2.4.8 Satz Sind endlich dimensionale Vektorräume, so gilt Beweis: Der Beweis folgt durch Induktion nach 2.4.9 Satz Sind gilt: für endlich dimensionale Teilräume eines Vektorraumes aus Satz 2.4.7. , so Beweis: Die Abbildung ist surjektiv. Nach Korollar 2.3.7 und Satz 2.3.9 ist genau dann injektiv, wenn ist. 2.4.10 Satz Sind , so gilt und Beweis: Da Teilräume und ist schon und Satz 2.4.4 ein Teilraum von 2.4.11 Satz Sei Beweis: Da Vektoren ein Vektorraum. Ist und ist, erhalten wir nach Satz 2.4.5 und . Damit . Für folgt wegen und damit . Aus folgt in analoger Weise . Damit ist nach , und wir erhalten mit endlich dimensionale Teilräume eines Vektorraumes . . , so ist . ist, gibt es zu jedem eindeutig bestimmte und mit . Wir definieren eine Abbildung durch . Man rechnet mühelos nach, daß dann eine lineare Abbildung mit Kern und Im ist. Nach dem Homomorphie satz für Vektorräume folgt Kern Im . 2.4.12 Satz Ist Kern 60 Im . eine lineare Abbildung, so gilt 2.5. Der Vektorraum Hom Beweis: Da Kern ein Teilraum von ist, erhalten wir nach Satz 2.4.5 einen Teilraum mit Kern . Nach Satz 2.4.11 gilt dann Kern Im . Damit folgt Kern Im . 2.5 Der Vektorraum Hom 2.5.1 Definition Es seien Hom und beides -Vektorräume. Wir definieren ist linear Ist es klar oder unerheblich, um welchen Körper Hom statt Hom . 2.5.2 Satz Die Menge Hom und zu einem es sich handelt, schreiben wir wird mit den Verknüpfungen -Vektorraum. Beweis: Durch Nachrechnen erhalten wir aus der Definition von Hom und Hom Hom (i) ! erhalten wir (ii) , so ist erhalten: und Hom ! Hom ist Halbgruppe durch Definieren wir Wegen (iii) Hom , und wir ist ein neutrales Element bezüglich (iv) Ebenso folgt Wegen ist invers zu " (v) folgt 61 2. Lineare Abbildungen Hom ist abelsch (vi) Schließlich rechnen wir die folgenden Eigenschaften mühelos nach: und (vii) (viii) und Mit (i) – (ix) haben wir Hom (ix) Hom Hom 2.5.3 Satz Gilt (i) und (ii) als Vektorraum nachgewiesen. und Hom , so folgt . Beweis: Die Behauptung (i) folgt aus Lemma 2.3.3. Die Behauptung (ii) rechnet man einfach nach. 2.5.4 Satz Der Vektorraum Hom der Endomorphismen ist mit der Komposition von Abbildungen ein Ring mit Einselement. Beweis: Aus Satz 2.5.3 erhalten wir sofort, daß Hom ein Ring ist. Die Iden tität auf ist natürlich linear und liefert das Einselement des Ringes. 2.5.5 Definition Man nennt End ring von V. Hom den Endomorphismen- 2.5.6 Satz Die Menge GL ist linear und bijektiv bildet mit der Komposition eine Gruppe. Sie heißt die allgemeine lineare Gruppe von (General Linear Group). In der Regel lassen wir das Subskript weg und . Es ist GL End . schreiben kurz GL Beweis: Die Identität auf ist linear und bijektiv. Damit besitzt GL ein neu trales Element. Für GL ist nach Lemma 2.3.4 ebenfalls linear und bijektiv. Damit hat jedes Element in GL ein Inverses. 2.5.7 Bemerkung End 62 ist ein Ring mit 1, der nicht nullteilerfrei ist. 2.5. Der Vektorraum Hom Beweis: Sei . Dann sind die Abbildungen mit und mit beide linear und nicht die " Nullabbildung. Es gilt aber für alle . , d.h., und sind Nullteiler. Damit ist 63 2. Lineare Abbildungen 64 3. Matrizen 3.1 Basisdarstellung linearer Abbildungen 3.1.1 Beobachtung Es seien und endlich dimensionale -Vektorräume und eine Basis für sowie eine Basis für . Ist Hom und , so gilt Damit ist die Abbildung durch die Werte Umgekehrt definiert jede Abbildung die Festsetzung für für mit Nun ist und somit eindeutig bestimmt. eine lineare Abbildung durch . Da Basis von ist, gibt es Damit ist durch die Körperelemente 3.1.2 Definition Eine eindeutig bestimmt. Matrix über einem Körper ist ein Schema der Form 65 3. Matrizen .. . .. .. . . mit d.h. es ist . Die Menge der -tupel für Die Vektoren .. . für Matrizen über ist eine bezeichnen wir mit -Matrix über , heißen die Zeilen der Matrix, die heißen die Spalten der Matrix. Die Elemente für die Hauptdiagonale, die Elemente für Nebendiagonale der Matrix. bilden die Bemerkung Die Schreibweise von Matrizen als rechteckige Schemata hat lediglich (sehr gute) pragmatische Gründe. Man kann eine -Matrix .. . .. . als ein -tupel von -tupeln aus auffassen. also als Vektor Dies ist der Hintergrund des folgenden Satzes. 3.1.3 Satz Mit den Verknüpfungen und wird der zu einem Vektorraum. Beweis: Die eben eingeführten Verknüpfungen sind genau die Verknüpfungen des . Wir wissen aber schon, daß ein Vektorraum ist. Im wesentlichen ist die -Matrizen-Schreibweise nur eine bequemere Schreibweise für den Vektorraum . 66 3.1. Basisdarstellung linearer Abbildungen .. .. . . Das Nullelement im bezeichnen wir durch .. . Das Inverse (bzgl. der Addition) zu ist . Wir wollen in Zukunft immer vom Negativen eines Elementes einer additiven abelschen Gruppe sprechen, wenn wir das Inverse bezüglich der Addition meinen. Das erspart Verwirrungen, da wir auf den Matrizen auch eine multiplikative Struktur einführen werden. 3.1.4 Lemma Ist ein Vektorraum der Dimension , so wird die Abbildung id dargestellt. Hom bezüglich jeder Basis von durch die Matrix Die Matrix .. . .. .. . . heißt Einheitsmatrix und wird mit bezeichnet. Oft ist aus dem Zusammenhang klar, welches gemeint ist. Dann schreiben wir kurz . . Beweis: Es ist id Notationen Anstatt toren über Statt über . schreiben wir . schreiben wir .. . und nennen und nennen den Vektorraum der Spaltenvek- den Vektorraum der Zeilenvektoren 3.1.5 Satz Seien und -Vektorräume und Basen von bzw. . Wir definieren eine Abbildung Hom sowie durch 67 3. Matrizen falls für alle gilt. Die Matrix heißt die Matrixdarstellung von bezüglich der Basen und ist ein Isomorphismus der Vektorräume. . Die Abbildung Beweis: Wir haben bereits in 3.1.1 beobachtet, daß die Matrix für al le Hom definiert ist. Umgekehrt erzeugt jede Matrix , die sich, vermöge eine Abbildung fortsetzen wie in 3.1.1 bemerkt, zu einer linearen Abbildung und ist eine surjektive Abbildung. Wir läßt. Dann gilt haben ihre Linearität nachzurechnen. Dazu beobachten wir, daß mit und gilt und damit " 3.1.6 Korollar Sind nen und , so gilt: Hom und und Hom endlich dimensionale Vektorräume der Dimensio- 68 3.1.7 Beobachtung Seien , und Vektorräume, Hom , eine Basis von , ne Basis von und eine Basis von . und , so ist Ist . Analog erhalten wir . . Damit ist die Nullabbil- und damit Ist , so folgt für dung, d.h. Kern , und ist injektiv. , ei- Hom 3.1. Basisdarstellung linearer Abbildungen Die eben gemachte Beobachtung ist die Motivation für die folgende Definition des Produktes von Matrizen. 3.1.8 Definition (Matrixmultiplikation) Sei und . Wir definieren und nennen , mit das Produkt der Matrizen und . Aus der Definition der Matrixmultiplikation und Beobachtung 3.1.7 erhalten wir sofort den folgenden Satz. und 3.1.9 Satz Es seien , und -Vektorräume mit und . Sind , und Basen von , und Hom , so gilt , , Hom Warnung Das Ergebnis des Satzes 3.1.9 wird oft als unschön empfunden, da Hom die Abbildung kein Homomorphismus der Ringe, sondern ein sogenannter Antihomomorphismus wird. D.h. es gilt anstatt . Will man dies ver meiden, so muß man definieren für und . Die so erhaltene Matrix ist dann für und die transponierte (s.u.) der von uns eingeführten Matrix. Wir haben uns hier für diese etwas einfachere Definition entschlossen und nehmen dafür die Unschönheit in Kauf. Die meisten Lehrbücher gehen jedoch den anderen Weg. Für die Entwicklung der Theorie ist die Definition der darstellenden Matrix jedoch nicht entscheidend. Beachte Wenn Sie zwei Matrizen und multiplizieren wollen, so muß und sein, d.h. die Länge der Zeilen von muß mit der Länge der Spalten von übereinstimmen. Ein Spezialfall der Matrixmultiplikation ist die Multiplikation eines Zeilenvektors , die das Körperelement mit einem Spaltenvektor .. . 69 3. Matrizen ergibt. Dem einen oder anderen mag dieses Produkt als “Skalarprodukt” oder “inneres Produkt” zweier Vektoren von der Schule her bekannt sein. Schreiben wir die Matrizen als Matrix .. . von Zeilenvektoren und als Matrix von Spaltenvektoren , so erhalten wir . Die Merkregel Zeile mal Spalte ist hier oft sehr nützlich. Man kann eine Matrix auch in “Kästchen” unterteilen. Schreiben wir beispielsweise mit , , , , , so erhalten wir , , , und wie man leicht nachrechnet. Auch hier gilt das Prinzip “Zeile mal Spalte”. 3.1.10 Bemerkung Für Matrizen gelten folgende Rechenregeln: (ii) (iii) (iv) (i) für für für , für , , , , . , 70 für ein . Wegen . . und Damit erhalten wir und . Damit ist die Aussage (i) bewiesen. für ein Hom . Dann ist Sei . Beweis: Nach der Wahl geeigneter Basen erhalten wir Hom , für ein Hom haben wir , (i) 3.1. Basisdarstellung linearer Abbildungen ist. Die Aussage (iii) zeigt man völlig analog. für ein Hom Sei nun . Damit ist dann auch (iv) bewiesen. Womit (ii) bewiesen . Dann folgt 3.1.11 Satz Die quadratischen Matrizen des bilden mit der Matrixaddition und der Matrixmultiplikation einen Ring mit der Einheitsmatrix als Einsele ment. Ist ein Vektorraum mit und eine Basis von , so ist End ein Antiisomorphismus der Ringe, d.h. es gilt . in Satz 3.1.5 Beweis: Die Ringaxiome wurden in 3.1.10 nachgerechnet. Da als Vektorraumisomorphimus nachgewiesen wurde, ist diese Abbildung bijektiv. Daß ein Antihomomorphismus vorliegt, folgt aus Satz 3.1.9. Wir werden im nächsten Abschnitt sehen, daß dieser Antiisomorphismus sich mühelos zu einem Iso morphismus ergänzen läßt. 3.1.12 Bemerkung Ein -Vektorraum , auf dem noch zusätzlich eine Verknüpfung definiert ist, heißt eine Algebra. Der bildet mit der Matrixmultiplikation die Algebra der quadratischen Matrizen. Ebenso bilden die Endomorphismen eines Vektorraumes mit der Komposition von Abbildungen eine Algebra. 3.1.13 Definition Eine heißt invertierbar, wenn es eine Matrix Matrix gibt, mit . Die Menge der invertierbaren Matrizen des bezeichnen wir mit GL , d.h. 3.1.14 Satz Die Menge GL bildet mit der Matrixmultiplikation eine Gruppe. Sie heißt die allgemeine lineare Gruppe. Für eine Basis eines -Vektorraums GL . der Dimension gilt GL , so gibt es Beweis: Ist GL und , und , und wir sehen, daß es gilt GL ist. Ist umgekehrt GL , so sind die Abbildungen und (vgl. den Beweis des Satzes 3.1.5) in End und es folgt id und damit GL 71 3. Matrizen GL GL . Damit ist GL eine Gruppe und und eine Gruppe, da GL ein Antiisomorphismus ist. Wir wollen den Abschnitt damit beschließen, eine kanonische Basis des anzugeben. Dazu definieren wir die Matrizen (3.1) Das bedeutet, daß die -Matrix ist, die genau im Schnittpunkt der -ten Zeile und -ten Spalte eine und sonst lauter Nullen stehen hat. Wenn und aus dem Zusammenhang ersichtlich sind, lassen wir die oberen Indizes weg und schreiben kurz . 3.1.15 Satz Die Menge Basis des . Beweis: Offensichtlich ist 3.2 . genau die kanonische Basis des Der duale Raum und die transponierte Matrix ist eine 3.2.1 Definition Für sei mit für ; . heißt die zu transponierte Matrix. Sie entsteht durch Spiegelung an der Hauptdiagonalen. Um die geometrische Bedeutung der transponierten Matrix genauer zu studieren, führen wir den Begriff des dualen Raumes ein. 3.2.2 Definition Sei Man nennt den zu ein -Vektorraum. Wir definieren dualen Raum. Hom . In der obigen Definition wird der Körper als ein eindimensionaler Vektorraum über sich selbst aufgefaßt. Eine lineare Abbildung von einem Vektorraum in dessen Grundkörper bezeichnet man auch als eine Linearform. Der duale Raum ist also die Menge der Linearformen von in . Beweis: Wegen 3.2.3 Satz Ist . Hom , so ist aus der Bemerkung zu Satz 2.4.6. folgt dies Der Isomorphismus, der sich auf Grund von Satz 3.2.3 ergibt, ist allerdings kein sehr natürlicher. Wir erhalten ihn nach Wahl von Basen für und für 72 3.2. Der duale Raum und die transponierte Matrix , wobei die Basen und nichts miteinander zu tun als Komposition haben müssen. Ein Vektorraum und sein dualer Raum sind jedoch viel enger miteinander verknüpft. Das wollen wir im folgenden herausarbeiten. 3.2.4 Satz Ist so ist die Menge . eine Basis von und setzen wir linear unabhängig, und es gilt Beweis: Es folgt nach 3.1.1, daß durch die Festsetzung eine Linearform mit definiert wird. Gilt nun , so erhalten wir . Also ist , und ist linear unabhängig. für . . Dann gilt für mindeBeweis: Sei eine Basis von und stens ein . Damit erhalten wir aber 3.2.5 Korollar Ist und , so gibt es ein mit . 3.2.6 Lemma Ist und gibt es eine Basis von Isomorphismus. , , so daß eine lineare Abbildung eine Basis von ist, so ist ein als LinearkombinatiBeweis: Die Abbildung ist surjektiv, da sich jedes on mit darstellen läßt. Ist , so folgt wegen der linearen Unabhängigkeit von schon und damit . Damit ist Kern und ist injektiv. eine 3.2.7 Satz Ist ein endlich dimensionaler Vektorraum und eine Basis von Basis von , so ist und die Abbildung ein Isomorphismus der Vektorräume. Man nennt die zu duale Basis. 73 3. Matrizen Beweis: Wir wissen nach Satz 3.2.4, daß linear unabhängig sind. Zu zeigen bleibt daher, daß sie auch ein Erzeugendensystem bilden. Ist , so zeigen wir, daß ist. Dies ist aber wegen für sofort klar. Da die die Basis auf die Basis abbildet und und die Abbildung gleiche Dimension haben, folgt nach Lemma 3.2.6, daß ein Isomorphismus ist. Man sollte im vorherigen Beweis beachten, daß er nur für endlich dimensionale Vektorräume funktioniert. Ist nämlich unendlich dimensional, so wissen wir eine endliche Teilmenge zwar, daß für jedes mit existiert und erhalten für ein daraus , d.h. , aber die Menge läßt sich nicht uniform angeben, sondern hängt von der Darstellung von durch Basisvektoren ab. So ist die Abbildung für unendlich dimensionale Vektorräume zwar injektiv, aber im allgemeinen nicht surjektiv. Beweis: Aus der Definition von folgt die Kommutativität des folgenden Dia 3.2.8 Satz Ist Hom und , so ist die Abbildung , in Hom die definiert ist durch . Wir nennen die zu duale Abbildung. Sind und endlich dimensional und sind und Basen von . und , so gilt gramms. Hom . Wegen ist linear. und endlich und Sind nun dimensional mit Basen für und , so folgt . . Wir behaupten, daß dann Sei und für (i) Damit ist gilt. Zunächst erhalten wir nämlich 74 (ii) 3.2. Der duale Raum und die transponierte Matrix und dann auch 3.2.9 Satz Die Abbildung Hom ein Monomorphismus der Vektorräume. Sind ein Isomorphismus. (iii) Aus (ii) und (iii) folgt aber sofort (i). Hom mit ist und endlich dimensional, so ist Beweis: Sei Hom . Nach Satz 3.2.8 gilt . Um die Linearität nachzuweisen, berechnen wir (vgl. den Beweis von Satz 3.1.10) , woraus folgt. Damit ist linear. Sei Kern . Nehmen wir an, so gibt es ein mit und nach Korollar 3.2.5 damit ein mit . Damit ist und folglich auch , was unserer Annahme Kern widerspricht. Damit ist injektiv. Ist nun und , so gilt Hom Hom und nach Satz 2.3.9 ist dann bereits ein Isomorphismus. End . Damit 3.2.10 Satz Für Hom , Hom ist ist die Abbildung End End ein Antimonomorphismus der Ringe. Insbesondere gilt dann für Matrizen und . Nach Wahl einer Basis für einen Vektorraum der Dimension ist die Abbildung ein Isomorphismus der Algebren. Beweis: Die erste Behauptung des Satzes entnehmen wir direkt dem folgenden Diagramm sofort, daß ein Anti endlich dimensional, Da nach Satz 3.2.9 injektiv ist, folgt wegen monomorphismus der Endomorphismenringe vorliegt. Ist so ist ein Antiisomorphismus. 75 3. Matrizen Hom , Hom für für , und , so erhalten wir . Wir haben das folgende kommutative Diagramm End End und Ist und geeigneten Basen , und Im Zusammenhang mit Satz 3.1.9 haben wir schon bemerkt, daß die Abbildung End ein Antihomomorphismus der Ringe ist. Nach Satz 3.1.5 ist sie ein Isomorphismus der Vektorräume. Da auch ein Isomorphismus der Vektorräume und ein Antihomomorphismus der Ringe ist und die Komposition zweier Antihomomorphismen einen Homomorphismus ergibt, erhalten wir als einen Isomorphismus sowohl der Vektorräume als auch der Ringe und damit als einen Isomorphismus der Algebren. Nun gilt aber , d.h. . Bemerkung Satz 3.2.8 ist der Grund, weswegen man üblicherweise die darstelHom bezüglich zweier Basen lende Matrix eines Homomorphismus (in unserer Notation) definiert. Man erhält und von bzw. als die Abbildung darstellende Matrix von dann direkt als einen Isomorphismus der Algebren. Sieht man sich Satz 3.2.9 nochmal genauer an, so bemerkt man, daß der Isomorund Hom einfacher anzugeben ist, als phismus zwischen Hom der zwischen und , zu dessen Definition wir eine Basis benötigen. Der Ho ist dagegen unabhängig von der Wahl einer Basis. Man momorphismus sagt daher, daß Hom und Hom kanonisch isomorph sind. Zwischen und dem dualen Raum sind solche kanonische Isomorphismen nicht bekannt. Anders ist die Situation, wenn wir zum dualen des dualen Raumes, d.h. zu übergehen. Dort erhalten wir im endlich dimensionalen Fall einen kanonischen Isomorphismus. 3.2.11 Satz Die Abbildung , mit für definiert einen kanonischen, d.h. basisunabhängigen, Monomor phismus von in . Ist , so ist ein kanonischer Isomorphismus. Beweis: Wegen ist Hom . 76 3.2. Der duale Raum und die transponierte Matrix , d.h. , und wir haben die Abbildung als linear erkannt. für alle . Für gibt es Ist Kern , so gilt mit . Damit folgt und die aber nach Korollar 3.2.5 ein Abbildung ist injektiv. Ist endlich dimensional, so folgt und nach Satz 2.3.9 ist dann ein Isomorphismus. die kanonische Einbettung von Man nennt die Abbildung . Es hat sich als ungemein nützlich erwiesen, die Urbilder und Bilder kanoin nischer Einbettung zu identifizieren, d.h. als gleiche Objekte zu betrachten. Daher und die mit ihm kanonisch werden wir im folgenden sehr oft einen Vektor als die gleichen Objekte betrachten. Auf assoziierte Abbildung auffassen. Ist endlich dimensional, diese Weise läßt sich als Teilraum von in der Regel als die gleichen Räume. Die Nützlichkeit so betrachten wir und Weiter erhalten wir dieser Betrachtungsweise soll im folgenden klarer werden. Eine erste Anwendung bringt bereits der folgende Satz. Beweis: Für beliebiges wir ,erhalten d.h. . , so erhalten wir Ist und damit Bemerkung Wir wollen einmal studieren, wie die Aussage des Satzes 3.2.12 mit aussieht. Die Aussage wird der Identifikation von und 3.2.12 Satz Sind und endlich-dimensionale Vektorräume, so gilt für alle Hom . Ist eine Basis von und eine Basis von . , so folgt dann zu d.h. " (3.2) Es folgt aus (3.2), daß die Abbildung , zweimal angewandt, die Identität ergibt. und Solche Abbildungen nennt man involutorisch. Da , was im Einklang zur Identifikation folgt auch steht. Identifizieren wir für endlich dimensionale Vektorräume und , so sind auch die Räume End und End ihrer Endomorphismen gleich und die Abbildung End End ist somit ein involutorischer Antiautomorphismus der Ringe. 77 3. Matrizen In Satz 3.2.7 haben wir einen basisabhängigen Isomorphismus von auf definiert. Um zu studieren, ob auch dieser Isomorphismus unter der Identifikation involutorisch wird, studieren wir zunächst dessen Wirkung auf die Ele . Wir erhalten mente der Basis denn es gilt , d.h. . Aus (3.3) folgt jedoch sofort (3.3) erfüllt die Definitionsgleichung (3.4) Es folgt sofort aus der Definition des Transponierens von Matrizen, daß die Transposition eine involutorische Operation auf Matrizen ist (zweimal spiegeln an der Hauptdiagonalen). We Mit Hilfe von (3.3) erhalten wir diese Tatsache auf anderem gilt nämlich ge. Für . 3.2.13 Definition Zwei Vektoren und heißen orthogonal oder senkrecht, wenn ist. Geschrieben wird dies als . . Wir nennen definieren wir Für das orthogonale Komplement von . Aus Definition 3.2.13 folgt wobei wir in der letzten Inklusion wieder von der Identifikation Gebrauch gemacht haben. Man sollte beachten, daß die Relation des “senkrecht Stehens” bislang nicht sym und ist bislang nur aber nicht metrisch definiert ist. Für definiert, d.h. . Betrachten wir aber wieder die Identifikation , so können wir als , d.h. durch definiert betrachten. Dann gilt . Wir haben nun zu untersuchen, wie sich die orthogonalen Komplemente bezüglich dieser unterschiedlichen Definition verhalten. Dazu führen wir für die folgende Notation ein (3.5) d.h. ist das orthogonale Komplement bezüglich der eben in Erwägung gezogenen Relation . 78 3.2. Der duale Raum und die transponierte Matrix 3.2.14 Lemma Für . ist . Ist , so ist folgt , d.h. für alle . Wegen , wobei folgt dann sofort wir die Identifikation benutzt haben. Ist endlich dimensional, so ist surjektiv, und jedes Element hat die Gestalt für ein von . Damit folgt für alle und damit auch . Beweis: Aus 3.2.15 Lemma Für Beweis: Für ist gilt von . gilt Für . und wir haben 3.2.16 Satz Für (i) und (ii) Kern Hom Im Im Kern ein Teilraum von . Es gilt ! für alle für alle . Also ist . Damit folgt für alle . . Damit folgt ein Teilraum gelten . Beweis: Wir erhalten (i) wegen Kern Im Im Kern Im Ähnlich erhalten wir (ii) wegen Im 79 3. Matrizen und 3.2.17 Satz Ist und . ein Teilraum von , so gilt Beweis: Ist ein Teilraum von , so erhalten wir ein Komplement mit und und wählen eine Basis mit , so daß eine Basis von und eine Basis von ist. Schon im Beweis von Satz 2.4.11 haben wir gesehen, daß die Abbildung linear ist. Dann ist aber auch die Abbildung als Komposition linearer Abbildungen linear mit Kern gilt damit Im und Im , so ist Ist nun Wegen folgt dann Im . Nach Satz 2.4.12 und (i) . und damit (ii) , so finden wir und , so Ist ist. Wegen für folgt daß für . Damit ist und somit Im , und wir erhalten Im Wegen und erhalten wir (iii) Aus (i),(ii) und (iii) folgt dann (iv) (v) (vi) (vii) Nach Lemma 3.2.15 haben wir . Dann ist bereits ein Teilraum von , und zusammen mit (vii) folgt nach Satz . 1.2.27 80 3.3. Basistransformationen 3.3 Basistransformationen kann in zweifacher Weise als eine . Die Matrix 3.3.1 Definition Sei Abbildung aufgefaßt werden Wir erinnern an die in Satz 1.3.1 eingeführte kanonische Basis des Vektorraums . In (1.11) definierten wir das -tupel, das aus lauter Nullen besteht bis auf die Komponente , Damit ist notierten wir als an der eine steht. Die kanonische Basis des Dual dazu definieren wir . Damit ist die kanonische Basis des als die kanonische Basis des als die folgende Menge von Zeilenvektoren und die des gegeben als die folgende Menge von Spaltenvektoren .. .. . . ... ... (3.6) Wenn aus dem Zusammenhang klar ist, zu welchem Raum die kanonischen Basisvektoren gehören, lassen wir den oberen Index weg. 3.3.2 Lemma Für die darstellenden Matrizen der Abbildungen und . . Dann ! folgt , und damit . folgt Beweis: Sei und gilt ! 81 3. Matrizen Sei .. . und , d.h. . Wegen erhalten wir nach Satz 1.2.16 für . 3.3.3 Beobachtung Für ist und damit Hom , und für ist Hom . Identifizieren wir mit der Abbildung , so sehen wir, daß der der zu duale als den dualen Raum von , wenn wir Raum ist. Umgekehrt erhalten wir und identifizieren. Damit sind die Räume und paarweise zueinander dual. Um die zu duale Basis zu finden, berechnen wir . Damit , ist die zu duale Basis. Ebenso erhalten wir wegen die zu duale Basis ist. daß Den nach Satz 3.2.7 durch die dualen Basen und erzeugten Isomorphismus zwischen den dualen Räumen erhalten wir für als und für als . Damit sehen wir, daß der Übergang zum transponierten Vektor ein Dualisierungsprozeß ist. Das entspricht der in Satz 3.2.8 festgestellten Tatsache, daß die duale Abbildung durch die transponierte Matrix dargestellt wird. 3.3.4 Beobachtung Ist , so ist . Für die duale Abbil- gilt dann dung nach Satz 3.2.8. Damit ist , d.h. Abbildung. Ebenso ist die zu duale und da erhalten wir mit . Die Abbildungen und sind also wechselseitig dual. Darüber hinaus beobachten wir, daß die folgenden Diagramme kommutativ sind: Die Identifikation für und für läßt sich noch weiter begründen. Ist , so folgt , d.h. . Für erhalten wir analog und damit . Die , Identifikationen und sind also die gleichen. 82 3.3. Basistransformationen 3.3.5 Definition Sei ein -Vektorraum mit eine Basis von . Wir definieren (vgl.(2.2)) und und .. . und nennen die Abbildungen und die Koordinatendarstellungen bezüglich und nennen wir die Koordinatenvektoren der Basis . Die Vektoren von bezüglich der Basis . Offensichtlich gilt und . Die Koordinatendarstellungen von Vektoren entsprechen der Basisdarstellungen von Abbildungen. Wie beide zusammenhängen, klärt der folgende Satz und dessen Folgerung. 3.3.6 Satz Die Koordinatendarstellungen de Diagramm kommutiert: und sind bijektiv, und das folgen- Beweis: Gilt für , so folgt und da mit . Damit ist injektiv und wegen damit auch bijektiv. Die analoge Aussage ergibt sich auch für . Zum Nachweis der Kommutativität des Diagrammes beginnen wir mit dem unteren Rechteck. Seien und Basen von bzw. . Für mit und erhalten wir 83 3. Matrizen Für das obere Rechteck erhalten wir mit für .. . .. . .. . 3.3.7 Folgerung Ist züglich zweier Basen und d.h. . Also folgt und und linear und die Basisdarstellung von be von bzw. , so gilt , d.h. , d.h. . 3.3.8 Lemma Sind und endlich dimensionale -Vektorräume, sen von bzw. und gilt (bzw. . Der Beweis der Folgerung ergibt sich sofort aus Satz 3.3.6 und der Definition der und . Abbildungen und Ba), so ist Beweis: Nach Satz 3.3.6 und Voraussetzung gilt ! und damit nach . Wegen der von folgt daraus Bijektivität . Analog zeigt man dann die zweite Behauptung. Lemma 3.3.2 3.3.9 Definition Sei ein und Wir definieren oder Übergangsmatrix von Nach der Definition von 3.3.10 Satz Es gelten (i) und 84 nach . Beachte -Vektorraum mit , seien Basen von . Dann gilt . und nennen die Transformationsmatrix haben wir id . 3.3. Basistransformationen (ii) Beweis: . Es ist . Dann folgt , und . Damit ist . .. . . (i): Sei 3.3.11 Korollar (ii): . GL Beweis: Die Abbildungen und sind beide bijektiv. Nach Satz 3.3.10 gilt bijektiv . Da dann . Nach Lemma 0.5.7 ist dann deren darstellende Matrix bezüglich der kanonischen Basis des ist, folgt nach Satz 3.1.14 GL . 3.3.12 Bemerkung Ist eine Basis von . mit , , so definiert GL Beweis: Es genügt zu zeigen, daß die Vektoren sind. Zunächst haben wir und eine Basis linear unabhängig (i) denn es ist . Sei nun . Dann folgt . Damit folgt , d.h. . Mit (i) erhalten wir für damit , d.h. , und ist linear GL unabhängig. 3.3.13 Satz (Transformationssatz) Es seien und endlich-dimensionale Vektorräume, und Basen von sowie und Basen von und Hom . Dann kommutiert das folgende Diagramm - 85 3. Matrizen und damit auch D.h. es gilt Beweis: Die Kommutativität der beiden inneren Trapeze haben wir bereits in Satz 3.3.6 gezeigt. Um auch die Kommutativität des äußeren Rechtecks zu zeigen, haben wir die folgenden Gleichungen zur Verfügung (i) (ii) und Damit erhalten wir (iii) (iv) wobei wir uns noch davon zu überzeugen haben, daß (v) gilt. Aus der dritten Zeile von (iv) folgt die Kommutativität des äußeren Rechtecks des Diagramms. Aus der letzten Zeile von (iv) folgt und daher ! . Der 86 guten Form halber wollen wir auch (v) nachrechnen. Es ist . Damit ist id und folglich . 3.4. Der Rang linearer Abbildungen und der Rang einer Matrix 3.4 Der Rang linearer Abbildungen und der Rang einer Matrix . Dann definieren wir Rang Im Rang . Wir nennen Rang den Rang der den Rang der Matrix . 3.4.2 Satz Sei Hom mit . Dann gilt Rang Rang . Insbesondere ist dann Rang Rang . Beweis: Für Hom haben wir nach Satz 2.4.12 und Satz 3.2.16 Kern Im (i) Im Im 3.4.1 Definition Hom Sei Für sei Rang linearen Abbildung und Rang und nach Satz 3.2.17 auch Im Im (ii) Aus (i) und (ii) folgt dann Im Im folgt Für und Rang Rang (iii) (iv) Aus (iv) folgt also, daß das Diagramm (3.7) Rang kommutiert. Damit folgt Rang denn und sind nach Satz 3.3.4 dual. 3.4.3 Satz Ist bzw. , so gilt Rang Rang bezüglich zweier beliebiger Basen Rang . Beweis: Nach Satz 3.3.13 gilt Rang und Rang des (i) 87 , 3. Matrizen Nun ist Diagramm und id id und Da die Abbildungen damit auch Rang Rang . 3.4.4 Korollar Ist gilt Rang Rang , und damit kommutiert das folgende beide bijektiv sind, folgt Im sind und . GL und Im und , so GL Beweis: Nach Bemerkung 3.3.12 können wir und als Transformationsmatrizen auffassen. Damit stellen und die gleiche Abbildung bezüglich verschiedener Basen dar. Die Behauptung folgt daher aus Satz 3.4.3. 3.4.5 Satz Sei Rang Hom ist. . Die Abbildung ist genau dann injektiv, wenn Kern Im ist Kern genau dann der Im Rang ist. ist genau dann invertierbar, wenn Rang 3.4.6 Korollar Eine Matrix Beweis: Wegen Nullraum, wenn ist. Beweis: Nach Satz 3.1.14 ist GL genau dann, wenn bijektiv ist. Nach Satz 2.3.9 ist aber die Abbildung genau dann bijektiv, wenn sie injektiv ist. Nach Satz 3.4.5 ist dies genau dann der Fall, wenn Rang ist. 3.5 Elementare Umformungen mit und von Rang 3.5.1 Normalformensatz Sei Hom . Dann gibt es Basen von ist. 88 mit , so daß und 3.5. Elementare Umformungen Beweis: Nach Satz 2.4.5 erhalten wir einen Unterraum von , so daß Kern ist. Wegen Kern ! Im ! eine erhalten wir eine Basis von , so daß eine Basis von Kern ist. Wir behaupten, daß Basis von und eine Basis von Im ist. Dazu genügt es zu zeigen, daß dann linear unabhängig ist. Sei also die Menge . Dann ist Kern und daher . folgt daher Wegen der linearen Unabhängigkeit von eine Basis von Im , die wir zu einer Basis . Damit ist . Damit von für ergänzen. D.h. wir haben erhalten wir für für für , folgt. Damit hat die behaupfür woraus für tete Gestalt. 3.5.2 Definition Die elementaren Basistransformationen sind: (I) Addieren eines Basisvektors zu einem anderen, (II) Multiplikation eines Basisvektors mit , . 3.5.3 Lemma Gehen und aus einer Basis durch eine elementare Basistransformation des Typs (I) bzw. (II) hervor, so sind und wieder Basen, und es gelten für und Beweis: Seien , für für und und und für für mit , wobei ist. Um einzusehen, daß wieder Basen sind, genügt es, die lineare Unabhängigkeit von und zu zeigen. Ist , so folgt 89 3. Matrizen für auch . Ist und Um die Transformationsmatrix für Daraus folgt zunächst Wegen ist , und für und folgt . Damit ist zu berechnen, setzen wir Um impliziert das letztere , so folgt für und . Wegen . Für , . ist und jeder Körper nullteilerfrei ist, Basen. zu erhalten, berechnen wir und . Da erhalten wir auch . Damit sind und . Wegen . ist schließlich . Wegen . . 3.5.4 Bemerkung Es folgt aus Korollar 3.3.11, daß die Matrizen beide umkehrbar sind, und man rechnet sofort nach, daß für und deren Inversen und gilt. und der Gestalt nennen wir Die Matrizen der Gestalt Daraus folgt Damit ist für oder ist Elementarmatrizen. Um die Wirkung der Multiplikation von Elementarmatrizen zu studieren, stellen wir einige Rechnungen an. 3.5.5 Lemma Schreiben wir die Matrix , so gilt . mit Dual erhalten wir für mit 90 in der Form .. . auch .. . . 3.5. Elementare Umformungen Beweis: Es ist Beweis der dualen Behauptung ergibt sich durch Transposition. Es ist . .. . Für .. . Analog folgt und damit .. . .. . .. . .. . .. . und als Matrix von Zeilenvektoren, so erhalten wir .. . . .. . Beweis: Schreiben wir .. . , so folgt gilt dual . und 3.5.6 Lemma Schreiben wir . Der .. . .. . .. . .. . . .. . . 3.5.7 Definition Die elementaren Zeilen- und Spaltenumformungen einer –Matrix sind: (Z I ) Addition einer Zeile zu einer anderen (d.h. die Multiplikation mit der Ele mentarmatrix von links.) (S I ) Addition einer Spalte zu einer anderen (d.h. die Multiplikation mit der Ele mentarmatrix von rechts.) 91 3. Matrizen (Z II ) Multiplikation einer Zeile mit von links.) (S II ) Multiplikation einer Spalte mit von rechts.) , , (d.h. die Multiplikation mit (d.h. die Multiplikation mit Durch sukzessives Ausführen elementarer Zeilen- bzw. Spaltenumformungen erhalten wir Umformungen der folgenden Typen: (Z III ) Addition des Vielfachen einer Zeile zu einer anderen. (S III ) Addition des Vielfachen einer Spalte zu einer anderen. (Z IV ) Vertauschen zweier Zeilen. .. . . . ZI . .. . .. . III Z .. . .. . .. . .. . ZI .. . .. . .. . .. . .. . .. . .. . .. . Z II .. . . . . .. . .. . .. . (S IV ) Vertauschen zweier Spalten. Addition einer Linearkombination von ( ren. (Z V ) .. . .. . . 92 Z II Z II .. . .. . Z III Z III ) Zeilen zu einer ande.. . .. . .. . (S V ) .. .. . .. . Addition einer Linearkombination von ( anderen. .. . .. . ) Spalten zu einer 3.5. Elementare Umformungen Beachte Elementare Zeilenumformungen entsprechen der Multiplikation mit einem Produkt von Elementarmatrizen von links, elementare Spaltenumformungen der Multiplikation mit einem Produkt von Elementarmatrizen von rechts. Aus Z III bzw. S III folgt, daß auch die zu einer Elementarmatrix inverse Matrix ein Produkt von Elementarmatrizen ist. 3.5.8 Satz Ist Hom und eine Basis von , die aus durch ele aus durch mentare Basistransformationen entsteht, so entsteht elementare Zeilenumformungen. aus durch elementare Spaltenumformungen, wenn Dual entsteht aus einer Basis von durch elementare Basistransformationen hervorgeht. . Die Inversen der ! Beweis: Nach Satz 3.3.13 ist Transformationsmatrizen elementarer Basistransformationen sind aber genau die Elementarmatrizen, und Multiplikation mit Produkten von Elementarmatrizen von links entspricht elementaren Zeilenumformungen. Analog ist , und ist als Inverses einer Elementarmatrix ein Produkt von Elementarmatrizen. Multiplikation mit Produkten von Elementarmatrizen von rechts ent spricht aber elementaren Spaltenumformungen. 3.5.9 Satz Ist Rang , so ist die maximale Anzahl linear unabhängiger Zeilenvektoren – der Zeilenrang – von . Ebenso ist die maximale Anzahl linear unabhängiger Spaltenvektoren – der Spaltenrang – von . Beweis: Für .. . ist Im Rang . . Wegen Damit ist Im sind da her höchstens Zeilenvektoren linear unabhängig. Nach Satz 3.4.2 ist aber auch Rang , und die zweite Behauptung folgt durch Übergang zur transponierten Matrix. 3.5.10 Bemerkung Aus Satz 3.5.9 folgt, daß eine Matrix genausoviele linear unabhängige Zeilen- wie Spaltenvektoren enthält. Der Zeilenrang einer Matrix ist also stets gleich ihrem Spaltenrang. 3.5.11 Lemma Ist mit Rang von Elementarmatrizen derart, daß mit . , dann gibt es Produkte mit und und 93 3. Matrizen Beweis: Die elementaren Spaltenumformungen entsprechen genau der Multiplikation mit einem Produkt von Elementarmatrizen elementare Spal von rechts. Durch tenumformungen vom Typ S IV bringen wir in die Form , linear unabhängig sind und jedes für eine wobei ist. Dann bringen wir mit elementaren SpalteLinearkombination von numformungen vom Typ S V die zum Verschwinden. Durch Übergang zur transponierten Matrix folgt aus der ersten Behauptung auch sofort die zweite. 3.5.12 Satz Zu jeder Matrix und mit Rang von Elementarmatrizen, so daß Beweis: Mit Lemma 3.5.11 können wir gibt es Produkte ist. durch elementare Spalten- und Zeile mit numformungen auf die Gestalt bringen. Sei . Dann sind nicht alle und Rang . Durch Vertauschen von Spalten (S IV ) erreichen wir und durch S II . Durch Zeilenumfor wir für . Durch Spaltenumformungen mungen Z III erhalten S III erhalten wir für . Damit haben wir durch elementare Zeilen- und Spaltenumformungen auf die Gestalt wobei Verfahren auf gebracht, ist. Nun wenden wir das gleiche mit Rang an und erhalten durch Iteration die gewünschte Gestalt. Eine Anwendung von Satz 3.5.12) ist die explizite Berechnung von Basen des Kernes . Wir berechnen zunächst und des ) Bildes einer Abbildung Hom ( . Ist Rang und eine Basis des Kernes, ) & & ) so daß ( ( eine Basis des und ) & ) ( eine Basis des ist, so ist nach dem Normalformensatz (Satz 3.5.1) eine Basis des Bildes, und es gilt ) . Nach Satz 3.5.12 gibt es um- und , so daß " ! !# ist. Nun gilt aber nach $ &% $ ! ! % . (Hierbei haben wir benutzt, daß Satz 3.3.13 auch 12 % $ ' (%*) + ist.) Also können wir % $ setzen. Kennen wir -,.0/ .. kehrbare Matrizen ) ) . 5 & 5 76 :8 9 5 84; 8 3 3 / / , so ist mit . Damit sind ) & ) % ( Basis des Kernes und Basis des Bildes. Es geht also nur darum, zu berechnen. Wegen /43 94 3 3 / /43 / ( / eine % / eine / / <! / erhalten wir 3.5. Elementare Umformungen aber dadurch, daß wir die gleichen Zeilenumformungen auf die Einheitsmatrix anwenden, die wir anzuwenden haben, um auf Normalform zu transformieren. Diese Transformation liefert uns gleichzeitig den Rang von , so daß wir alle wesentlichen Daten dann von ablesen können. In der eben skizzierten Anwendung waren nur die Zeilenumformungen von Interesse. Wir werden sehen, daß dies auch in anderen Situationen der Fall ist. Daher wollen wir uns Zeilentransformationen genauer ansehen. 3.5.13 Definition Eine Matrix .. . ist in Zeilenstufenform, wenn sie die Gestalt .. . .. . .. . .. . unhat, wobei die eingerahmten Elemente in der Stufenlinie gleich , die Elemente unterhalb der Stufenlinie 0 und die übrigen Elemente beliebig sind. Die Elemente in den Kästchen heißen Pivots oder Angelpunkte der Matrix in Zeilenstufenform. Beachte Da bei der Matrix in Zeilenstufenform die ersten Zeilen linear unabhängig sind, hat den Zeilenrang und damit gilt Rang . 3.5.14 Satz Zu jeder gibt es ein Produkt Matrix trizen, so daß in Zeilenstufenform ist. von Elementarma- Beweis: Die Zeilenstufenform wird durch das Gaußsche Eliminationsverfahren gefunden, das wie folgt abläuft: Erster Schritt: Man bestimme als den Index der ersten Spalte von , die nicht nur aus Nullen besteht. Mit Z IV bringt man ein von verschiedenes Element dieser Spalte in die erste Zeile. Dieses ist schon . Zweiter Schritt: Durch Umformungen vom Typ Z III macht man die Ele mente unterhalb von zu . 95 3. Matrizen Iteration: Jetzt haben wir eine Matrix der Gestalt und wenden den ersten Schritt auf die unten rechts stehende Rest und zweiten an. Alles, was außerhalb von steht, bleibt dabei matrix unverändert. Dies wiederholen wir so lange, bis die verbleibende Restmatrix die Nullmatrix ist. Da wir im Gaußschen Eliminationsverfahren nur Zeilenumformungen vornehmen, erhalten wir die Zeilenstufenform als , wobei ein Produkt von Elementar matrizen ist. Zur Erläuterung des Gaußschen Eliminationsverfahren wollen wir ein Beispiel rechnen. Ausgangsmatrix Zweiter Schritt: Nach Z III : 96 Erster Schritt: Nach Z IV : Erster Schritt’: Nach Z IV : 3.5. Elementare Umformungen Zweiter Schritt’: Nach Z III : und 3.5.15 Korollar Jede Matrix , GL und Rang und , " , Also ist . ist Produkt von Elementarmatrizen. Beweis: Ist GL , so ist nach Korollar 3.4.6 Rang . Nach Satz 3.5.12 gibt es Produkte und ist. von Elementarmatrizen, so daß Damit ist . Wie wir nach Definition 3.5.7 bemerkt haben, ist aber wieder ein Produkt von Elementarmatrizen. 3.5.16 Korollar Ist GL , so kann bereits allein durch elementare Zeilen- oder Spaltenumformungen in die Einheitsmatrix überführt werden. Beweis: Sei mit Elementarmatrizen . Dann gilt wieder ein Produkt . Nun ist aber von Elementarmatrizen. Die Multiplikation mit Produkten von Elementarmatrizen von links entspricht aber elementaren Zeilenumformungen. Die zweite Behauptung folgt durch Übergang zur transponierten Matrix. 3.5.17 Satz Sei GL . Man erhält , indem man dieselben Zeilenund Spaltenumformungen, die in überführen, an vornimmt. Beweis: Nach 3.5.16 gibt es Elementarmatrizen Korollar Dann ist . mit . 97 3. Matrizen 3.6 Lineare Gleichungssysteme und affine Räume 3.6.1 Definition Sei ein Körper. Ein System von mit . und Setzen wir .. . .. . .. . (3.8) heißt ein lineares Gleichungssystem mit , .. . und schreiben als Gleichungen .. . Unbekannten , so läßt sich (3.8) (3.9) Wir untersuchen die folgenden Fragen: (A) Unter welchen Bedingungen ist (3.9) lösbar, d.h. wann gibt es ein mit ? (B) (C) Unter welchen Bedingungen ist (3.9) eindeutig lösbar, d.h. wann gibt es genau ein mit ? Unter welchen Bedingungen an ? jedes (D) ist (3.9) universell lösbar, d.h. lösbar für Wie lassen sich die Lösungen von (3.9) beschreiben? als Abbildung auf, so hilft uns die bislang Fassen wir (3.9) in der Form entwickelte Theorie linearer Abbildungen bei der Beantwortung dieser Fragestellungen. . Das Gleichungssystem 3.6.2 Beobachtung Sei , ist genau dann lösbar, wenn Im ist. Damit ist universell lösbar, ist, d.h. wenn Rang wenn Im ist. Diese Beobachtung läßt sich in zwei Sätze fassen. 3.6.3 Satz Das Gleichungssystem dann universell lösbar, wenn Rang für und ist genau ist. Beweis: Wie wir bereits beobachtet haben, ist das Gleichungssystem genau dann universell lösbar, wenn Rang ist. Da ist Im . 98 3.6. Lineare Gleichungssysteme und affine Räume 3.6.4 Satz Das Gleichungssystem für dann lösbar, wenn Rang ist, wobei Rang Hinzufügen der Spalte aus entsteht. Man nennt des Gleichungssystems. ist genau durch die geränderte Matrix und ist genau 3.6.5 Satz Das Gleichungssystem für , und dann eindeutig lösbar, wenn Rang Rang ist. Beweis: : Ist Rang Rang , so ist das Gleichungssystem nach Satz Rang , so ist Kern 3.6.4 nicht Rang lösbar. Ist Rang . Nach Satz 3.6.4 gibt es ein mit . Da Kern Kern mit . Dann folgt ist, gibt es ein und Beweis: Wie wir bereits beobachtet haben, ist das Gleichungssystem genau dann lösbar, wenn Im ist. Für ist aber Im . genau dann, wenn Nun ist ist. Wegen Rang folgt daraus die Behauptung. . Das Gleichungssystem hat daher mindestens zwei Lösungen. : Ist Rang Rang nach Satz 3.6.4 , so ist das Gleichungssystem lösbar. Aus Kern Rang erhalten wir Kern . Da mit ist injektiv, und besitzt genau ein Urbild. 3.6.6 Satz Das Gleichungssystem für dann eindeutig und universell lösbar, wenn Rang GL ) ist. Die Lösung ist dann durch , ist genau (und damit gegeben. Beweis: Das Gleichungssystem ist genau dann universell und eindeutig lösbar, wenn bijektiv ist. Nach Satz 3.1.14 ist dies genau dann der Fall, wenn invertierbar ist. Nach Korollar 3.4.6 ist dies äquivalent dazu, daß Rang Rang ist. Durch Multiplikation des Gleichungssystems mit von links erhalten wir die Lösung . Damit haben wir die Fragen (A)–(C) beantwortet und wollen nun die Struktur der Lösungsmenge studieren. und , , so erhalten wir die Lösungs Kern . Beweis: Sei . : Wir haben bereits im Beweis zu Satz 3.6.5 gesehen, daß dann für Kern 3.6.7 Satz Ist menge durch auch eine Lösung des Gleichungssystems ist. Also gilt Kern . 99 3. Matrizen : Für Inklusion die umgekehrte nehmen wir und damit Kern . an. Dann gilt Kern . Damit ist Affine Räume und lineare Mannigfaltigkeiten Um die Lösungsmengen linearer Gleichungssysteme genauer studieren zu können, führen wir affine Räume und lineare Mannigfaltigkeiten ein. , 3.6.8 Definition Sei ein -Vektorraum und eine Surjektion. Anstelle von schreiben wir aus Gründen, die gleich näher erläutert werden sollen. Das Tripel heißt ein affiner Raum, wenn die folgenden Axiome erfüllt sind , (A1) (A2) , (A3) . Wir nennen die Menge der Punkte des affinen Raumes, ist die Strecke, die und verbindet. Man nennt den Differenzenraum des affinen Raumes . In einem affinen Raum gelten weiterhin (A4) , denn es es ist nach (A2) denn es gilt nach (A2) (A3) folgt. (A5) , , woraus , woraus folgt. und daraus nach bestimm Es folgt aus (A1) und (A5), daß es zu und einen eindeutig ten Punkt gibt mit . Wir schreiben , d.h. . Man sagt: “ entsteht durch Abtragen des Vektors vom Punkte aus.” (A6) , d.h. wir denn setzen (A7) 100 , , so erhalten wir . , 3.6. Lineare Gleichungssysteme und affine Räume denn nach (A2) kommutiert das folgende Diagramm: 3.6.9 Satz Ist ein das Tripel Differenzenraum U. -Vektorraum, mit ein Teilraum von und , so ist ein affiner Raum mit Beweis: Für ist . Damit ist surjektiv. Wir prüfen nun die einzelnen Axiome nach. (A1) Aus und folgt . D.h. wir können setzen. Sei , (A2) und . Dann ist . (A3) Aus damit auch erhalten wir folgt. , woraus und Es folgt aus Satz 3.6.9, daß sich jeder Vektorraum als affiner Raum mit auffassen läßt. Der Begriff des affinen Raumes ist also der als affinen Raum dargestellt. allgemeinere. In Abbildung 3.1 haben wir den Wir wollen nun zeigen, daß sich jeder affine Raum bis auf Isomorphie als ein “um einen Vektor parallel verschobener” Vektorraum darstellen läßt. Dazu müssen wir den Begriff der Isomorphie auf affine Räume ausweiten. Seien dazu und zwei affine Räume mit gleichem Differenzenraum . Eine Bijektion heißt ein Isomorphismus der affinen Räume, wenn gilt: : Sei Beweis: gilt. und . Also ist (3.10) ist genau dann ein Isomorphismus der , wenn d.h. Bemerkung Eine Bijektion affinen Räume und (3.11) . Dann gilt für " . bereits 101 3. Matrizen Y y v,u v u 0 x X Abbildung 3.1: Der als affiner Raum. Die Punkte des Raumes sind die Vektoren , die wir hier als Endpunkte der “Zeiger” dargestellt haben. Die Strecken sind die Verbindungen dieser Endpunkte. Seien : und . Dann ist . Damit folgt und damit . 3.6.10 Lemma Ist ein Isomorphismus der affinen Räume und und ist , so ist durch das Bild von bereits definiert für eindeutig und die Abbildung bestimmt. Umgekehrt , einen Isomorphismus der affinen Räume. ein Isomorphismus der affinen Räume. Zu mit " , und es folgt " . Isomorphismus mit ein weiterer , so folgt " . Damit ist . und gegeben. Wir definieren . Ist Seien nun , so sei . Nach (A1) finden wir ein mit " , und es für , so . Damit ist surjektiv. Gilt ist Beweis: Sei finden wir ein Ist . ist " . Es folgt daraus nach (A5) . Also injektiv. folgt mit und ist auch Schließlich Damit ist ein Isomorphismus. 102 " 3.6. Lineare Gleichungssysteme und affine Räume 3.6.11 Satz Ist ein affiner Raum mit Differenzenraum , so ist mit . Insbesondere sind affine Räume mit gleichem Differenzenraum isomorph. Beweis: Sei Abbildung . Wähle . Dann ist nach Lemma 3.6.10 die mit ein Isomorphismus. 3.6.12 Definition Sei ein -Vektorraum und eine lineare Mannigfaltigkeit in , wenn gilt Zu einer linearen Mannigfaltigkeit , . Wir nennen definieren wir den Differenzenraum eine lineare Mannigfaltigkeit in , so ist , und ein Teilraum von . und damit auch . Sei . Dann Beweis: Da ist darstellen als . Ist umgekehrt läßt sich jedes , so gibt es mit . Da folgt . Es bleibt zu zeigen, daraus daß ein Teilraum von ist. Ist und , so finden wir mit ! , denn wegen ist . Damit haben wir gezeigt, daß unter skalarer Multiplikation abgeschlossen ist. 3.6.13 Lemma Ist für jedes Etwas schwieriger gestaltet sich der Nachweis der Abgeschlossenheit gegenüber der Addition. Hier müssen wir uns den Grundkörper genauer ansehen. Unter der Charakteristik eines Körpers versteht man die Anzahl der en, die man benötigt um darzustellen, d.h. Char wobei als Abkürzung falls es so ein sonst, gibt steht. Ohne daß wir hier näher darauf einge- fach hen wollen, sei ohne Beweis bemerkt, daß die Charakteristik eines Körpers immer eine Primzahl oder ist. (So ist z.B. Char ). Alles, was wir hier benötigen, ist die Tatsache, daß ein Körper einer Charakteristik mehr als zwei Elemente besitzt. Das folgt daraus, daß ein Körper immer mindestens zwei Elemente besit zen muß, und , die neutralen Elemente der additiven und der multiplikativen Gruppe. Wären dies die einzigen, so müßte bezüglich der Addition zu sich selbst 103 3. Matrizen invers sein, d.h. es müßte gelten, was im Widerspruch zu Char stünde. Wir nehmen nun an, daß der Grundkörper des Vektorraumes eine Charakteristik , das von und verschieden ist, und besitzt. Wir wählen nun ein sowohl als auch . Wegen erhalten für erhalten wir und . Damit folgt und somit . folgt aus Ist Char , so ist und und wegen auch und damit wieder . 3.6.14 Satz Die linearen Mannigfaltigkeiten von sind genau die affinen Räume der Gestalt , wobei und ein Unterraum von ist. Beweis: Wir haben in Lemma 3.6.13 gesehen, daß sich jede lineare Mannigfaltig keit auf in der Form darstellen läßt, wobei und ein linearer Teilraum von ist. Nach Satz 3.6.9 ist mit ein affiner Raum. Ist umgekehrt für ein und einen Teilraum und sind , so erhalten wir für mit Damit ist eine lineare Mannigfaltigkeit. Ein Beispiel Als Beispiele für lineare Mannigfaltigkeiten wollen wir Geraden einführen. Wir definieren Definition Sei ein Vektorraum und , so heißt die Menge die Gerade durch u und v. Zuerst wollen wir uns davon überzeugen, daß eine lineare Mannigfaltigkeit , so hat jedes die Gestalt ist. Sind . Sind mit , so folgt mit . Andererseits können wir einsehen, daß eine lineare Mannigfaltigkeit mit zwei Punkten auch immer die Gerade durch diese Punkte enthält. Sind nämlich , so folgt , da und ist . 104 3.6. Lineare Gleichungssysteme und affine Räume Y y u-v v G u,v u 0 x X Abbildung 3.2: Eine Gerade im . Ein Vergleich mit Abbildung 3.1 zeigt, daß der als affiner Raum aufgefaßt alle Geraden enthält. Die Sätze 3.6.7 und 3.6.14 liefern uns nun den Zusammenhang zwischen linearen Gleichungssystemen und linearen Mannigfaltigkeiten. Fassen wir beide zusammen, so erhalten wir den folgenden Satz. , so ist die Lösungsmenge des Gleichungs3.6.15 Satz und Ist systems eine lineare Mannigfaltigkeit im der Gestalt Kern , wobei eine partikuläre Lösung ist, d.h. es gilt . 3.6.16 Bemerkung Wir wollen diesen Abschnitt mit einigen Bemerkungen zum praktischen Lösen linearer Gleichungssysteme abschließen. Dabei werden wir uns jedoch auf grundsätzliche Verfahren beschränken. Wirklich effiziente Verfahren, die auch mit großen Gleichungssystemen zu Rande kommen, werden Sie in der numerischen Mathematik kennenlernen. Nach Satz 3.6.7 hat jede Lösung der Gleichung , so sie existiert, die Gestalt mit , d.h. ist partikuläre Lösung und Kern . Um ein Kern zu erhalten, müssen wir das Gleichungssystem , d.h. lösen. Das Gleichungssystem wird als das zum Gleichungssystem gehörende homogene Gleichungssystem bezeichnet. Das homogene 105 3. Matrizen Gleichungssystem hat also die Form: .. . .. . .. . .. . und damit Nun ist Rang Kern . Also ist Kern . Um eine Basis von Kern zu erhalten, müssen wir linear unabhängige Vektoren finden, die das homogene Gleichungsdaher gefunden, erhalten wir die system lösen. Haben wir so eine Basis allgemeine Lösung in der Form (3.12) wobei alle Körperelemente durchlaufen und eine partikuläre Lösung ist. Um einen Algorithmus zur Lösung von Gleichungssystemen zu erhalten, erinnern wir uns an die Elementaroperationen. Nach Satz 3.5.14 gibt es ein Produkt von Elementarmatrizen, so daß Zeilenstufenform hat. Das Gleichungssystem lautet dann (3.13) woraus folgt, daß jede Lösung des Gleichungssystems (3.13) auch eine Lösung des ursprünglichen Gleichungssystems ist. In der Matrix , die sich laut Satz 3.5.14 aus durch das Gaußsche Eliminationsverfahren ergibt, sind die Zeilen alle . Daher müssen die Komponenten des Vektors alle verschwinden. Den Vektor erhält man am besten, indem man das Gaußsche Eliminationsverfahren auf die geränderte Matrix anwendet. Der -ten Spalte ist dann . Das Gleichungssystem Vektor in der hat nun die folgende Gestalt .. . .. . .. . (3.14) beliebige Elemente Wir wählen für die Komponenten mit und setzen diese in die letzte Zeile von (3.14) ein und lösen diese nach auf. Dies liefert einen Wert , und wir setzen die gewählten Werte und in die vorletzte Zeile von (3.14) ein und bekommen so einen Wert für . Dieses Verfahren setzen wir fort und erhalten nach -vielen Schritten einen Vektor 106 3.6. Lineare Gleichungssysteme und affine Räume , der eine partikuläre Lösung des Gleichungssystems (3.14) und da- mit auch des ursprünglichen Gleichungssystems ist. Eine Lösung des homogenen Gleichungssystems .. . .. . .. (3.15) . erhalten wir durch das gleiche Verfahren. Da wir viele Komponenten des Lösungsvektors frei wählen können, erreichen wir, beispielsweise indem wir die kanonischen Basisvektoren des auswählen, daß wir linear unabhängige Lösungen erhalten und können damit die allgemeine Lösung des Gleichungssystems darstellen. Zur weiteren Erläuterung des Verfahrens wollen wir ein einfaches Beispiel rechnen. Wir betrachten das Gleichungssystem die sich zunächst auf (3.16) (3.17) (3.18) und dann auf die Form Die geränderte Matrix lautet dann (3.19) bringen läßt. Dies ist bereits die Zeilenstufenform. Die geränderte Matrix sowie die Koeffizientenmatrix haben den Rang . Damit ist das Gleichungssystem lösbar. Lösen wir die unterste Zeile nach auf, so erhalten wir Nun wählen wir (3.20) und erhalten aus (3.20) . Damit ergibt sich 107 3. Matrizen aus der mittleren Zeile von (3.19) und damit . Schließlich erhalten wir aus der ersten Zeile von (3.19) Damit haben wir eine partikuläre Lösung . Um die allgemeine Lösung zu erhalten, lösen wir das homogene Gleichungssystem (3.21) Wir beginnen wieder mit der letzten Zeile von (3.21) und haben zu lösen. Wir setzen und mittleren Zeile von (3.21) folgt woraus sich und erhalten daraus . Aus der d.h. (3.23) . Aus der ersten Zeile von (3.21) erhalten wir Damit ist (3.22) d.h. (3.24) ergibt. Damit haben wir einen Lösungsvektor . Nun ist Kern , und wir haben eine weitere linear unabhängige Lösung von (3.21) zu finden. Dazu setzen wir in (3.22) und wir dies in (3.23) ein, so erhalten wir . Dann ergibt sich . Setzen . Dies in (3.24) eingesetzt ergibt . Damit erhalten wir einen weiteren 108 3.6. Lineare Gleichungssysteme und affine Räume Lösungsvektor , der offensichtlich von linear unabhängig ist. Damit ergibt sich die Lösungsmenge des Gleichungssystems (3.16) Ist die Koeffizientenmatrix des Gleichungssystems invertierbar, so läßt sich nach Korollar 3.5.16 schon durch Zeilenumformungen allein in die Einheitsmatrix überführen. Die Zeilenstufenform von ist also bereits die Einheitsmatrix. Die Umformung der geränderten Matrix liefert also eine Matrix der Form .. .. . . .. . .. . (3.25) Wir können nun den eindeutig bestimmten Lösungsvektor aus (3.25) ablesen. Läßt es sich im allgemeinen Falle einer Matrix Umformung der geränderten Matrix eine Matrix der Gestalt . .. .. . .. . .. . .. . .. . erreichen, daß die direkt (3.26) .. . ergibt, so können wir sofort die allgemeine Lösung aus (3.26) ablesen. Setzen wir nämlich 109 3. Matrizen .. . .. . mit der in der -ten Zeile, .. . so folgt .. . , d.h. die Vektoren .. . spannen Kern auf. Wir sehen aber auch, daß eine partikuläre Lösung ist. Bezeichnen wir nämlich das Produkt von Elementarmatrizen, das den Zeilenumformungen entspricht, die auf die Gestalt gebracht . Damit haben, mit , so folgt und damit erhalten wir die Lösungsmenge als . Leider läßt sich im allgemeinen Fall die Form in (3.26) nicht durch Zeilenumformungen allein erreichen. Was sich aber erreichen läßt, ist eine Transformation der Form , die die Gestalt in (3.26) bewirkt. Dabei folgt aus Satz 3.5.14, daß das Produkt von Elementarmatrizen nur Spaltenvertauschungen bewirken muß. Durch Spaltenvertauschungen der Zeilenstufenmatrix können wir nämlich erreichen, daß alle Pivots in der Hauptdiagonalen stehen. Aus dieser Form erreichen wir aber die Gestalt in (3.26) durch Zeilenumformungen allein. Das Gleichungssy stem wird damit umgeformt zu (3.27) Die Lösungen des Gleichungssystems (3.28) lassen sich wie eben beschrieben aus der Matrix ablesen. Dann gilt aber und damit . D.h. die Spaltenvertauschungen in werden 110 3.6. Lineare Gleichungssysteme und affine Räume zu Zeilenvertauschungen in und Zeilenvertauschungen in bedeuten nur Umbenennung der Unbekannten. Wir erhalten also die Lösungen , wenn wir in den abgelesenen Lösungen die Komponenten entsprechend den in vorgenommenen Spaltenvertauschungen vertauschen. Auch dies wollen wir an einem Beispiel klarmachen. Sei und Wir wollen das Gleichungssystem lösen. Die geränderte Matrix ist dann Durch Gaußelimination erhalten wir die Zeilenstufenform Wir vertauschen nun die te und die te Spalte und erhalten Durch Zeilenumformungen erreichen wir die Diagonalgestalt Wir lesen nun die Lösungsmenge aus dieser Matrix ab, wobei wir beachten, daß 111 3. Matrizen wir die te und te Komponente der Lösungsvektoren vertauschen müssen, da wir ja die te und te Spalte zum Erreichen der Diagonalgestalt vertauschen mußten. Damit erhalten wir die Lösungsmenge als 112 4. Determinanten 4.1 Permutationen . Eine Bijektion 4.1.1 Definition Sei heißt ei ne Permutation der Zahlen . Die Hintereinanderausführung von Permutationen bezeichnen wir als Produkt der Permutationen. Wir notieren dies auch als Produkt . Wir definieren ist bijektiv 4.1.2 Lemma Die Menge bildet mit der Komposition von Abbildungen eine Gruppe. Man nennt sie die symmetrische Gruppe. Zum Beweis vergleiche man die Beispiele in 1.1.12. 4.1.3 Definition Ein Element heißt eine Transposition, wenn len vertauscht und die übrigen unverändert läßt, d.h. wenn es und für alle gilt für für sonst. zwei Zahgibt mit Es ist aus der Definition sofort klar, daß id , d.h. ist das Inverse einer Transposition wieder eine Transposition. 4.1.4 Satz Jede Permutation vieler Transpositionen darstellen. ist. Insbesondere läßt sich als ein Produkt endlich Beweis: Wir wollen vorausschicken, daß nach Definition 4.1.3 die Identität nicht als Transposition betrachtet wird. Für definieren wir falls dies existiert sonst. 113 4. Determinanten Wir zeigen nun durch Induktion nach Transpositionen gibt, mit , daß es ein Produkt von id (i) Ist , so ist id und es ist id für jede Transposition . und Sei nun und die Transposition, die vertauscht. Dann ist und für . Damit ist . Nach Induktionsvoraussetzung gibt es daher ein Produkt id . Damit ist (i) gezeigt. Aus (i) folgt aber (ii) und dies ist die Behauptung, da die Inversen von Transpositionen wieder Transpo sitionen sind. 4.1.6 Lemma Ist 4.1.5 Definition Für definieren wir dessen Signatur eine Transposition, so ist . Beweis: Vertauscht die Zahlen und , wobei wir ohne Einschränkung der Allgemeinheit annehmen dürfen, so erhalten wir 114 4.1. Permutationen Beweis: Es ist 4.1.7 Lemma Für gilt . , da wir im ersten Produkt, wann immer ist, den Faktor 4.1.8 Satz Die Abbildung pen. durch ersetzen können. ist ein Homomorphismus der Grup- Beweis: Es folgt aus Lemma 4.1.7, daß respektiert. Aus Satz 4.1.4 Multiplikation die . und Lemma 4.1.6 erhalten wir 4.1.9 Korollar Ist und gilt und für Transposi tionen und , so ist mod , d.h. entweder sind und beide gerade oder beide ungerade. Beweis: Aus Also ist mod . folgt mit Satz 4.1.8 . Kern . Damit ist 4.1.10 Definition Es sei eine Untergruppe der . Man nennt die alternierende Gruppe. Sie besteht aus denjenigen Permutationen, die sich durch ein gerade Anzahl von Transpositionen darstellen lassen. Daher nennt man die Elemente der auch gerade Permutationen. Analog nennt man Permutationen mit ungerade Permutationen. Nach dem Homomorphiesatz für Gruppen gilt Damit ist (4.1) und nach Lemma 2.2.8 gilt für jede ungerade Permutation (4.2) Insbesondere gilt (4.2) für Transpositionen. 115 4. Determinanten 4.2 Determinantenfunktionen Vorbemerkung Im folgenden setzen wir immer voraus, daß der Grundkörper eine Charakteristik hat. 4.2.1 Definition Sei ein -Vektorraum der Dimension . Eine Abbildung heißt eine Determinantenfunktion auf , wenn gilt (Det 1) ist multilinear, d.h. linear in jedem Argument, (Det 2) ist alternierend, d.h. Ist nicht die Nullabbildung, so heißt 4.2.2 Folgerungen (i) Gilt . (ii) Für mit . nicht trivial. für . gilt , so ist die und vertauscht. Dann erhalten wir die Transposition, . Zusammen mit Char folgt daraus . (Man beachte, daß in einem Körper ist. Die Voraussetzung Char geht also der Charakteristik immer wirklich ein. Will man darauf verzichten und Determinantenfunktionen auch für Vektorräume über Körpern mit einer Charakteristik erklären, so muß man einen anderen Weg wählen. Eine Möglichkeit besteht darin, die Eigenschaft (Det 2) durch die Forderung zu ersetzen, daß eine Determinatenfunktion auf linear abhängigen -tupeln verschwinden soll.) (ii): Es ist nach (i) . Beweis: (i): Sei 4.2.3 Lemma Sind für jede Determinantenfunktion linear abhängige Vektoren, so gilt . Allge linear abhängig, so gilt ohne Einschränkung der . Also ist nach Folgerung 4.2.2 (i) . Beweis: Sind meinheit Wir wollen nun umgekehrt die Wirkung einer Determinantenfunktion auf linear unabhängige Vektoren studieren. Ist trivial, so ist natürlich 116 4.2. Determinantenfunktionen . Wir wollen daher annehmen, daß nicht trivial ist. We gen bilden eine Basis von . Für ein beliebiges -tupel mit gilt dann (4.3) Nach Folgerung 4.2.2 liefern nur solche Summanden in (4.3) einen Beitrag, für die die paarweise verschieden sind. Dies ist genau dann der Fall, wenn die paarweise verschieden und damit eine Permutation der Zahlen sind. Damit erhalten wir aus (4.3) (4.4) . Damit Da wir als nicht trivial vorausgesetzt haben, gibt es ein Tupel mit . Aus (4.4) folgt dann aber auch haben wir den folgenden Satz bewiesen. 4.2.4 Satz Ist eine nicht triviale Determinantenfunktion, so gilt genau dann, wenn linear abhängig sind. 4.2.5 Definition Ist für , so gilt nach (4.4) eine Basis von und ist (4.5) Wir definieren (4.6) 4.2.6 Satz Ist eine Basis des -dimensionalen -Vektorraums . Insbesondere , so ist eine Determinantenfunktion mit ist nicht trivial. 117 4. Determinanten Beweis: Wir zeigen als erstes, daß . Dann ist multilinear ist. Sei und Aus der definierenden Gleichung (4.6) liest man sofort ab, daß ist. Damit ist im -ten Argument linear und, da wir beliebig gewählt haben, in jedem Argument linear. Nun zeigen wir, daß alternierend ist. Offenbar genügt es dazu zu zeigen, daß für eine Transposition (i) gilt. Bei der folgenden Rechnung werden wir auf Gleichung (4.2) zurückgreifen, der zufolge sich die in die alternierende Gruppe und disjunkt zerlegen läßt. Wegen erhalten wir wobei wir gesetzt haben. Setzen wir im ersten Summanden ist , und wir können (iii) folgendermaßen fortsetzen (ii) (iii) , so (iv) im ersten Summanden von (iv), so durchläuft alle Elemente Setzen wir von . Damit können wir (iv) wie folgt fortsetzen 118 4.3. Die Determinante eines Endomorphismus und einer Matrix denn alle Summanden mit und (v) 4.3 erhalten von . Nach (4.5) erhalten wir (i) Da wir als nicht trivial vorausgesetzt haben, folgt Satz 4.2.6. Wir setzen und ten wir aus (i)und (ii) Mit id verschwinden. Beweis: Wir wählen eine Basis dann Determinantenfunktionen auf einem -dimensionalen nicht trivial, so gibt es ein mit 4.2.7 Satz Sind und -Vektorraum und ist ist. Wegen Es bleibt zu zeigen, daß wir (ii) nach . Dann erhal (iii) folgt die Behauptung. Die Determinante eines Endomorphismus und einer Matrix 4.3.1 Definition Sei ein -dimensionaler -Vektorraum und viale Determinatenfunktion auf . Für einen Endomorphismus nieren wir eine nicht tridefi- 119 4. Determinanten 4.3.2 Lemma Die Funktion ist eine Determinantenfunktion. Beweis: Aus der Linearität von und der Multilinearität von folgt sofort die . Wegen Multilinearität von ist auch alternierend. -Vektorraum. Zu jedem 4.3.3 Lemma Sei ein -dimensionaler gibt es ein mit End (4.7) und alle -tupel für alle nicht trivialen Determinantenfunktionen . Beweis: Zu jeder nicht trivialen Determinantenfunktion gibt es nach Lemma 4.3.2 und Satz 4.2.7 ein mit Wir haben zu zeigen, daß nicht von der Wahl von abhängt. Sei daher eine weitere nicht triviale Determinantenfunktion. Dann gilt und nach Satz 4.2.7 auch Aus (ii) und (iv) folgt aber 4.3.4 Definition Zu End stimmte Körperelement mit (iii) sei (iv) das nach Lemma 4.3.3 eindeutig be- für jede nicht triviale Determinantenfunktion Determinante des Endomorphismus . 120 . (ii) Damit folgt (i) auf . Wir nennen (4.8) die 4.3. Die Determinante eines Endomorphismus und einer Matrix eine Basis des . 4.3.5 Lemma Ist End , so ist -Vektorraumes Beachte Mit Lemma 4.3.5 haben wir die Möglichkeit bekannt ist. Wegen (i) id (ii) (4.9) (iv) Beweis: (i): Wegen (ii): Es ist , End . Dann gel- , ist bijektiv. id ist diese Aussage klar. Nach (4.8) folgt . -Vektorraum und dimensionaler , (iii) ein zu berechnen, wenn Es folgt aus Lemma 4.3.5, daß (4.9) nicht von der Wahl der Basis abhängt. 4.3.6 Satz Sei ten: folgt dann und Beweis: Mit Gleichung (4.8) und Satz 4.2.6 erhalten wir . (iii): Durch Nachrechnen erhalten wir . Damit ist (iv): : Ist bijektiv, so gibt es ein End mit id und damit nach (i) und (iii) . Damit ist . eine Basis von . Dann ist : Sei und . Nach Satz 4.2.6 ist nicht trivial und damit folgt 121 4. Determinanten . Also ist Rang nach Satz 4.2.4 die lineare Unabhängigkeit von , und nach den Sätzen 3.4.5 und 2.3.9 ist damit bijektiv. 4.3.7 Satz Die Abbildung GL Gruppen. Insbesondere ist Beweis: Nach Satz 4.3.6 (iv) ist morphismus. GL . 4.3.9 Satz Ist und nach (iii) ein Homo- . Man nennt so ist (4.10) Beweis: Wegen ist ein Homomorphismus der 4.3.8 Definition Für definieren wir die Determinante der Matrix . folgt dies sofort aus (4.9). 4.3.10 Lemma Sind und Vektorräume endlicher Dimension und für jeden Endomorphismus ein Isomorphismus, so ist End . Beweis: Ist eine Determinatenfunktion auf , so definiert die Abbildung eine Determinantenfunktion auf , die nicht trivial ist, wenn nicht trivial ist. Damit folgt für End und damit . Beweis: Es gilt . 4.3.11 Satz Ist ein endlich dimensionaler -Vektorraum und ist für jeden Endomorphismus von , so gilt eine Basis End . . Mit Lemma 4.3.10 folgt daraus Wir hätten die Aussage von Satz 4.3.11 auch aus (4.9) und (4.10) folgern können. 122 4.3. Die Determinante eines Endomorphismus und einer Matrix -Vektorraum und 4.3.12 Satz Sei ein endlich dimensionaler Dann gilt . End . Beweis: Nach Satz 3.2.12 ist . Damit ist und ein Isomorphismus. Mit Lemma 4.3.10 folgt dann die Behaup tung. Beweis: Sei 4.3.13 Satz Für . . Nach (4.10) ist dann denn mit durchläuft auch . gilt alle Elemente von , und offensichtlich ist 4.3.14 Korollar Ist ein endlich dimensionaler Vektorraum und ist . Beweis: Nach Satz 3.2.8 gilt für eine Basis von stets Nach Satz 4.3.11 und Satz 4.3.13 gilt daher . bzw. Beweis: Ist .. . , so und , die de- mit für , sind nicht triviale Determinantenfunktionen. für 4.3.15 Satz Die Funktionen finiert sind durch End , so ist . Nach Satz 4.3.9 gilt dann . Nach Satz 4.2.6 ist aber eine nicht triviale Determinatenfunktion. 4.3.16 Folgerungen (i) . 123 . 4. Determinanten (ii) . ist . Für gilt GL . Für Für GL ist . gilt , wenn Rang ist. Für Entsteht aus durch das Vertauschen zweier Spalten bzw. Zei len, so gilt . , indem man das Vielfache einer Spalte (bzw. einer Entsteht aus Zeile) zu einer anderen Spalte (bzw. Zeile) hinzuaddiert, so ist . Für (iii) (iv) (v) (vi) (vii) (viii) und ist Beweis: Die Behauptungen in (i)–(iv) folgen sofort aus Satz 4.3.6 (i) – (iv). Die ist Behauptung (v) ergibt sich aus Satz 4.3.7 und der Tatsache, daß (vgl. den Beweis zu Satz 3.3.13). Die Behauptung (vi) ergibt sich aus der Tatsa che, daß eine Determinantenfunktion ist (Satz 4.3.15), Lemma 4.2.3 und der Tatsache, daß für Rang nach Satz 3.5.9 die Zeilen- und Spaltenvekto ren in linear abhängig sein müssen. Die Aussagen (vii) und (viii) folgen sofort aus Satz 4.3.15 und den Eigenschaften von Determinantenfunktionen (vgl. Folge rung 4.2.2 (ii) für (viii)). 4.3.17 Einige Rechenregeln für Determinanten (i) sind. , wobei und quadratische Matrizen und , so erhalten als nicht triviale Determinantenfunk und bzw. sind tionen auf . Ebenso Determinantenfunktionen auf und . Beweis: Schreiben wir wir und Nach Satz 4.2.7 gilt dann und 124 (i) (ii) 4.3. Die Determinante eines Endomorphismus und einer Matrix Aus (i) und (ii) folgt Wählen wir in (iii) speziell Wählen wir aus (v). (ii) (iii) , so erhalten wir (iv) Damit erhalten wir (v) , und wir erhalten die Behauptung .. . .. . .. . in (v), so folgt .. . .. . .. . Beweis: Wir bezeichnen die Matrix mit . Durch Addition von geeigneten Vielfachen der ersten Spalte läßt sich die Matrix auf die Form .. . .. . .. .. . .. . . .. . .. . .. . bringen, wobei die gleiche Gestalt wie hat. Nach Folgerung 4.3.16 (viii) ist . , und nach Folgerung 4.3.17 (i) ist durch Induktion nach . Damit erhalten wir (iii) Beweis: Ist GL auch in der Matrix wir GL , so sind die Spalten in an, so folgt . Damit ist linear abhängig und damit . Nehmen 125 4. Determinanten wobei wir im letzten Schritt (i) und (ii) benutzt haben. 4.4 Die inverse Matrix und die Cramersche Regel 4.4.1 Definition Für sei die Matrix, die aus entsteht, wenn man die -te Zeile und die -te Spalte durch Nullen ersetzt und das Element setzt, d.h. Das Körperelement heißt der Cofaktor oder das algebraische Komplement der Matrix bezüglich . (Man beachte die Vertauschung der Indizes und in der Definition von .)die Matrix, die aus durch Streichen der -ten Schließlich sei Zeile und -ten Spalte entsteht. 4.4.2 Lemma Es ist . -faches Vertauschen von Zeilen bringt man die -te Zeile von Beweis: Durch in die erste Zeile. Dann bringt man durch -faches Vertauschen von Spalten, die -te Spalte in die erste Spalte und erhält so die Matrix Da die Determinante bei jeder Vertauschung ihr Vorzeichen wechselt folgt mit 4.3.17 (i) als Matrix von Spaltenvekto , so ist Beweis: Man erhält die Matrix aus durch Subtraktion des -fachen der -ten Spalte von den Spalten für . Wegen 4.3.16 (viii) gilt dann . 4.4.3 Lemma Schreiben wir die Matrix ren mit für 4.4.4 Definition Die Matrix die Komplementärmatrix von . 4.4.5 Lemma Es ist 126 . heißt die zu konjungierte Matrix oder 4.4. Die inverse Matrix und die Cramersche Regel Beweis: Sei und damit Also , d.h. . Dann gilt . . denn . Dann ist Beweis: Sei gilt . 4.4.6 Satz Für für (i) Aus (i) erhalten wir sofort (ii) und aus (ii) mit Lemma 4.4.5 4.4.7 Satz (Entwicklungssatz für Determinanten) Für und (iii) gilt (4.11) (4.12) 127 4. Determinanten Man nennt (4.11) die Entwicklung der Determinante nach der -ten Spalte und (4.12) die Entwicklung nach der -ten Zeile. in Gleichung (i) des Beweises von Satz 4.4.6, so erhal- Beweis: Setzen wir ten wir (i) Aus (i) und Lemma 4.4.2 erhalten wir die erste Behauptung. Aus Gleichung (iii) des Beweises von Satz 4.4.6 folgt Setzen wir erste. (ii) in (ii), so erhalten wir die zweite Behauptung analog wie die Beachte Da liefert Satz 4.4.7 ein rekursives Verfahren zur Berechnung von Determinanten (das jedoch nicht sehr effizient ist). Eine unmittelbare Folgerung aus Satz 4.4.6 ist ein (wieder nur mäßig effizientes) Berechnungsverfahren für die inverse Matrix. 4.4.8 Satz Ist GL , so gilt . Wenden wir diese Verfahren auf lineare Gleichungssysteme an, so erhalten wir die GL und 4.4.9 Cramersche Regel Ist erhalten wir die Lösung des Gleichungssystems Beweis: Die Lösung des Gleichungssystems ist 128 , so mit als 4.4. Die inverse Matrix und die Cramersche Regel 4.4.10 Bemerkung Einprägsamer läßt sich die Cramersche Regel folgendermaßen formulieren. Sei des Gleichungssystems .. . .. . .. . .. . so erhalten wir die “eingesetzte Matrix” Vektor .. . GL .. . die Koeffizientenmatrix , indem wir die -te Spalte durch den ersetzen, d.h. .. . .. . .. . .. . .. . Dann gilt nach der Cramerschen Regel 129 4. Determinanten 130 5. Normalformdarstellungen von Endomorphismen Im Normalformensatz (Satz 3.5.1) haben wir gesehen, daß sich jeder Homomorphismus Hom bezüglich geeignet gewählter Basen durch eine Matrix in Diagonalgestalt darstellen läßt. Für Endomorphismen ist diese Fragestellung deutlich schwieriger zu beantworten. Natürlich können wir den Normalformensatz auf End anwenden, aber dann erhalten wir zwei verschiede Hom ne Basen von , bezüglich derer wir darzustellen haben. Unser Ziel sollte es aber sein, eine Basis zu finden. In diesem Kapitel wollen wir studieren, unter welchen Bedingungen dies möglich sein wird und wie die Normalformdarstellungen aussehen können. Dazu benötigen wir allerdings noch einige algebraische Hilfsmittel, die wir zunächst bereitstellen wollen. 5.1 Teilbarkeit in Ringen 5.1.1 Definition Es sei ein Ring mit Einselement (vgl. Definition 1.1.13). Ein heißt invertierbar oder eine Einheit in , wenn es ein mit Element gibt. 5.1.2 Folgerung (i) Ist invertierbar, so ist dessen inverses Element ein . deutig bestimmt. Wir bezeichnen es mit . Es gilt insbesondere beide invertierbar, so ist auch invertierbar, und es gilt (ii) Sind . (iii) Ist invertierbar, so ist auch invertierbar, und es gilt . Nehmen wir und an, so erhalten wir . . Offensichtlich ist und damit (ii) Dies folgt durch Nachrechnen. (iii) Dies ist klar. Beweis: (i) 131 5. Normalformdarstellungen von Endomorphismen Es folgt unmittelbar aus 5.1.2, daß die invertierbaren Elemente eines Ringes eine Gruppe bilden. Dies wollen wir in einem Satz festhalten. 5.1.3 Satz Sei ein Ring mit . Die Menge bildet mit der Multiplikation des Ringes eine Gruppe. ist invertierbar 5.1.4 Beispiel Wir wissen aus Satz 2.5.4, daß die Menge End der Endomorphismen eines Vektorraumes einen Ring bildet. Die Menge der invertierbaren Elemente ist offensichtlich die Gruppe GL , d.h. wir haben End GL . ein kommutativer Ring mit . Eine Menge 5.1.5 Definition Sei Ideal, wenn gilt: (I.1) (I.2) Für . ist eine Untergruppe der additiven abelschen Gruppe von und ist Beachte Überzeugen Sie sich davon, daß jedes Ideal von ist. Umgekehrt muß nicht jeder Teilring auch ein Ideal sein. heißt ein . ein Teilring von 5.1.6 Bemerkung Verzichtet man auf die Voraussetzung der Kommutativität, so hat man in der naheliegenden Weise linke, rechte und beidseitige Ideale zu de finieren, indem man , und fordert. ein kommutativer Ring mit und sind 5.1.7 Lemma Ist die Menge , so ist Beweis: Offensichtlich ist und ein Ideal in . Sie heißt das durch erzeugte Ideal. Wann immer der Zusammenhang es erlaubt, lassen wir den unteren Index weg. . 5.1.8 Definition Ein Ideal mit ! , womit ein Ideal vorliegt. heißt ein Hauptideal, wenn es ein gibt 5.1.9 Beispiele Ist ein kommutativer Ring, so haben wir das Nullideal als ein (triviales) Hauptideal. Ebenso ist ein Hauptideal. Für eine Einheit und damit für . Damit ist auch gilt für jede Einheit . 132 5.1. Teilbarkeit in Ringen Wir erinnern an die Definition eines Nullteilers (Definition 1.1.15). Dort haben wir auch den Begriff des Integritätsring eingeführt. Wir wollen diesen jetzt noch etwas enger fassen und sagen, daß ein Integritätsbereich ein kommutativer, nullteilerfreier Ring mit ist. 5.1.10 Definition Es sei ein Integritätsbereich. Ein Element heißt Teiler eines Elements , wenn es ein gibt mit . In Formelschreibweise bedeutet dies um auszudrücken, daß kein Teiler von ist. Wir schreiben gelten: 5.1.11 Folgerungen Für einen Integritätsbereich (i) (ii) (iii) (iv) (v) (vi) (vii) . . . . für alle . . . Beweis: Die Behauptung (i) ist klar. Wir zeigen (ii) durch die Rechnung durch die Rechnung für und (iii) , welche impliziert. Die Behauptung (iv) ist klar. Bei (v) zeigen wir zunächst : Aus und und damit , d.h. folgt für . Die Gegenrichtung ist wegen und trivial. Für (vi) zeigen wir zunächst : Sei und . Dann ist . Für die Gegendazu und damit für ein richtung erhalten wir . D.h. . Die Eigenschaft (vii) folgt nun unmittelbar wegen . 5.1.12 Satz Die Relation valenzrelation auf . Gilt , so heißen und in definiert eine Äquiassoziiert. 133 5. Normalformdarstellungen von Endomorphismen eine Gruppe ist, erhalten wegen . Aus wir erhalten wir und damit . Schließlich folgt aus und auch , d.h. . mit Beweis: Da mit Beachte Nach dem Hilfsatz im Beweis von Lemma 2.2.8 bilden die Äquivalenzklassen von eine Partition von . Aus 5.1.11 (v) erhalten wir 5.1.13 Definition Ein Integritätsbereich Ideal von schon ein Hauptideal ist. (5.1) heißt ein Hauptidealring, wenn jedes gemeinsamer Teiler , wenn für gilt. Gilt, so heißt für jedeneingemeinsamen , so Teiler von teilerfremd oder relativ prim. heißen Sind 5.1.14 Satz Sei ein Hauptidealring. Dann sind äquivalent: sind teilerfremd. . (i) (ii) (iii) . (ii): Da ein Hauptidealring ist, gibt es ein Element mit . Wegen folgt für . Damit ist ein gemeinsamer Teiler von und, da diese teilerfremd sind, somit . Nach 5.1.9 folgt . gibt es mit . (ii) (iii): Da (iii) (i): Gilt für , so folgt nach 5.1.11 (iii) für alle und damit . Also ist . Beweis: (i) 5.1.15 Satz Ist bereits ein Hauptidealring und sind . teilerfremd, so folgt aus Beweis: Da und teilerfremd sind, gibt es nach Satz 5.1.14 Elemente mit . Damit ist , und wegen folgt nach Satz 5.1.11 (iii) . Wir nennen ein Primelement, wenn gilt, d.h. wenn jeder Teiler von entweder eine Einheit oder mit 134 (5.2) assoziiert ist. 5.2. Euklidische Ringe 5.1.16 Satz Es sei ten: (i) Für (ii) Aus ein Hauptidealring und ein Primelement von gilt entweder folgt oder und . oder . Dann gel- sind teilerfremd. Beweis: (i): Sind und nicht teilerfremd, so gibt es ein mit und . Dann ist aber , und wegen erhalten wir damit auch . (ii): Nach (i) gilt: oder und sind teilerfremd. In diesem Falle folgt aber aus nach Satz 5.1.15 . 5.1.17 Korollar Zwei Primelemente in einem Hauptidealring sind entweder teilerfremd oder assoziiert. Beweis: Sind und Primelemente, die nicht teilerfremd sind, so folgt nach Satz 5.1.16 und . Nach (5.1) folgt daraus . 5.1.18 Bemerkung Wir erhalten aus Satz 5.1.15, daß für paarweise teilerfremde Elemente mit auch für gilt. Aus und aus wegen der Teilerfremdheit von und folgt nämlich dann , d.h. . Nun erhalten wir in analoger Weise . und durch Iteration schließlich 5.2 Euklidische Ringe Das Beispiel für einen Integritätsbereich ist , der Ring der ganzen Zahlen. In . Ein Ideal in ist beispielsweise die Menge gibt es nur zwei Einheiten . Wir werden in Kürze sehen, daß ein Hauptidealring ist. Damit haben alle Ideale die Gestalt . Der Ring hat aber noch zusätzliche Eigenschaften. Eine davon ist die Division mit Rest, die den euklidischen Algorithmus zum Auffinden des größten gemeinsamem Teilers zweier Zahlen ermöglicht. Wie Sie sich erinnern, besagt die Division mit Rest, daß zu zwei gegebenen Zahlen und eine Zahl so existiert, daß der Rest kleiner als der Teiler wird. Da wir auf beliebigen Ringen im allgemeinen keine “kleiner” Relation haben, müssen wir uns anderweitig behelfen. Dies ist der Hintergrund der folgenden Definition. 5.2.1 Definition Es sei ein Integritätsbereich. Eine Abbildung eine euklidische Norm, wenn sie den folgenden Bedingungen genügt: (EN.0) heißt . 135 5. Normalformdarstellungen von Endomorphismen . . (EN.1) (EN.2) (EN.3) . Ein Integritätsbereich, auf dem sich eine euklidische Norm definieren läßt, heißt ein euklidischer Ring. 5.2.2 Folgerung Ist , so gelten: , denn aus folgt . (ii) , denn aus folgt und und daraus und . Damit gilt negativ und und, da und beide nicht die einzigen Einheiten in sind, schließlich . , (iii) denn nach (EN.2) ist und damit . , (iv) impliziert und damit nach (iii). Da folgt denn . Ist umgekehrt , so finden wir nach (EN.3) ein mit . . Dann ist und damit , d.h. , (v) folgt mit . Also mit denn aus ist . (i) ein euklidischer Ring mit euklidischer Norm 5.2.3 Satz Jeder euklidische Ring ist ein Hauptidealring. ein Ideal. Da das Nullideal ein Beweis: Sei ein euklidischer Ring und Hauptideal ist, dürfen wir annehmen. Sei und so gewählt, daß ist. Wegen folgt . Zu jedem gibt es nach (EN.3) ein mit . Da folgt daraus , d.h. . Damit ist und die entgegengesetz te Inklusion folgt sofort wegen . 136 5.2. Euklidische Ringe 5.2.4 Satz Ist ein euklidischer Ring, so läßt sich jedes von 0 verschiedene bis auf Assoziiertheit eindeutig als Produkt von Primelementen darstellen. Ringe, deren Elemente sich bis auf Assoziiertheit eindeutig als Primzahlprodukte darstellen lassen, heißen faktoriell. Jeder euklidische Ring ist somit faktoriell. Beweis: Wir haben zwei Dinge zu zeigen: Zu und Ist gibt es Primelemente für Primelemente und für eine Permutation und mit (i) so ist (ii) . Wegen Beginnen wir mit (i). Wir führen Induktion nach und 5.2.2 . Ist bereits ein Primelement, so wählen wir . Anderenfalls (iv) ist und gibt es mit . Dann ist nach 5.2.2 (v) . Nach Induktionsvoraussetzung sind und als Primzahlprodukte darstellbar. Damit ist aber auch ein Primzahlprodukt. Nun zeigen wir (ii). Da euklidisch ist, ist ein Hauptidealring. Aus folgt nach Satz 5.1.16 für ein . Wir setzen nach Korollar 5.1.17 und und erhalten . Nun erhalten wir für ein . Wir setzen und durch Iteration schließlich und erhalten . 5.2.5 Satz Der Ring ein Hauptidealring. , für der ganzen Zahlen ist euklidisch und damit faktoriell und Beweis: Man prüft sofort nach, daß die Abbildung Norm definiert. eine euklidische 5.2.6 Bemerkung In der Algebra-Vorlesung wird gezeigt werden, daß bereits jeder Hauptidealring faktoriell ist. Das ist jedoch deutlich aufwendiger zu zeigen und wird in dieser Vorlesung nicht gebraucht. 137 5. Normalformdarstellungen von Endomorphismen 5.3 Der Polynomring Wir erinnern an den Abschnitt 1.3.3, in dem wir den Vektorraum Abb der Polynome über einem Körper eingeführt haben. Wir hatten für für definiert und den Grad von genannt. Für das zusätzliche Zeichen vereinbaren wir die folgenden Rechenregeln: läßt sich in der Form Jedes Polynom vom Grad mit einer Unbestimmten schreiben, was den Vorteil hat, daß man mit diesen formalen Summen wie gewohnt rechnen kann. Dies kommt insbesondere zum Tragen, wenn wir das Produkt zweier Polynome (5.3) einführen, denn dieses Produkt erhält man, wenn man die Ausdrücke und formal miteinander multipliziert und nach Potenzen von ordnet. Offensichtlich hat man dann (5.4) Man rechnet sofort nach, daß die in (5.3) definierte Multiplikation assoziativ und ein Ring. Wir kommutativ ist und den Distributivgesetzen gehorcht. Damit ist nennen ihn den Ring der Polynome mit Koeffizienten in oder kurz den Polynomring über . Für jedes läßt sich eine Abbildung für sonst erklären, die fast überall verschwindet und somit ein Polynom ist. Offensichtlich ist dann . Die Abbildung ist offensichtlich injektiv. Wir können daher als Teilmenge von auffassen, indem wir und identifizieren. Dies wird noch deutlicher, wenn wir notieren. 5.3.1 Definition Jedes Polynom 138 definiert eine Abbildung , die wir ebenfalls mit bezeichnen wollen. 5.3. Der Polynomring Dies sollte nicht zu Verwirrungen mit der Abbildung unterschiedliche Argumente haben. Gilt für ein Nullstelle oder Wurzel von in . führen, da beide , so heißt eine 5.3.2 Bemerkung Fassen wir vermöge der Einbettung von in als Polynom auf, so gilt für alle . Daher bezeichnet man die auch als konstante Polynome. Offenbar sind die konstanten Polynome genau die Polynome vom Grad . 5.3.3 Lemma Ist mit Polynom Beweis: Wir erhalten und ist eine Wurzel von in . Insbesondere ist , so gibt es ein . , und wir setzen . Damit . ist 5.3.4 Satz Ist , und sind alle Wurzeln von in , so gibt es ein Polynom , das keine Wurzeln in hat, und mit und es ist . (5.5) Beweis: Wir führen Induktion nach . Besitzt keine Wurzeln in , so sei und . Besitzt eine Wurzel , so gilt nach Lemma 5.3.3 und . Nach Induktionsvoraussetzung ist dann , wobei und alle Wurzeln von in sind keine , Wurzel in besitzt. Dann ist und für ein sind alle Wurzeln von in . Ist , so ist , und der Exponent erhöht sich um . Anderenfalls ist kommt als neuer Faktor hinzu. Schließlich erhalten wir , und . Wir werden in Kürze ein faktorieller Ring ist und jedes Po feststellen, daß lynom der Form ein Primelement in ist. Damit sind die in (5.5) eindeutig bestimmt. Die Zahl heißt dann die Vielfachheit der Wurzel in . Ist in (5.5) ein konstantes Polynom, so sagen wir, daß über in Linearfakto ren zerfällt. Ein Körper , über dem jedes Polynom in Linearfaktoren zerfällt, heißt algebraisch abgeschlossen. In der Vorlesung über Algebra wird gezeigt, daß jeder Körper einen algebraisch abgeschlossenen Oberkörper besitzt. Ein Beispiel für einen algebraisch abgeschlossenen Körper ist der Körper der komplexen Zahlen. 139 5. Normalformdarstellungen von Endomorphismen 5.3.5 Korollar Ist , und , so besitzt über höchstens viele Wurzeln, wobei jede Wurzel in ihrer Vielfachheit gezählt wird. Zerfällt über , so hat genau Wurzeln in . Beweis: Nach Satz 5.3.4 ist die Anzahl der Wurzeln von in in ihrer Vielfach . Damit ist diese Anzahl kleiner als heit gezählt und gleich genau dann, wenn ist, d.h. wenn in Linearfaktoren zerfällt. 5.3.6 Lemma Es ist . Beweis: Es folgt aus Definition (5.3), daß das 1-Element in ist. Aus erhalten wir wegen (5.4) und daher . Damit sind und konstant und somit in . Da ein Körper ist, folgt aus auch und . Also ist . Die umgekehrte Inklusion gilt aber wegen für trivialerweise. 5.3.7 Satz Der Ring über einem Körper und Ring mit ein kommutativer , wenn und ist. . Ebenso erhalten und haben damit die Eigenschaften (EN.0) – (EN.2) einer euklidischen Norm für nachgeprüft. Es ein Polynom so finden können, daß bleibt zu zeigen, daß wir zu ist. Seien also und gegeben. Ist , so setzen wir und sind fertig. Daher nehmen wir und mit und an. Sei . Dann ist . Gilt auch , so setzen wir und sind fertig. Anderenfalls ist mit und wir setzen ist euklidisch. Beweis: Bis jetzt haben wir eingesehen, daß ist. Aus (5.3) erhalten wir aber auch sofort Wir definieren nun falls sonst. Dann gilt wir . Dann ist . Ist , so und setzen . Anderenfalls setzen wir das Verfahren fort, definieren usf. Da die Grade der Polynome wir schließlich ein strikt abnehmen, erhalten mit . Wir setzen und sind fertig. haben wir 140 5.3. Der Polynomring 5.3.8 Satz Der Polynomring und faktoriell. über einem Körper ist ein Hauptidealring Beweis: Dies folgt mit den Sätzen 5.2.3 und 5.2.4 aus Satz 5.3.7. 5.3.9 Lemma Ein Polynom ist. Jedes Polynom Beweis: Ist miert. vom Grad heißt normiert, wenn ist zu einem normierten Polynom assoziiert. , so gilt nach Lemma 5.3.6: und ist nor- 5.3.10 Lemma Zwei normierte Polynome sind genau dann assoziiert, wenn sie gleich sind. Beweis: Sei Dann gibt es nach Lemma 5.3.6 ein und damit . Damit folgt . Die Gegenrichtung ist klar. mit für ist . Dann . und damit 5.3.11 Satz Ist ein Ideal, das nicht das Nullideal ist, so gibt es ein . eindeutig bestimmtes normiertes Polynom mit Beweis: Da ein Hauptidealring und ist, gibt es ein normiertes Poly . Gilt für ein weiteres normiertes Polynom, so nom mit folgt nach (5.1). Nach Lemma 5.3.10 folgt damit . 5.3.12 Definition Die Primelemente in nennt man irreduzible Polynome. Der Name rührt daher, daß sich ein irreduzibles Polynom nicht als Produkt von Polynomen kleinerer Grade darstellen läßt. Ist nämlich ein Primelement und , so folgt oder und und damit entweder oder . damit 5.3.13 Satz Ist . irreduzibel, so ist Beweis: Dies folgt sofort aus Satz 5.3.3. oder hat keine Wurzel in 141 5. Normalformdarstellungen von Endomorphismen 5.3.14 Satz Zu jedem Polynom gibt es eindeutig bestimmte irreduzible normierte Polynome , natürliche Zahlen größer als und ein mit . Beweis: Da euklidisch und damit faktoriell ist, erhalten wir für Primelemente , die bis auf Assoziiertheit eindeutig bestimmt sind. Normieren wir diese Polynome, so erhalten wir mit Lemma 5.3.10 die Behauptung. 5.3.15 Bemerkung Jedes Polynom vom Grad ist offensichtlich irreduzibel. Damit erhalten wir, daß die Darstellung in (5.5) tatsächlich eindeutig ist. Insbe sondere ist die Vielfachheit einer Wurzel eines Polynoms in wohl bezeichnen, wobei wir definiert. Wir wollen sie in dieser Vorlesung mit im Regelfall den unteren Index weglassen. Ist , so gilt nämlich für alle Oberkörper von . Ist ein algebraisch abgeschlossener Körper, so sind die irreduziblen Polynome genau die Polynome vom Grad 1. Damit sind beispielsweise alle Polynome eines mit reellen (oder auch komplexen) Koeffizienten über Grades reduzibel. irreduzible Polynome des Grades Über gibt es jedoch , z. B. . Über ist irreduzibel (obwohl alle Polynome mit Graden größer sogar das Polynom als über reduzibel sind). 5.4 Eigenwerte und Eigenvektoren von Endomorphismen 5.4.1 Definition Sei ein Vektorraum über einem Körper . Ein Element heißt ein Eigenwert eines Endomorphismus End , wenn es einen Vektor . Der Vektor heißt dann ein Eigenvektor von in gibt mit zum Eigenwert . 5.4.2 Lemma Sei Eig ein Unterraum von Beweis: Klar wegen -Vektorraum, und End . Dann gilt Kern id . Somit ist Eig . Er heißt der Eigenraum zum Eigenwert von . ein id . 5.4.3 Lemma Sei ein -Vektorraum und End . Ein Element ist genau dann ein Eigenwert von , wenn die Abbildung id nicht injektiv ist. 142 5.4. Eigenwerte und Eigenvektoren von Endomorphismen Beweis: Nach Definition 5.4.1 ist genau dann ein Eigenwert, wenn Eig Lemma 5.4.2 ist dies aber genau dann der Fall, wenn der Kern von ist. Nach id nicht der Nullraum ist, d.h. wenn id nicht injektiv ist. 5.4.4 Satz Sei ein endlich dimensionaler Vektorraum über ist genau dann ein Eigenwert eines Endomorphismus id ist. . Ein Element End , wenn Beweis: Nach Lemma 5.4.3 ist genau dann ein Eigenwert von End ,wenn endlich dimensional ist, nicht bijektiv id nicht injektiv und damit, da ist. Nach Satz 4.3.6 ist dies aber genau dann der Fall, wenn id ist. Um einen Eigenwert für einen Endomorphismus zu berechnen, muß man nach Satz 5.4.4 also die Gleichung id (5.6) für eine Unbestimmte lösen. Man nennt daher (5.6) die charakteristische Gleichung des Endomorphismus . Welche Form diese Gleichung hat, wollen wir näher untersuchen. 5.4.5 Satz Ist ein -dimensionaler Vektorraum über einem Körper , so sind die Lösungen der charakteristischen Gleichung eines Endomorphismus die Wur zeln eines Polynoms in vom Grad . Beweis: Wählen wir eine Basis id von , so gilt nach Lemma 4.3.5 id id (i) Um die rechte Seite in (i) darstellen zu können, definieren wir für eine Menge Wegen der Multilinearität von id folgt dann id mit falls sonst. (ii) Setzen wir 143 (iii) 5. Normalformdarstellungen von Endomorphismen (iv) so erhalten wir nach Lemma 4.3.5 (v) nach Satz 4.2.6 und (vi) (vii) als die Spur des Endomorphismus (siehe Bemerkung Man bezeichnet 5.4.6). Zusammenfassend erhalten wir id (viii) Man nennt das Polynom in (viii) das charakteristische Polynom des Endomorphismus . Wir wollen es mit bezeichnen. Ein Element ist genau dann Eigenwert eines Endomorphismus , wenn es Wurzel des charakteristischen Polynoms ist. 5.4.6 Anmerkung Ist eine Determinantenfunktion und ein Endomorphismus, so ist die Abbildung wieder eine Determinantenfunktion. Daher erhalten wir nach Satz 4.2.7 für eine nichttriviale Determinantenfunktion ein mit Ähnlich wie bei der Definition der Determinante eines Endomorphimus zeigt man, daß unabhängig von der Wahl von ist, und definiert 144 (5.7) 5.5. Diagonalisierung Man nennt die Spur des Endomorphismus . Es ist leicht zu sehen, daß End linear ist und mit etwas mehr Mühe, daß gilt. Aus (5.7) und Satz 4.2.6 folgt, daß für eine Basis ist. Für (5.8) erhalten wir aus (5.8) (5.9) Man definiert daher die Spur einer der Hauptdiagonalen. -Matrix als die Summe der Elemente in Als Folgerung aus den Sätzen 5.4.5 und 5.3.4 erhalten wir 5.4.7 Korollar Ist ein Endomorphismus eines dimensionalen Vektorraumes , so besitzt höchstens Eigenwerte. das charakteristische Polynom in Zerfällt , wobei Linearfaktoren, so ist alle verschiedenen Eigenwerte von sind. Der Exponent heißt dann die alge braische Vielfachheit des Eigenwertes . Weiter ist dann und . 5.5 Diagonalisierung 5.5.1 Anmerkung Gehen wir nun davon aus, daß wir eine Basis von Eigenvektoren eines Endomorphismus vorliegen haben, wobei ein Eigenvektor zum Eigenwert ist, so erhalten wir für die Matrixdarstellung von " und damit (5.10) .. . .. . .. . .. . .. . .. . (5.11) In der Darstellung in (5.11) haben wir gleiche Eigenwerte in ihrer algebraischen Vielfachheit gezählt, d.h. wir fordern nicht, daß alle verschieden sind. 145 5. Normalformdarstellungen von Endomorphismen Unser Ziel einer Normalformdarstellung eines Endomorphismus ist nach (5.11) also erreicht, wenn wir eine Basis aus Eigenvektoren des Endomorphismus finden können. Es geht also nun darum zu untersuchen, unter welchen Bedingungen dies gelingt. Eigenvektoren eines Endomorphismus , deren zu5.5.2 Lemma Sind gehörige Eigenwerte paarweise verschieden sind, so ist die Menge linear unabhängig. Beweis: Sei id . Allgemein gilt id (i) Durch sukzessive Anwendung von (i) erhalten wir (ii) Da wegen der Verschiedenheit der Eigenwerte keiner der Faktoren schwindet, folgt aus (ii) . Da wir dies für beliebiges . ten, folgt ver- erhal- Nach Lemma 5.5.2 haben wir uns also nur noch um die Eigenvektoren zum gleichen Eigenwert zu kümmern. Zerfällt das charakteristische Polynom eines Endomorphismus und sind alle Eigenwerte verschieden, so erhalten wir Eigenvektoren zu verschiedenen Eigenwerten, die nach Lemma 5.5.2 dann bereits eine Basis bilden. Bezüglich dieser Basis läßt sich , wie in (5.11) angegeben, durch eine Diagonalmatrix darstellen. 5.5.3 Lemma Sind morphismus , so gilt Eig Eig paarweise verschiedene Eigenwerte eines Endo- Beweis: Sei Eig für Lemma 5.5.2 alle . Dann sind nach von verschiedenen Vektoren linear unabhängig. Aus folgt daher , denn wären einige der für von verschieden, erhielten wir eine nicht triviale Darstellung der aus linear unabhängigen Vektoren, was unmöglich ist. Damit ist die Summe direkt. 146 5.5. Diagonalisierung 5.5.4 Satz Ist ein endlich dimensionaler Vektorraum und ist eines Endomorphismus End , so gilt ein Eigenwert Eig (5.12) Man nennt Eig die geometrische Vielfachheit des Eigenwerts . Beweis: Es sei eine Basis von Eig . Ergänzen wir schon zu einer Basis von , erhalten wir für (i) für und damit .. .. . .. . .. und daher . Somit ist id . .. . Aus (iv) folgt aber . .. . .. . (ii) .. . .. . .. . Aus Satz 4.3.11 und 4.3.17 (iii) folgt nun .. . .. . .. . .. . . .. . .. . (iii) (iv) 5.5.5 Satz Es sei ein endlich dimensionaler Vektorraum über einem Körper und End . Dann sind äquivalent: (i) Es gibt eine Basis , bezüglich der die Matrix Diagonalgestalt hat. (ii) Das charakteristische Polynom zerfällt über in Linearfaktoren, und es gilt Eig für jeden Eigenwert von . Eig , wobei (iii) Es ist Eigenwerte von sind. alle paarweise verschiedenen 147 5. Normalformdarstellungen von Endomorphismen Trifft eine der Eigenschaften auf End zu, so nennen wir diagonalisierbar . Dann Beweis: (i) (ii): Seien die Diagonalelemente in gilt , d.h. jedes ist ein Eigenwert. Damit hat nach für Satz 5.4.5 -Wurzeln und zerfällt daher nach Satz 5.3.4 in Linearfak die paarweise verschiedenen Eigenwerte von . Für toren. Seien nun definieren wir Wir behaupten, daß dann gilt. Ist nämlich Eig Eig (i) , so gilt , so gilt für Aus (iii) erhalten wir aber , d.h. für , und wir erhalten Aus (ii) folgt Eig . Nun ist . Ist umgekehrt und damit . Damit ist Eig und damit (ii) (iii) . Also ist . für (iv) ist, impliziert (iv) schon Da nach Lemma 5.5.4 für . die paarweise verschiedenen Eigenwerte von . (ii) (iii): Seien Sei , und es ist Eig ). Dann gilt Eig Eig . Damit ist . die Basen von Eig (iii) (i): Sind Eig , so ist eine Basis von aus Eigenvektoren von . Wie wir in 5.5.1 Diagonalgestalt. gesehen haben, hat dann Wir wollen noch untersuchen, wann und unter welchen Bedingungen sich zwei Endomorphismen bezüglich einer Basis simultan durch eine Diagonalmatrix darstellen lassen. als auch 5.5.6 Satz Sind End und sind matrizen, so sind und vertauschbar, d.h. es gilt . 148 Diagonal- 5.6. Algebren Beweis: Es folgt aus der Definition der Matrixmultiplikation, daß Diagonalmatrizen und gilt. Demnach erhalten wir für 5.5.7 Satz Seien End eine Basis , so daß sowohl diagonalisierbar und vertauschbar. Dann gibt es Diagonalmatrizen sind. als auch Eig . Nun ist jeder der Eigenräume Beweis: Nach Satz 5.5.5 gilt , denn für gilt Eig invariant unter , d.h. es gilt und damit . Um den Satz zu beweisen, genügt es nach Satz 5.5.5 daher, jeden der Eigenräume von in zu zerlegen. Sei daher eine direkte Summe von Eigenräumen von Eig Eig . Zu erhalten wir wegen Vektoren Eig mit . Dann folgt aber und wegen der Eindeutigkeit der Summendarstellung damit , d.h. . Also ist und, da paarweise verschiedene Eigenwerte von sind, nach Lemma 5.5.3 schon . Man überlegt sich leicht, daß sich die eben gemachten Überlegungen sofort auf die simultane Darstellung endlicher Mengen von Endomorphismen übertragen lassen. Hier hat man paarweise Vertauschbarkeit zu fordern. Für unendliche Mengen wird die Beweisführung verwickelter. 5.6 Algebren 5.6.1 Definition Es sei ein Körper. Eine Menge , und wenn die folgenden Bedingungen erfüllt sind: (A.1) Mit den Verknüpfungen Menge ein -Vektorraum. (A.2) Für und gilt und mit den Verknüpfungen heißt eine Algebra, und ist die (5.13) 149 5. Normalformdarstellungen von Endomorphismen Gilt für alle , so heißt die Algebra assoziativ. Bemerkung Es gibt durchaus nicht assoziative Algebren, die in der Mathematik eine wichtige Rolle spielen. So spricht man von einer Lie–Algebra, wenn und ist. Der Vektorraum zusammen mit dem sogenannten Vektorprodukt ist eine Lie–Algebra. ein Jede assoziative Algebra ist mit den Verknüpfungen und mit und ein Ring ist, und (i) von BemerRing. Aus der Tatsache, daß End kung 3.1.10 folgt, daß End eine assoziative Algebra ist. Für einen -dimensiosind und End als Algebren isomorph (s.u). Daher nalen Vektorraum ist auch eine Algebra. Ebenso überzeugt man sich sofort, daß der Polynomring eine assoziative Algebra über ist. das des Vektorraumes, so erhalten wir wieder Ist Nullelement und analog für alle . 5.6.2 Definition Unter der Dimension einer Algebra über einem Körper verstehen wir die Dimension des Vektorraumes über . Wir sagen, daß eine Algebra mit 1-Element ist, wenn es ein Element mit gibt. Wegen ist das 1-Element einer Algebra eindeutig bestimmt. Sind und zwei Algebren, so nennen wir einen Homomorphismus der Algebren, wenn ein Homomorphismus der Vektorräume ist und gilt. für alle Das Bild und der Kern eines Homomorphismus ist wie bei Vektorräumen erklärt. der AlMan überzeugt sich sofort, daß für einen Homomorphismus gebren Im eine Teilalgebra von und Kern eine Teilalgebra von ist. 5.6.3 Definition Wie in einem Ring definieren wir für eine assoziative Algebra mit 1-Element und die Potenzen von rekursiv durch und . Den durch die Potenzen eines Elementes aufgespannten Vektorraum bezeichnen wir mit . Es ist also 5.6.4 Lemma Sei eine assoziative Algebra über 150 (5.14) und . Die Abbildung 5.6. Algebren (5.15) ist ein Homomorphismus der Algebren. Man nennt sie den Einsetzungshomomor phismus. Insbesondere ist Im und damit eine Teilalgebra von . ein Ideal in . Weiter ist Kern Beweis: Man rechnet sofort nach, daß linear ist und gilt. Damit ist ein Homomorphismus der Algebren. nach Definition des Einsetzungshomomorphismus. Ist Wir haben Im Kern und , so ist , d.h. Kern und Kern gel ten für alle . Damit liegt ein Ideal vor. 5.6.5 Lemma Sei eine assoziative Algebra mit 1. Ist für homomorphismus nicht injektiv, so gelten: (i) Kern ist ein vom Nullideal verschiedenes Ideal in der Einsetzungs. (ii) Es gibt ein eindeutig bestimmtes normiertes Polynom mit Man nennt Kern das Minimalpolynom von . (iii) Jedes Polynom (iv) mit . wird von geteilt. Beweis: Nach Lemma 5.6.4 ist Kern ein Ideal in . Da nicht injektiv ist, ist es nicht das Nullideal. Nach Satz 5.3.11 gibt es daher ein eindeutig bestimmtes, , das Kern erzeugt. Gilt so ist normiertes Polynom Kern . Daraus folgt . Es bleibt also nur zu zeigen. Ist , so folgt (i) (ii) Aus (ii) folgt aber, daß sich jede Potenz mit darstellen läßt. Damit ist als Linearkombination von (iii) 151 5. Normalformdarstellungen von Endomorphismen linear abhängig sind, so erhalten wir Nehmen wir an, daß Damit ist verschwinden. , wobei nicht alle , , woraus folgt. Wegen und (5.4) ist dies unmöglich. linear unabhängig und es folgt Also sind (iv) Aus (iii) und (iv) erhalten wir aber . Fassen wir diese Ergebnisse zusammen, so erhalten wir den folgenden Satz. 5.6.6 Satz Es sei eine assoziative Algebra mit 1 über einem Körper Element liegt dann einer der beiden Fälle vor: (i) Der Einsetzungshomomorphismus der Algebren. Dann ist ist linear unabhängig. In diesem Falle heißt . Für ein ist ein Isomorphismus und die Menge transzendent über . (ii) Die Algebra hat endliche Dimension über . In diesem Fall sind linear abhängig, und es gibt ein eindeutig bestimmtes, normiertes Polynom vom Grad mit . In diesem Fall heißt und das Minimalpolynom algebraisch über von . 5.6.7 Korollar Ist eine endlich dimensionale Algebra über einem Körper ist jedes Element algebraisch über . 5.6.8 Satz Sei eine assoziative Algebra mit 1 über einem Körper algebraisches Element sind dann äquivalent: (i) (ii) (iii) (iv) , d.h. . Für ein ist eine Einheit in . , d.h. ist eine Einheit von . ist keine Wurzel des Minimalpolynoms von . ist kein Nullteiler von Beweis: (i) . (ii): Wir definieren die Menge Man rechnet sofort nach, daß ren eine Abbildung 152 , so (i) eine Teilalgebra von durch ist, und wir definie. Durch Nachrech- 5.7. Die Minimalzerlegung eines algebraischen Elements nen verifizieren wir, daß ein Homomorphismus der Vektorräume ist. Nach De finition ist surjektiv. Wir erhalten die Elemente in als Bilder des Einset zungshomomorphismus angewandt auf Polynome der Form . Ist daher , so folgt auch . Da . Da ein Teilraum mit ist injektiv, und es folgt und folglich von ist, folgt demnach . Damit ist . Damit ist eine Einheit in . (ii) (iii): Ist eine von , so ist für ein Einheit . Sei . Dann ist und damit das Minimalpolynom von ein Teiler von . Wegen folgt . dann aber (iii) (iv): Da genau dann eine Wurzel des Minimalpolynoms ist, wenn ein Teiler von ist und nach Voraussetzung keine Wurzel des Mi nimalpolynoms von ist, sind und teilerfremd in . Sei mit . Dann ist und daher ein Tei ler von . Nach Satz 5.1.15 folgt daher . Damit folgt aber . (iv) (i): Da kein Nullteiler in ist, ist die Multiplikation von links injektiv und nach Satz 2.3.9 auch bijektiv. Damit existiert ein Urbild der , d.h., es gibt ein mit . Also ist eine auch schon in . Einheit in und da 5.6.9 Korollar Ist ein assoziative Algebra mit über einem Körper für jede Einheit . schon , so gilt , so folgt nach Satz 5.6.8 . Also ist auch und damit . Die Gegenrichtung erhal ten wir in analoger Weise, wenn wir von ausgehen. Beweis: Ist 5.7 Die Minimalzerlegung eines algebraischen Elements 5.7.1 Lemma Ein Element wenn es ein gibt mit . einer assoziativen Algebra . Ist heißt nilpotent, , so ist Beweis: Es ist und ein normiertes Polynom. Es genügt daher zu zei gen, daß das Minimalpolynom von den Grad haben muß. Nach Lemma 5.6.5 genügt es dazu, zu zeigen. Wir behaupten, daß 153 5. Normalformdarstellungen von Endomorphismen linear unabhängig sind. Ist nämlich , so erhalten wir durch Multi plikation mit zunächst . Durch Multipli und somit kation mit folgt daraus und durch Iteration schließlich . 5.7.2 Satz Ist eine assoziative und kommutative Algebra über einem Körper so ist die Menge der nilpotenten Elemente von ein Ideal in . Beweis: Sind und nilpotent in , so gibt es sowie mit . Dann folgt 5.7.3 Definition Sei eine assoziative Algebra mit 1 über einem Körper Element heißt split über , wenn (i) algebraisch über . Ein ist und (ii) das Minimalpolynom Hat das Minimalpolynom von einfaches Element von . , von über in Linearfaktoren zerfällt. nur einfache Wurzeln, so nennen wir ein halb- Gilt für ein von verschiedenes Element der Algebra , so nennen wir idempotent. einer assoziativen Algebra mit 1 Endlich viele idempotente Elemente heißen ein vollständiges Orthogonalsystem wenn gilt: (i) (ii) . für . ein vollständiges Orthogonalsystem, so ist die Menge Ist denn aus erhalten wir durch Mul linear unabhängig, tiplikation mit für sofort . Beachte 5.7.4 Satz (Minimalzerlegung eines algebraischen Elements) Sei eine assozia tive Algebra mit 1 über einem Körper . Ist split über und sind 154 5.7. Die Minimalzerlegung eines algebraischen Elements die verschiedenen Wurzeln des Minimalpolynoms von , so gibt es ein vollständi- ges Orthogonalsystem und ein nilpotentes Element mit (5.16) Das Element ist genau dann halbeinfach, wenn der nilpotente Anteil verschwindet. Für halbeinfaches gilt Beweis: Da (5.17) für jedes Polynom split über Setzen wir und . ist, gilt für das Minimalpolynom von (i) (ii) (iii) so erhalten wir sofort für für (iv) (v) und und sind teilerfremd für (vi) sind paarweise verschieden. Da denn die Körperelemente Hauptidealring ist, erhalten wir aus (vi) nach Satz 5.1.14 Elemente mit ein (vii) Sei nun 155 5. Normalformdarstellungen von Endomorphismen und (viii) (ix) Wir zeigen, daß ein vollständiges Orthogonalsystem bilden und wollen nilpotent ist. , Nach (vii) gilt und aus (iv) folgt daher (x) Damit ist und somit für (xi) für Aus (v) folgt und damit für für (xii) (xiii) für , denn für nach Konstruktion und nach (vii). Da die paarweise teilerfremd sind, erhalten wir nach Bemerkung 5.1.18 wegen (xiv) Setzen wir Aus (xiv) folgt nun , so erhalten wir und damit (xv) ein vollständiges Orthogonalsystem Aus (xi), (xiii) und (xv) folgt, daß bilden. nilpotent ist, untersuchen wir das Polynom Um nachzuweisen, daß . Wegen für und folgt, daß für ist. Also ist jedes eine Wurzel von . Damit ist durch folgt damit für teilbar, und für 156 5.7. Die Minimalzerlegung eines algebraischen Elements Für und (xvi) erhalten wir daher (xvii) (xviii) Es bleibt also nur noch die Aussage über die halbeinfachen Elemente zu zeigen. Ist halbeinfach, so hat nur einfache Wurzeln. Damit ist und damit nach (xvii) schon , d.h. der nilpotente Anteil verschwindet. Ist umgekehrt , so erhalten wir aus (xviii), (xiii) und (xi) für (xix) Aus (xix) folgt aber für jedes wegen " (xx) in (xx), so ist und und,da beide Polynome normiert . Damit nur einfache Wurhat Wählen wir . Damit haben wir sind, schließlich zeln, d.h. ist halbeinfach. Die Zerlegung mit für ein vollständiges Orthogonal system und ein nilpotentes nennt man die Minimal zerlegung von . Dabei heißt der halbeinfache Anteil und der nilpotente Anteil des Elementes . Man beachte, daß die Algebra als homomorphes Bild der kommutativ ist. Da und beide in liegen, gilt kommutativen Algebra . Das heißt und sind vertauschbar. Ebenso sind und und und vertauschbar. Aus der Tatsache, daß die Koeffizienten des halbeinfachen Anteils genau die Wurzeln des Minimalpolynoms sind, und Satz 5.6.8 erhalten wir den folgenden Satz. 157 5. Normalformdarstellungen von Endomorphismen mit der Minimalzerlegung 5.7.5 Satz Ein Element genau dann invertierbar, wenn alle ungleich Null sind. 158 ist 5.8. Die Algebra der Endomorphismen eines endlich dimensionalen Vektorraumes 5.8 Die Algebra der Endomorphismen eines endlich dimensionalen Vektorraumes Wir wollen nun die abstrakt gewonnenen Ergebnisse des Abschnittes 5.7 auf die Algebra der Endomorphismen anwenden. Wir haben bereits eingesehen, daß End für einen -dimensionalen -Vektorraum eine assoziative Algebra mit der Diüber ist. Wir wollen, um Verwechslungen mit Polynomen zu vermension meiden, im folgenden die Elemente von End mit großen lateinischen Buchstaben bezeichnen. 5.8.1 Satz Ist ein endlich dimensionaler -Vektorraum und End , so stimmen die in liegenden Wurzeln des Minimalpolynoms von mit den Eigenwerten von überein. Beweis: Sei ein Eigenwert von und ein Eigenvektor zum Eigenwert . Dann gilt . und damit für jedes Polynom Insbesondere erhalten wir und damit . Ist eine Wurzel des Minimalpolynoms, so gilt . Damit folgt (i) Da aus schon folgen müßte, was aber wegen unmöglich ist, haben wir . Damit gibt es ein mit , und wir erhalten aus (i) . id Damit ist ein Eigenwert von . 5.8.2 Korollar Die Wurzeln des Minimalpolynoms und des charakteristischen Polynoms eines Endomorphismus stimmen bis auf Vielfachheiten überein. Insbesondere ist ein Endomorphismus genau dann split über dem Grundkörper, wenn alle Wurzeln des charakteristischen Polynoms im Grundkörper liegen. Ist nun End ein Endomorphismus, dessen Eigenwerte alle im Grundkörper von liegen, so ist split über , und nach Satz 5.7.4 erhalten wir eine Minimalzerlegung von in der Form " (5.18) alle verschiedenen Eigenwerte von sind, ein vollwobei ständiges Orthogonalsystem bilden und nilpotent ist. Weiter wissen wir, daß 159 5. Normalformdarstellungen von Endomorphismen liegen und daher insbesondere vertauschbar sind. Unser alle und in nächstes Ziel muß daher darin bestehen zu klären, welche geometrische Bedeutung vollständige Orthogonalsysteme und nilpotente Endomorphismen haben. 5.8.3 Lemma Sind und ist, so haben und Eigenwerte. Beweis: Sei vertauschbare Endomorphismen, wobei nilpotent die (möglicherweise bis auf Vielfachheiten) gleichen ein Eigenwert von id . Für einen Eigenvektor und damit zu gilt dann (i) Es ist für eine natürliche Zahl . Aus der Vertauschbarkeit von und folgt aber sofort auch die Vertauschbarkeit von id mit allen Potenzen von . Damit erhalten wir aus (i) id und erhalten damit als einen Eigenvektor zum Eigenwert id (ii) von . Somit auch ein Eigenwert von . Setzen wir ist jeder Eigenwert von und , so bleibt nilpotent und und vertauschbar. Damit ist, wie wir gerade gezeigt haben, jeder Eigenwert von auch ein Eigenwert von . 5.8.4 Satz Ist ein endlich dimensionaler -Vektorraum und ein vollständiges Orthogonalsystem in End , so ist End mit . Somit Beweis: Wegen erhalten wir . Also ist Für erhalten wir für ein . Dann ist für folgt , und die Summe ist direkt. Wir haben jedoch auch eine Art Umkehrung von Satz 5.8.4. für einen endlich dimensionalen Vektorraum 5.8.5 Satz Gilt , so bilden die Projektionen mit ein vollständiges Orthogonalsystem in End . Beweis: Nach Definition gilt . Für und damit 160 id . ist 5.8. Die Algebra der Endomorphismen eines endlich dimensionalen Vektorraumes Fassen wir die Sätze 5.8.4 und 5.8.5 zusammen, so erhalten wir den folgenden Satz. 5.8.6 Satz Es sei ein endlich dimensionaler Vektorraum. Zwischen der Zerlegung von in direkte Summen von Teilräumen und den vollständigen Orthogonalsystemen in End besteht eine bijektive Zuordnung. Wir müssen uns nun näher mit den nilpotenten Elementen befassen. Für einen EnEnd und definieren wir domorphismus und (5.19) (5.20) In beiden Fällen handelt es sich um partielle Funktionen, die nicht für jedes Paar bzw. für jedes definiert sein müssen. 5.8.7 Lemma Sei ein endlich dimensionaler Vektorraum und End . Gibt es ein von Null verschiedenes , so daß definiert ist, so ist ein Teilraum der Dimension von und ist eine Basis von . Man nennt dann einen bezüglich zyklischen Unterraum von . Beweis: Da ! ein Erzeugendensystem ist, genügt es zu zeigen, daß linear unabhängig . Dann sind. Sei dazu . Aus erhalten wir zunächst . folgt und damit Damit folgt . Durch Iteration erhalten wir somit 5.8.8 Lemma Ist ein End zyklischer Unterraum von bezüglich für alle . , so gilt Beweis: Sei so gewählt, daß von bilden. Für . und folgt dann . mit eine Basis Das folgende Korollar ist eine unmittelbare Folgerung aus Lemma 5.8.8. 5.8.9 Korollar Ist ein zyklischer Raum bezüglich , so ist sem Falle heißt der Endomorphismus nilzyklisch. nilpotent. In die- 161 5. Normalformdarstellungen von Endomorphismen 5.8.10 Satz Es sei ein endlich dimensionaler -Vektorraum und nilpotent. Dann gibt es Teilräume von mit End Jeder Raum ist zyklisch bezüglich und -invariant, d.h. es gilt . für (ii) (i) Beweis: Ist , so wählen wir eine Basis von und setzen und für . Sei also . Wir beweisen den Satz durch Induktion nach . , so ist selbst zyklisch bezüglich und -invariant. Ist . Dann und Sei also gibt es ein mit ein bezüglich zyklischer , und nach Lemma 5.8.7 ist . Da Teilraum der Dimension eine Basis von bilden, ist auch -abgeschlossen. Ist nun , so sind wir fertig. Anderenfalls erhalten wegen wir Die Zuordnung (i) (ii) ist wohldefiniert. Ist nämlich , so ist für ein und wir erhalten , denn wegen der -Abgeschlossenheit von ist . Damit , und aus der Definition von folgt, haben wir eine Abbildung daß das Diagramm Damit ist nilpotent auf 162 (iii) , und wir erhalten nach Induktionsvoraussetzung wobei jeder der Räume zyklisch bezüglich wir , so erhalten wir aus (i) kommutiert. Weiter ist (iv) und -abgeschlossen ist. Setzen 5.8. Die Algebra der Endomorphismen eines endlich dimensionalen Vektorraumes (v) Da jeder der Räume ist, gibt es ein , so daß zyklisch bezüglich und eine Basis von ist. Da der ka eine Surjektion ist, finden wir zu jedem ein Urbild nonische Epimorphismus . Bei der Wahl von haben wir einige Freiheit. Wir wollen so wählen, daß (vi) ist. Um einzusehen, daß dies geht, benötigen wir die folgende Aussage (vii) Bevor wir (vii) beweisen, überlegen wir daß (vi) mit (vii) zu bewerkstelligen uns, ist für jedes Urbild von . ist. Wegen Ist , so sind wir fertig. Anderenfalls ist und nach mit . Wegen ist dann (vii) finden wir ein . Nun zum Beweis von (vii). Da ist . Damit erhalten wir . Da Da die linear unabhängig sind, folgt daraus mit ist . Setzen wir nun und , so ist und . Sei nun (viii) Dann enthält nach (v) genau Vektoren. Wir zeigen, daß eine linear un- abhängige Menge ist. Sei dazu Dann ist . Aus (iv) folgt, der Summan daß jeder den in verschwindet und, da linear unabhängig sind, daß für und verschwinden. alle . Also ist Damit ist auch und damit auch linear unabhängig und damit eine Basis von . Setzen wir nun so ist jeder der Räume Basis von ist, folgt (ix) -abgeschlossen und zyklisch bezüglich . Da eine 163 5. Normalformdarstellungen von Endomorphismen und der Satz ist bewiesen. endlich Ist nun ein nilzyklischer Endomorphismus eines dimensionalen -Vek torraumes und ist eine zyklische , daß Basis von , so erhalten wir aus und damit .. . .. . .. . .. .. . .. . . .. . .. . .. . .. . (5.21) ist. Wir nennen daher Matrizen, die die in (5.21) dargestellte Gestalt haben, nilzyklisch. Ist nun End ein nilpotenter Endomorphismus und zerlegen wir gemäß Satz 5.8.10, so ist , d.h. die Abbildung , nilzyklisch auf jedem der . Stellen wir bezüglich der im Beweis des Satzes konstruierten Basis dar, so erhalten wir als Korollar zu Satz 5.8.10: 5.8.11 Korollar Ist ein endlich dimensionaler Vektorraum und nilpotent, so gibt es eine Basis mit .. . .. . .. . .. . .. . .. . End , nilzyklisch sind. nilpotent, wenn die dazugehörige Abbildung Wir nennen eine Matrix ist. Das ist äquivalent zu der Forderung, daß es ein mit nilpotent zu der in Satzgibt5.8.10 . Da der Übergang von der kanonischen Basis des konstruierten Basis durch eine Transformationsmatrix aus GL beschrieben wobei alle Matrizen , wird, können wir Korollar 5.8.11 wie folgt umformulieren. 5.8.12 Satz Ist Matrix GL 164 eine nilpotente Matrix, so gibt es eine umkehrbare , so daß 5.8. Die Algebra der Endomorphismen eines endlich dimensionalen Vektorraumes .. . .. . .. . ist, wobei alle Matrizen Ist nun " .. . .. . .. . nilzyklisch sind. (5.22) die Minimalzerlegung eines Endomorphismus Dann folgt aber denn zu id für mit mit gibt es ein und und damit , so ist nach Satz 5.8.4 (5.23) für . .. . .. . .. . (5.24) (5.25) (5.26) und jede Basis von . für Ist nun ein halbeinfacher Endomorphismus, so folgt aus (5.26), daß lisierbar ist. Sei umgekehrt diagonalisierbar und , und damit ist " und für Als Folgerung von (5.24) erhalten wir mit End .. . .. . diagona- .. . (5.27) die verschiedenen Eigenwerte von und wobei die dazugehörigen Dimensionen der Eigenräume sind. Bezeichnen mit die die aus der durch und alle wir Matrix, Matrix in (5.27) entsteht, indem man übrigen Kästchen durch Nullmatrizen ersetzt, so rechnet man leicht nach, daß die Endomorphismen 165 5. Normalformdarstellungen von Endomorphismen ein Orthogonalsystem bilden und ist. Nach Satz 5.7.4 ist dann halbeinfach. Damit haben wir den folgenden Satz. 5.8.13 Satz Sei ein endlich dimensionaler Vektorraum über einem Körper und End ein Endomorphismus, der split über ist mit Minimalzerlegung . Dann sind äquivalent: (1) ist diagonalisierbar. (2) ist halbeinfach, d.h. das Minimalpolynom von besitzt nur einfache Wurzeln. (3) Der nilpotente Anteil in der Minimalzerlegung von verschwindet. (4) Der Vektorraum (5) Es gilt Eig (6) Es ist besitzt eine Basis aus Eigenvektoren von . Eig für . . Beweis: Wir haben uns gerade überlegt, daß (1) und (3) äquivalent sind. Die Äquivalenz von (2) und (3) ist in Satz 5.7.4 gezeigt worden. Die Äquivalenz von (1) zu (4) folgt aus Satz 5.5.5. Wir zeigen die Äquivalenz von (5) zu (1). Gilt (5), so erhalten wir mit Satz 5.8.4, daß die direkte Summe der Eigenräume von zu dessen verschiedenen Eigenwerten ist. Nach Satz 5.5.5 ist dann diagonalisierbar. Ist umgekehrt diagonalisierbar, so ist nach (3) . Wir zeigen Eig (i) Für gilt nach (5.24). Damit haben wir die Inklusion von rechts nach links in (i). Nach Satz 5.8.4 ist . Für Eig erhalten wir Damit ist . . Also haben wir für (ii) und folglich Kehren wir zum allgemeinen Fall zurück. Da die Endomorphismen und liegen, sind sie vertauschbar. Als Konsequenz davon sind alle von (5.22) in Teilräume in (5.23) -invariant. Aus erhalten wir nämlich wieder 166 5.8. Die Algebra der Endomorphismen eines endlich dimensionalen Vektorraumes für ein und damit . Da die nilpotenten Endomorphismen nach Satz 5.7.2 in der kommutativen Teilalgebra ein Ideal bilden, sind die Endomorphismen (5.28) wieder nilpotent. Weiter gilt und denn für für " (5.31) .. . (5.30) (5.29) gilt. Wählen wir nun Basen von , und wir erhalten ! . Damit folgt für für verschwindet, jeder Teilraum somit ist , daß auf -invariant ist und nach (5.22) .. . .. . .. . .. . von , so ist eine Basis (5.32) mit , wobei die nilpotente Matrizen sind. Da die Endomorphismen nilpotent sind, können wir jeden der Teilräume gemäß Satz 5.8.10 in eine direkte Summe von Unterräumen mit zerlegen, und bezüglich der zyklischen Basen dieser Zerlegung erhalten wir nach Korollar 5.8.11 eine Darstellung .. . .. . .. . .. . .. . .. . (5.33) in der die alle nilzyklische Matrizen (vgl. (5.21)) sind. Beachten wir noch die Tatsache, daß nach Korollar 5.8.2 ein Endomorphismus genau dann split über ist, wenn alle seine verschiedenen Eigenwerte in liegen, so haben wir den 167 5. Normalformdarstellungen von Endomorphismen folgenden Satz bewiesen. 5.8.14 Satz (Jordansche Normalform eines Endomorphismus) Sei ein endlich dimensionaler Vektorraum über einem Körper und ein Endomorphismus von alle in liegen. Dann gibt es eine , dessen verschiedene Eigenwerte Basis von derart, daß ist, wobei .. . . .. . .. . .. . .. . .. . .. . .. . .. . .. .. . und alle nilzyklische Matrizen sind. 5.8.15 Korollar (Jordansche Normalform einer quadratischen Matrix) Ist eine quadratische Matrix, deren charakteristisches Polynom über in Linearfaktoren zerfällt, so gibt es eine invertierbare Matrix GL mit wobei und alle 168 .. . .. . .. .. . .. . .. . .. . . .. . .. . .. . .. . nilzyklische Matrizen sind. 5.8. Die Algebra der Endomorphismen eines endlich dimensionalen Vektorraumes Beweis: Wir wenden Satz 5.8.14 auf den Endomorphismus an. Da die Wurzeln des Minimalpolynoms mit denen des charakteristischen Polynoms (bis auf Viel fachheiten) übereinstimmen, ist split über . Dann hat bezüglich der nach Satz 5.8.13 existierenden Basis die behauptete Darstellung. Definieren wir , so folgt die Behauptung mit Satz 3.3.13. als die Transformationsmatrix 5.8.16 Korollar Hat End bzw. die in Satz 5.8.14 oder Korol lar 5.8.15 dargestellte Jordan-Normalform, so ist bzw. . Beweis: Kürzen wir mit die Jordan-Normalform ab, so gilt bzw. . Nach 4.3.17 (ii) erhalten wir daraus die Behauptung. Für ein halbeinfaches End erhalten wir nach Satz 5.7.4 , da die Eigenwerte alle Wurzeln des charakteristischen Polynoms sind. Wir wollen dies auf Endomorphismen verallgemeinern, die split sind. 5.8.17 Satz (Hamilton–Cayley) Ist ein endlich dimensionaler Vektorraum über End in einem Körper und liegen alle Eigenwerte des Endomorphismus , so gilt . Insbesondere teilt das Minimalpolynom von stets dessen charakteristisches Polynom. Beweis: Nach Korollar 5.8.16 gilt . Damit ist nach id id (5.31) . mit Für erhalten wir . Also ist mit (5.24) und (5.30) id . invariant unter ist, folgt und wegen Da id id . Damit ist schließlich Kern id und folglich Kern , id id d.h. . Aus Lemma 5.6.5 (iii) folgt nun, daß von geteilt wird. In der Sprache der Matrizen lautet der Satz von Hamilton–Cayley wie folgt. 5.8.18 Satz Ist eine quadratische Matrix deren Eigenwerte alle in liegen, so gilt . Insbesondere ist das Minimalpolynom von ein Teiler des charakteristischen Polynoms von . 169 5. Normalformdarstellungen von Endomorphismen 170 6. Euklidische und unitäre Vektorräume 6.1 Bilinearformen 6.1.1 Definition Seien und Vektorräume über einem gemeinsamen Grundkör per . Eine Abbildung heißt eine Bilinearform, wenn in beiden Argumenten linear ist, d.h. wenn und gelten. Wir definieren den linken und rechten Bilinearkern einer Bilinearform als die Mengen Bkern und Bkern 6.1.2 Lemma Ist Teilraum von und Bkern eine Bilinearform, so ist Bkern ein Teilraum von . ein Beweis: Klar. der Linear , so notieren wir 6.1.3 Lemma Seien und -Vektorräume. Die Menge BL formen auf bildet mit den Verknüpfungen und einen -Vektorraum. Ist BL als BL . Beweis: Klar durch Nachrechnen. 171 6. Euklidische und unitäre Vektorräume 6.1.4 Definition Eine Bilinearform heißt symmetrisch, wenn und alternierend oder antisymmetrisch , wenn gilt. Für symmetrische und alternierende Bilinearformen stimmen die rechten und linken Bilinearkerne überein. Wir notieren beide daher als Bkern Ein symmetrische oder alternierende Bilinearform heißt nicht ausgeartet, wenn Bkern ist. Wenn wir von einer nicht ausgearteten Bilinearform sprechen, antizipieren wir immer, daß entweder symmetrisch oder alternierend ist. 6.1.5 Bemerkung Ist erhalten wir eine Abbildung , und wegen ist die Abbildung torräume und . eine Bilinearform und , so durch . Dann ist ein Homomorphismus der Vek- 6.1.6 Satz Ist eine nicht ausgeartete Bilinearform auf , so ist die Abbildung ein Monomorphismus der Vektorräume. Ist endlich dimensional, so ist ein Isomorphismus. Beweis: Es gilt Damit ist Kern Bkern Bkern und damit injektiv. Ist Ist nicht ausgeartet, so ist Bkern endlich, so ist , und nach Satz 2.3.9 ist somit bijektiv. (6.1) 6.1.7 Satz Sei ein endlich dimensionaler -Vektorraum, eine nicht ausgeartete Bilinearform auf und End . Dann gibt es einen Endomorphismus End mit für alle . 172 6.1. Bilinearformen Beweis: Definieren wir , so ist linear, d.h. . Nach Satz 6.1.6 gibt es daher ein eindeutig bestimmtes mit . Wir definieren , d.h. . Damit folgt und, da End . bijektiv ist, damit . Also ist Man nennt den Endomorphismus den bezüglich zu adjungierten Endomorphismus. Gilt , so nennt man bezüglich selbstadjungiert. 6.1.8 Bemerkung Die adjungierte und die duale Abbildung sind eng mitein ander verknüpft. Wir erhalten nämlich , d.h. und damit (6.2) , so folgt und wegen der , d.h. . Bijektivität von daher 6.1.9 Satz Sei ein endlich dimensionaler -Vektorraum und eine nicht ausgeartete Bilinearform auf . Die Abbildung End End ist dann ein Gilt Isomorphismus der Vektorräume und ein involutorischer Antiisomorphismus der Ringe. Beweis: Wir zeigen zunächst, daß und damit , d.h. ist linear. Nun gilt Bkern eine lineare Abbildung ist. Wir erhalten Da nicht ausgeartet ist, folgt für alle und damit . Damit ist injektiv und als Endomorphismus des endlich dimensionalen Vektorraumes End damit auch bijektiv. Es bleibt nur noch zu zeigen, daß ein involutorischer Antihomomorphismus der Ringe vorliegt. Dies rechnen wir einfach nach. 173 6. Euklidische und unitäre Vektorräume Zunächst ist . Also folgt und es liegt ein Antihomomorphismus vor. Aus der Symmetrie von erhalten wir weiter für alle , . Da nicht ausgeartet ist, folgt und ist involutorisch. Ist alternierend, so führen wir die gleiche d.h. Rechnung durch, wobei wir beim Vertauschen der Argumente jedes Mal das Vorzeichen zu wechseln haben. Da wir die Argumente genau zweimal vertauschen, ändert dies am Ergebnis der Rechnung nichts. 6.1.10 Satz Sei ein endlich dimensionaler Vektorraum und eine nicht ausgearEnd tete Bilinearform auf . Dann gibt es einen Isomorphismus BL für alle mit BL , d.h. daß sich jede Bilinearform für ein auf in der Form End darstellen läßt. eine Funktion, so bezeichnen wir mit Beweis: Ist die Funktion, die sich aus ergibt, wenn wir nur das Argument BL als variabel betrachten und die übrigen konstant lassen. Für und ist dann eine Linearform. Nach Satz 6.1.6 gibt es daher ein . Wir rechnen nach, daß die Abbildung mit linear ist. Es ist . Nun definie und damit ren wir . Damit ist End , und es gilt daß ein Homomorphismus ist. Dazu be . Wir haben nachzuprüfen, rechnen wir . und damit ein Homomorphismus, Also ist " gilt. Ist , so für den ist und damit für alle . Das bedeutet aber, daß ist. Also ist Kern und injektiv. Umgekehrt gilt BL und für jedes End . Damit ist auch surjektiv, und wir haben einen Isomorphismus der Vektorräume vorliegen. 6.1.11 Lemma Ist eine nicht ausgeartete, symmertische Bilinearform und bezeichnet BL End den in Satz 6.1.10 definierten Isomorphismus, so ist (i) und 174 die Bilinearform adjungiert ist genau dann symmetrisch, wenn bezüglich selbst- 6.1. Bilinearformen Kern GL ist. (ii) Bkern und damit ist genau dann nicht ausgeartet, wenn symmetrisch, so folgt und damit , d.h. . Ist umgekehrt , ist selbstadjungiert bezüglich selbstadjungiert bezüglich so folgt , und ist symmetrisch. (ii): Da als nicht ausgeartet vorausgesetzt ist, gilt Beweis: (i): Ist Bkern Kern Also ist Bkern Kern , und der Rest ist klar. 6.1.12 Definition Für eine Bilinearform BL und eine Basis Bkern definieren wir die Matrixdarstellung von bezüglich durch . Dann ist die Abbildung 6.1.13 Satz Sei -Vektorraum mit ein BL ein Isomorphismus der Vektorräume. Für gilt (6.3) Beweis: Zunächst berechnen wir Damit liegt ein Homomorphismus vor. Für erhalten wir und .. . .. . Damit haben wir (6.3) gezeigt. Ist , so erhalten wir mit (6.3) aber auch für alle und damit . Also ist injektiv und, da 175 6. Euklidische und unitäre Vektorräume nach Satz 6.1.10 bijektiv. BL End ist, auch 6.1.14 Korollar Eine Bilinearform ist genau dann symmetrisch, wenn ist. Eine symmetrische Bilinearform ist genau dann nicht ausgeartet, wenn invertierbar ist. Beweis: Die erste Behauptung erhalten wir direkt aus (6.3). Für die zweite Be ist. hauptung lesen wir aus (6.3) ab, daß Bkern Damit ist genau dann nicht ausgeartet, wenn Kern ist, und invertierbar bijektiv und damit dies ist genau dann der Fall, wenn ist. Wir nennen Matrizen , für die gilt, symmetrisch. 6.1.15 Satz Sei ein endlich dimensionaler -Vektorraum und eine nicht aus geartete Bilinearform auf . Ist eine Basis von und die dazu duale Basis von , so gilt (6.4) Beweis: erhalten wir aus Sei sofort . Dann ! und damit . Kombinieren wir (6.2) und das Diagramm in Satz 3.3.6, so erhalten wir die Kommutativität des Diagramms in Abbildung 6.1. Diesem Diagramm entnehmen wir nun sofort Daraus erhalten wir zusammen mit Satz 6.1.15 Wir haben also den folgenden Satz bewiesen. 6.1.16 Satz Sei ein endlich dimensionaler Vektorraum und eine nicht ausgeartete Bilinearform auf . Dann gilt für jeden Endomorphismus 176 End . 6.2. Positiv definite Bilinearformen Abbildung 6.1: Zusammenhang zwischen adjungierter und dualer Abbildung Zum Ende dieses Abschnittes untersuchen wir noch das Transformationsverhalten der darstellenden Matrix einer nicht ausgearteten Bilinearform bei Basiswechsel. 6.1.17 Satz Es sei ein endlich dimensionaler Vektorraum und eine nicht aus geartete Bilinearform auf . Sind und Basen von , so gilt . für jede Basis . Damit erhalten wir (i) id ! id ! id . Es ist Beweis: Nach (6.4) ist mit dem Transformationssatz (Satz 3.3.13) Setzen wir dies in (i) ein, so folgt die Behauptung. 6.2 Positiv definite Bilinearformen 6.2.1 Definition Sei ein Vektorraum über dem Körper der reellen Zahlen. Wir nennen in Zukunft solche Räume reelle Vektorräume . Eine symmetrische Biline heißt arform gilt, positiv semi-definit, wenn positiv definit, wenn gilt, 177 6. Euklidische und unitäre Vektorräume negativ definit, wenn indefinit, wenn gilt, gilt. Die Abbildung heißt die von der symmetrischen Bilinearform induzierte quadratische Form. 6.2.2 Satz Sei ein reeller Vektorraum. Jede positiv definite Bilinearform auf ist nicht ausgeartet. Beweis: Ist positiv definit und Bkern , so folgt und damit insbesondere . Daraus ergibt sich aber , d.h. ist nicht ausgeartet. Bkern , und es ist 6.2.3 Satz Es sei ein reeller Vektorraum und eine positiv semi-definite Bilinearform auf . Dann gilt die Cauchy-Schwarzsche Ungleichung (6.5) Für positiv definite Bilinearformen steht in Gleichung (6.5) genau dann das Gleichheitszeichen, wenn und linear abhängig sind. Beweis: Für erhalten wir (i) für Ist , so wählen wir und erhalten möglich ist. Ist , was nur für , so wählen wir und teilen Ungleichung (i) durch . Das ergibt (ii) Nun wählen wir in (ii) und erhalten (iii) d.h. . Sind und linear abhängig, so ist für ein , und es folgt . Sind und linear unabhängig und ist positiv definit, so steht für in (i) das -Zeichen. Dann ist aber auch , womit folgt, daß auch in (iii) das -Zeichen steht. Damit folgt aber . alle 178 6.2. Positiv definite Bilinearformen 6.2.4 Definition Sei ein reeller Vektorraum. Eine Abbildung heißt eine Normfunktion oder kurz eine Norm auf , wenn sie den folgenden Bedingungen genügt: (No.0) , (No.1) (No.2) (No.3) , , . Ein reeller Vektorraum, auf dem sich eine Norm definieren läßt, heißt eine normierter Raum. In normierten Räumen lassen sich Längen messen. Um dies genauer zu erläutern, benötigen wir den Begriff eines metrischen Raumes. 6.2.5 Definition Sei die die Bedingungen (D.0) (D.1) (D.2) (D.3) eine nicht leere Menge. Eine Abbildung , , , , erfüllt, heißt eine Metrik oder Abstandsfunktion auf . Das Paar heißt ein metrischer Raum. Die Bedingung (D.3) nennt man die Dreiecksungleichung der Metrik. 6.2.6 Satz Ist ein normierter Raum, so definiert die Abbildung mit eine Metrik auf . Beweis: Dies folgt durch einfaches Nachrechnen. 6.2.7 Satz Ist ein reeller Vektorraum und eine positiv definite Bilinearform auf , so definiert eine Norm auf . Insbesondere trägt dann eine Metrik. Beweis: Die Eigenschaften (No.0) - (No.2) rechnet man einfach nach. Um (No.3) zu erhalten, folgern wir aus der Cauchy-Schwarzschen Ungleichung (6.5) (6.6) 179 6. Euklidische und unitäre Vektorräume Damit berechnen wir (i) , und aus (i) folgt 6.2.8 Beispiele 1. Sei . Für definieren wir . Offensichtlich definiert dies eine Bilinearform. Für und erhalten wir dann . Insbesondere ist . Daraus ersehen wir, daß positiv definit ist. Man nennt das kanonische . Skalarprodukt auf . Offensichtlich erhalten wir alle die Form Es folgt aus (6.3), daß die symmetrischen Bilinearformen auf . mit einer symmetrischen Matrix haben. Hier erhalten wir poIst die von der symmetrischen Matrix induzierte Bilinearform sitiv definit, so nennen wir die Matrix positiv definit. Wegen folgt, daß die Diagonalelemente einer positiv definiten Matrix für stets positiv sind. 2. Es seien , und ist stetig Man prüft mühelos nach, daß ein reeller Vektorraum ist. Nun definieren wir eine Bilinearform auf durch . Es folgt aus den Rechenregeln für Integrale, daß eine symmetrische Bilinearform Ist vorliegt. , so finden wir wegen der Stetigkeit von ein , ein und ein , so daß für alle gilt. Damit erhalten wir . Die Bilinearform ist somit positiv definit. Diese Bilinearform spielt in der Funktionalanalysis eine Rolle. 6.3 Euklidische Vektorräume 6.3.1 Definition Ein Paar (EVR.1) heißt ein euklidischer Vektorraum, wenn gilt: ist ein reeller Vektorraum. (EVR.2) Die Abbildung ist eine positiv definite Bilinearform. Man nennt das Skalarprodukt des euklidischen Raumes. 6.3.2 Definition Ist 180 ein euklidischer Vektorraum, so ist 6.3. Euklidische Vektorräume eine Norm auf . Man nennt die Länge des Vektors in heißt normiert, wenn ist. Wegen von Null verschiedene Vektor in normieren. Nach Satz 6.2.6 definiert läßt sich jeder eine Metrik auf . , so heißen die Vektoren und orthogonal in Gilt . Ein Vektor . 6.3.3 Winkelmessung In euklidischen Räumen haben wir nach Definition 6.3.2 den Begriff der Orthogonalität. Wir können also das “Senkrecht Stehen” zweier Vektoren beschreiben. Einen ähnlichen Begriff haben wir in Definition 3.2.13 schon zwischen den Vektoren eines beliebigen Vektorraums und den Vektoren des dualen Raumes eingeführt. Da für endlich dimensionale Vektorräume und isomorph sind, können wir nach Wahl einer Basis von den Begriff des “Senkrecht Stehens” bezüglich einer Basis durch definieren, wobei der in Satz 3.2.7 eingeführte Isomorphismus ist. Daß dies eng mit der in euklidischen Räumen eingeführten Orthogonalität verknüpft ist, folgt aus Satz 6.1.6. Allerdings können wir in euklidischen Räumen die Winkelmessung verfeinern. Aus der Ungleichung von Cauchy-Schwarz erhalten wir und daher Wir nennen gilt dann (6.7) und eingeschlossenen Winkel. Nach Definition den von und wir definieren ein euklidischer Raum und 6.3.4 Satz Sei und eingeschlossenen Winkel gelten dann (2) (3) , , (1) (6.8) . Für den von , 181 6. Euklidische und unitäre Vektorräume und sind genau dann orthogonal, wenn (4) (5) und sind genau dann linear abhängig, wenn ist, (6) ist, oder . Die Aussage (6) in Satz 6.3.4 ist als Cosinus-Satz bekannt. Stehen und senkrecht, so erhalten wir den Satz des Pythagoras. Beweis: Die Behauptungen (1) und (3) folgen sofort aus der Definition von , die Behauptungen erhal (2) und (4) aus den Eigenschaften des Cosinus. Aus Satz 6.2.3 ten wir für linear abhängige Vektoren und . Also ist , d.h. oder . Um (6) zu zeigen, berechnen wir nach (6.8). 6.3.5 Definition Ist und nennen , so definieren wir das orthogonale Komplement von in . 6.3.6 Lemma Für einen endlich dimensionalen . euklidischen Vektorraum und eine Teilmenge gilt Beweis: Wir haben 6.3.7 Satz Ist ein endlich dimensionaler euklidischer Vektorraum und und . Teilraum von , so gilt Beweis: Nach Satz 3.2.17 gilt Vektorräume und Teilräume . Da erhalten wir aus Lemma 6.3.6 und , so folgt und damit . Damit ist wegen 182 ein für endlich dimensionale ein Isomorphismus ist, . Ist für und schließlich . 6.3. Euklidische Vektorräume ein endlich dimensionaler euklidischer Vektorraum und , so gilt . . Wegen gilt GleichBeweis: Wir haben 6.3.8 Korollar Ist ein Teilraum von heit. In Abschnitt 3.6 haben wir die Gerade als Beispiel einer linearen Mannigfaltigkeit mit eingeführt. Eine Gerade hatte die Form , d.h. die Geraden sind gerade die affinen Teilräume der Dimension . Ist , ist, eine so nennen wir einen affinen Teilraum von , dessen Dimension Hyperebene in . Die Hyperebenen in sind also genau die affinen Teilräume der Gestalt mit (6.9) -dimensionalen Teilräume von Die Hyperebenen durch sind dann genau die . Ist eine Hyperebene in , so ist nun ein euklidischer Vektorraum und und damit für einen Vektor . Dies nach Satz 6.3.7 läßt sich folgendermaßen verallgemeinern. 6.3.9 Lemma Ist ein euklidischer Vektorraum, so gibt es zu jeder Hyperebene in einen normierten Vektor und ein mit die Hessesche Normalform der Hyperebene Man nennt (6.10) . . Dann gibt Beweis: (vgl. Abbildung 6.2) Sei mit es ein mit , und damit ist . Ohne Einschränkung der Allgemeinheit dürfen wir annehmen. Dann gilt . , so definieren wir Ist eine Hyperebene in und (6.11) und nennen den Abstand des Vektors von der Hyperebene . die Hessesche Normalform 6.3.10 Satz Ist ein euklidischer Raum und . der Hyperebene , so gilt für Beweis: (vgl. Abbildung 6.3) Wir fällen das “Lot” von auf . Dies ergibt einen Vektor . Wegen ist . Weiter ist und daher für 183 6. Euklidische und unitäre Vektorräume ! schon Damit ist stets her folgt für ! . Es gilt Abbildung 6.2: Hessesche Normalform im . , und wir erhalten . Da . 6.3.11 Definition Sei ein euklidischer Vektorraum und Unter räume von . Wir sagen, daß die orthogonale Summe der Vektorräume ist, wenn gelten (OS.1) (OS.2) Wir notieren mit terräume . , daß ist. 6.3.12 Lemma Aus , für 184 folgt die orthogonale Summe der Un- . 6.3. Euklidische Vektorräume Abbildung 6.3: Zum Beweis von Satz 6.3.10 Beweis: Ist erhalten wir sofort und und damit mit für , so . Es ist eine einfache Beobachtung, daß für einen Unterraum eines euklidischen der Raum Vektorraumes wieder ein euklidischer Raum ist. Dies benötigen wir zum Beweis des folgenden Satzes. 6.3.13 Satz Ist ein endlich dimensionaler euklidischer Vektorraum, so gibt es eine Basis von mit , d.h. ist die orthogonale Summe von Geraden. Eine derartige Basis heißt eine Orthogonalbasis. Für ist nichts zu beweisen. Beweis: Wir führen Induktion nach . Ist , so wählen wir mit und betrachten Da und wieder ein euklidischer Raum ist, er von halten wir nach Induktionsvoraussetzung eine Orthogonalbasis eine Basis von , . Wegen ist dann und wegen gilt für . Damit ist eine Orthogonalbasis von . und . Dann ist 6.3.14 Definition Sei ein euklidischer Vektorraum. Wir nennen eine Basis eine Orthonormalbasis von , wenn für alle gilt. 185 6. Euklidische und unitäre Vektorräume 6.3.15 Satz Jeder euklidische Vektorraum besitzt eine Orthonormalbasis. . Für Beweis: Nach Satz 6.3.13 besitzt eine Orthogonalbasis daher . Definieren wir , so ist eine Orthonormalbasis. gilt 6.3.16 Das Schmidtsche Orthonormalisierungsverfahren Oft steht man vor dem Problem, eine Basis eines euklidischen Vektorraumes in eine Orthonormalbasis zu überführen. Dazu gibt es einen Algorithmus, den wir im folgenden beschreiben wollen. Sei also eine Basis gegeben. Wir definieren eine Folge , so daß gilt: und und für (6.12) (6.13) bilden eine Basis. (6.14) Wir setzen und Nun zeigen wir (6.13) und (6.14) durch Induktion nach . Für erhalten . Im Induktionsschritt wir und nehmen wir (6.13) für an. Für erhalten wir für , da nach Induktionsvoraussetzung eine Basis. Dagilt. Nach Induktionsvoraussetzung bilden mit sind insbesondere linear unabhängig und somit , . Damit ist (6.13) und wir erhalten linear unabhängig, und da eine Libewiesen. Insbesondere sind eine nearkombination der und ist, bilden Basis. Für folgt aus (6.13), daß eine Orthonormalbasis bilden. Als Korollar zu Satz 6.3.15 erhalten wir eine Charakterisierung positiv definiter Matrizen. 6.3.17 Korollar Eine Matrix eine invertierbare Matrix GL 186 ist genau dann positiv definit, wenn es gibt mit . 6.4. Isometrien euklidischer Räume Beweis: : Ist positiv definit, so definiert eine positiv definite Bilinearform auf . Nach Satz 6.3.15 gibt es eine Orthonormalbasis von folgt aus Satz . Für . Dann gilt 6.1.17 GL , so folgt : Ist mit Wie wir in Beispiel 6.2.8 gesehen haben, ist das kanonische Skalarprodukt auf positiv definit. Damit ist genau dann, wenn ist. Da GL ist, ist dies genau dann der Fall, wenn . Also ist positiv definit. 6.4 Isometrien euklidischer Räume 6.4.1 Definition Es seien und zwei euklidische Räume. Eine Abbil dung heißt eine Isometrie von in , wenn gilt. 6.4.2 Satz Ist torräume. eine Isometrie, so ist ein Monomorphismus der Vek erhalten . Wir . Da positiv definit ist, . Analog , d.h. . Damit , folgt , so ist und damit . Damit ist, folgt Beweis: Da eine Isometrie ist linear. Ist folgt daraus erhalten wir und ist injektiv, und wir haben einen Monomorphismus der Vektorräume. ein euklidischer Raum. Wir setzen ist Isometrie von in 6.4.4 Lemma Sei ein euklidischer Raum. Die Menge ist dann eine Untergruppe der GL . Man nennt sie die allgemeine orthogonale Gruppe von . 6.4.3 Definition Sei 187 6. Euklidische und unitäre Vektorräume und damit . Es folgt aus Satz Beweis: Zunächst ist id 6.4.2, daß GL ist. Für ist . Weiter folgt . Damit ist und damit . 6.4.5 Satz Sei ein euklidischer Raum. Ein Endomorphismus End ist genau dann eine Isometrie von in sich, wenn gilt, d.h. wir haben Beweis: Ist eine Isometrie, so gilt . Daraus folgt, da nicht ausgeartet ist, " id . Also ist . Ist umgekehrt , so folgt , und ist eine Isome- End trie. 6.4.6 Korollar Ist . so gilt eine Isometrie des euklidischen Raumes , , und nach Lemma 4.3.10 Beweis: Nach Bemerkung 6.1.8 ist . Zusammen und Korollar 4.3.14 erhalten wir daraus mit Satz 6.4.5 ergibt dies " , woraus die Behauptung sofort folgt. 6.4.7 Spiegelungen Sei ein endlich dimensionaler euklidischer Raum und eine Hyperebene in durch den Nullvektor. Dann gibt es einen normierten Vektor mit und zu jedem Vektor ein eindeutig bestimmtes und mit . Die Abbildung heißt Spiegelung an der Hyperebene . ein euklidischer Raum und 6.4.8 Bemerkung Ist gelung an die Form Beweis: Sei 188 , so hat die Spie- die Normierung von . Für für ein (eindeutig bestimmtes) gilt dann . Damit gilt für das 6.4. Isometrien euklidischer Räume Abbildung 6.4: Spiegelung an einer Hyperebene Spiegelbild ist dies die Behauptung. . Wegen 6.4.9 Satz Jede Spiegelung ist eine Isometrie. Beweis: Seien und die Spiegelung an der Hyperebene normierten Vektor . Dann ist und mit und wir erhalten . 6.4.10 Lemma Ist eine Spiegelung, so gilt für einen , . 189 6. Euklidische und unitäre Vektorräume Beweis: Sei die Spiegelung an der Hyperebene durch . Dann ist für einen normierten Vektor , und wir erhalten eine Basis eine Basis von ist. Dann gilt nach Lemma 4.3.5 von , so daß . 6.4.11 Bemerkung Man bezeichnet Isometrien eines euklidischen Raumes auch eigentlich, wenn als Drehungen oder Rotationen. Dabei heißt eine Rotation ist. Anderenfalls heißt sie uneigentlich. Ist ein Eigenwert einer Rota tion , so muß für einen Eigenvektor schon und damit gelten. Beweis: Sei ist für . Dann auch und damit . 6.4.12 Lemma Die eigentlichen Drehungen eines euklidischen Vektorraumes bilden eine Untergruppe der allgemeinen orthogonalen Gruppe . Man nennt sie die spezielle orthogonale Gruppe und bezeichnet sie mit . 6.4.13 Satz Sei ein -dimensionaler euklidischer Vektorraum. Dann ist jede von der Identität verschiedene Isometrie von in sich ein Produkt von höchstens - vielen Spiegelungen. Beweis: Als erstes haben wir uns zu überlegen, daß sich jede Spiegelung eines Teilraumes von zu einer Spiegelung auf fortsetzen läßt. Sei dazu ein Teil raum von und Hyperebene durch in . Dann wird das Komplement von in eine aufgespannt. Eine Spie durch einen Vektor gelung an in hat dann die Form mit . Nun betrachten wir in . Dies ist eine Hyperebene durch in . Die Abbildung für definiert eine Spiegelung an in , die die Spiegelung in fortsetzt. Wir bemerken noch, daß die Fortsetzung der Spiegelung auf die Identität ist. Wir beweisen den Satz nun durch Induktion nach . Ist , so hat jeder Endomorphismus von die Gestalt id und wegen Korollar 6.4.6 muß für eine Isometrie sein. Damit sind id und id die einzigen Isometrien auf , und wir haben nichts zu beweisen. Sei nun und eine Isometrie von in sich. Gibt es einen Vektor . Für mit und , so betrachten wir die Hyperebene gilt , d.h. . Nach Induktions auf mit voraussetzung gibt es Spiegelungen und 190 6.4. Isometrien euklidischer Räume . Nach unserer Vorbemerkung läßt sich aber jede Spiegelung zu einer Spiegelung wir erhalten " auf . Wir haben also so fortsetzen, daß auf ist. Damit ist , und sind Spiegelungen (i) gezeigt. id ein Erfüllt die Isometrie die Voraussetzung .esDiewegen des Satzes, so gibt mit . Sei nun und Spiegelung an bezeichnen wir mit . Dann ist und damit Es ist womit und orthogonal sind und daher (ii) (iii) ist. Damit gilt (iv) und aus (ii) und (iv) folgt . Aus (i) folgt nun, daß ein Produkt von höchstens vielen Spiegelungen ist. Wegen id folgt " für (v) , und wir sehen, daß das Produkt von höchstens Spiegelungen ist. 6.4.14 Bemerkung Betrachten wir eine Rotation bezüglich des kanonischen Skalarprodukts auf dem , so erhalten wir nach Satz 6.1.16 denn die darstellende Matrix des kanonischen Skalarproduktes ist die Einheitsmatrix. Damit ist nach Satz 6.4.5 genau dann eine Rotation bezüglich des kanonischen Skalarproduktes im , wenn ist. Daher definiert man (6.15) und nennt die allgemeine orthogonale Gruppe. Die Matrizen der orthogonalen Gruppe heißen orthogonale Matrizen. Die Menge (6.16) 191 6. Euklidische und unitäre Vektorräume ist eine Untergruppe der . Sie heißt die spezielle orthogonale Gruppe. Man prüft leicht nach, daß für einen -dimensionalen euklidischen Raum und eine Orthonormalbasis von und gelten. (6.17) (6.18) 6.4.15 Satz Eine Matrix ist genau dann orthogonal, wenn sowohl ihre Zeilen als auch ihre Spalten eine Orthonormalbasis des mit dem kanonischen Skalarprodukt bilden. Beweis: Sei für für basis bilden. 6.5 .. . mit . Dann gilt genau dann, wenn gilt. Dies ist aber genau dann der Fall, wenn gilt, d.h. wenn eine Orthonormal Sesquilinearformen Im folgenden werden wir gezwungen sein, auch Vektorräume über dem Körper der komplexen Zahlen zu betrachten. Obwohl wir die komplexen Zahlen hier voraussetzen wollen, sind einige Vorbemerkungen angebracht. hat in keine Wurzel, da Quadra6.5.1 Komplexe Zahlen Das Polynom te reeller Zahlen niemals negativ sind. Man “adjungiert” daher eine Wurzel dieses und betrachtet den EinsetzungsPolynoms, die üblicherweise mit bezeichnet wird homomorphismus . Dann ist eine kommutative -Algebra der Dimension , denn das Minimalpolynom von ist . Insbesondere ist ein kommutativer Ring, in dem jedes Element die Gestalt mit hat. Nun beobachtet man weiter, daß und damit besteht nur aus Einheiten und ist gilt. D.h. daher ein Körper, den man mit bezeichnet. Die Elemente von heißen kom plexe Zahlen. Jede komplexe Zahl hat die Gestalt mit , wobei und eindeutig bestimmt sind. Man nennt den Realteil und den Imaginärteil der komplexen Zahl . Die Abbildung 192 6.5. Sesquilinearformen , die durch definiert ist, heißt Konjugation, die Zahl die konjungiert Komplexe von . Man prüft sofort nach, daß die Konjugation ein involutorischer Automorphismus von ist. erhalten wir eine Abbildung Wegen ist, für die und rechnen leicht nach, daß dies eine Normfunktion auf gilt. Eine wichtige Eigenschaft der komplexen Zahlen wird im folgenden Satz ausgedrückt, den wir ohne Beweis zitieren. Fundamentalsatz der Algebra Der Körper der komplexen Zahlen ist algebrazerfällt über in Linearfaktoren. isch abgeschlossen, d.h. jedes Polynom 6.5.2 Bemerkung Man rechnet sofort nach, daß die Abbildung ein injektiver Homomorphismus der Ringe ist. Daher ist die Menge als Ring isomorph zu wir dies mit mit sind. Wegen ist der Drehwinkel der Drehung . Wegen , und die Drehungen haben die Form , und es folgt aus Satz 6.4.5, daß die Elemente Drehungen des und und somit ein Körper. Wir erhalten (6.19) ist dann . Übersetzen zurück in die komplexen Zahlen und beachten wir, daß 193 6. Euklidische und unitäre Vektorräume für der Form gilt, so können wir jede komplexe Zahl in (6.20) oder, unter Verwendung der Exponentialfunktion, als (6.21) darstellen. Dabei heißt der Betrag und das Argument der komplexen Zahl . Betrachten wir die mit , d.h. fassen Bijektion wir als den auf, so ersehen ist. wir aus (6.19), daß und wieder in die komplexen Zahlen zurück, Übersetzen wir dies mit so sehen wir, daß sich die Multiplikation mit komplexen Zahlen vom Betrag als Drehung auffassen läßt, wobei der Drehwinkel durch das Argument der Zahl gege- dargestellt wird, entsprechen ben ist. Multiplikationen mit , das durch daher Drehungen um und Multiplikationen mit Drehungen um . 6.5.3 Definition Seien und Vektorräume über dem Körper der komplexen Zahlen. Eine Abbildung heißt semilinear (d.h. halblinear) , wenn und für alle und gilt. Eine Abbildung fach lineare Form), wenn wenn gelten. heißt eine Sesquilinearform (eine eineinhalb semilinear ist, d.h. linear und und linear ist, bereits Eine Abbildung heißt hermitesch, wenn gilt. Man beachte, daß jede hermitesche Form , für die sesquilinear ist. Wir übertragen nun die für Bilinearformen in Abschnitt 6.1 und 6.2 eingeführten Begriffe und Sätze auf hermitesche Sesquilinearformen. Die Beweise übertragen sich in der Regel mühelos. Zunächst definieren wir den Sesquilinearkern einer hermiteschen Sesquilinearform in Analogie zum Bilinearkern als Bkern und nennen eine hermitesche Sesquilinearform nicht ausgeartet, wenn Bkern ist. Ist eine hermitesche Sesquilinearform, so definiert 194 6.5. Sesquilinearformen eine Linearform, und damit erhalten wir eine semilineare Abbildung und Bkern Kern mit Für nicht ausgeartetes ist daher eine injektive semilineare Abbildung von in und demnach eine semilineare Bijektion für endlich dimensionale . Ist ein endlich dimensionaler Vektorraum, End ein Endomorphismus und , so ist , und es gibt daher ein eindeutig bestimmtes mit . Die Abbildung ist wieder linear und heißt die zu adjungierte Abbildung . Es gilt also (6.22) und Weiter erhalten wir " (6.23) und damit (6.24) ein Wie im Falle von Bilinearformen prüft man nach, daß die Abbildung involutorischer Antiisomorphismus des Endomorphismenringes ist. Allerdings ist sie kein Homomorphismus der Algebren, sondern wegen nur semilinear. Ein Unterschied zur Situation symmetrischer Bilinearformen ergibt sich auch bei der Matrixdarstellung von hermiteschen Sesquilinearformen. Wir definieren wie im Falle der Bilinearformen für eine Sesquilinearform auf einem endlich dimen sionalen -Vektorraum mit Basis (6.25) , so sei die konjungiert komplexe Matrix zu Ist . (Um typographisch von der Abbildung zu unterscheiden, ist die Überstrei chung fetter gesetzt). Ist eine Basis von und , so erhalten wir und damit Damit erhalten wir für eine hermitesche Sesquilinearform 195 6. Euklidische und unitäre Vektorräume (6.26) Um das Diagramm 6.1 zu modifizieren, führen wir die konjungierte Koordinaten darstellung bezüglich einer Basis durch ein. Dann modifiziert das Diagramm 6.1 zum Diagramm in Abbildung 6.5. Um Abbildung 6.5: Zusammenhang zwischen adjungierter und dualer Abbildung bezüglich einer hermiteschen Sesquilinearform , woraus sich rechte Trapez kommutativ. Weiter gilt für ergibt. Damit sind das linke und , womit auch die Kom- die Kommutativität des Diagramms zu zeigen, berechnen wir mutativität des oberen Trapezes gezeigt ist. Aus dem Diagramm 6.5 ergibt sich die Transformationsformel woraus sich durch Übergang zum konjugiert komplexen 196 (6.27) 6.5. Sesquilinearformen ergibt. Sind und zwei Basen eines endlich dimensionalen komplexen Raumes, so kommutiert das Diagramm in Abbildung 6.6. Die beiden Trapeze haben wir gerade nachgerechnet, die Kommutativität des rechten Dreiecks wurde schon früher gezeigt (Satz 3.3.13), und die Kommutativität des linken Dreiecks rechnet man mühelos nach. Abbildung 6.6: Basistransformation der Matrix einer hermiteschen Sesquilinearform Aus dem Diagramm in Abbildung 6.6 erhalten wir die Basistransformationsformel (6.28) 6.5.4 Lemma Sei ein -Vektorraum und eine Sesquilinearform auf . Die von induzierte quadratische Form ist genau dann reellwertig, wenn hermitesch ist. Beweis: Ist eine hermitesche Sesquilinearform auf , so ist wegen stets . Für die Gegenrichtung berechnen wir und aus (i) und (ii) erhalten wir (i) (ii) (iii) Ist reellwertig, so sind beide Klammern reell. Vertauschen wir und in (iii), so verändert sich der der Realteil von Für die Summe der Imaginärteile (iii) nicht. ergibt sich 197 6. Euklidische und unitäre Vektorräume woraus sich . Damit erhalten wir ergibt. Somit ist hermitesch. 6.5.5 Definition Sei heißt , ein Vektorraum über . Eine hermitesche Sesquilinearform positiv semi-definit, wenn negativ definit, wenn indefinit, wenn positiv definit, wenn gilt, gilt, gilt, gilt. Analog wie für positiv definite Bilinearformen erhalten wir den folgenden Satz. ein komplexer Vektorraum (d.h. ein Vektorraum über dem 6.5.6 Satz Es sei Grundkörper ) und eine positiv semi-definite Sesquilinearform auf . Dann gilt die Cauchy-Schwarzsche Ungleichung (6.29) Für positiv definite Sesquilinearformen steht in Gleichung (6.29) genau dann das Gleichheitszeichen, wenn und linear abhängig sind. Beweis: Der Beweis ist eine leichte Modifikation des Beweises von Satz 6.2.3. Für erhalten wir (i) , so wählen wir und erhalten Ist für alle , was nur für möglich ist. Ist , so wählen wir und teilen Unglei chung (i) durch . Das ergibt (ii) in (ii) und erhalten Nun wählen wir (iii) und damit . d.h. Sind , und es folgt und linear abhängig, so ist für ein . Sind und linear unabhängig und ist positiv 198 6.6. Unitäre Vektorräume definit, so steht für in (i) das -Zeichen. Dann ist aber auch womit folgt, daß auch in (iii) das -Zeichen steht. Damit folgt aber . 6.5.7 Satz Ist ein komplexer Vektorraum und eine hermitesche positiv definite eine Norm und Sesquilinearform auf , so definiert eine Metrik auf . Die Beweise erfolgen wörtlich wie die der Sätze 6.2.6 und 6.2.7. 6.6 Unitäre Vektorräume , wobei ein komplexer Vektorraum und eine 6.6.1 Definition Ein Paar positiv definite hermitesche Sesquilinearform auf ist, heißt ein unitärer Raum. Wir übernehmen die für euklidische Räume getroffenen Redeweisen und Definitionen sinngemäß für unitäre Räume. So nennen wir die positiv definite Sesquilinearform das Skalarprodukt des unitären Raumes und bezeichnen die von dem Skalarprodukt induzierte Norm mit . Zwei Vektoren heißen orthogonal ist. Wir übertragen die Definition des orthogooder senkrecht, wenn nalen Komplements einer Teilmenge Die Definitionen, Lemmata, Sätze und Korollare 6.3.6 - 6.3.16 übertragen sich mühelos auf unitäre Räume. Auf dem erhalten wir das kanonische Skalarprodukt durch Die darstellende Matrix des kanonischen Skalarproduktes bezüglich der kanonischen Basis ist die Einheitsmatrix. Die kanonische Basis bildet eine Orthonormalbasis bezüglich des kanonischen Skalarproduktes. Ist und gilt , so definiert eine hermitesche Sesquilinearform. Wir nennen positiv definit, wenn und die von erzeugte hermitesche Sesquilinearform positiv definit ist. In Analogie zu Korollar 6.3.17 erhalten wir mit dem gleichen Beweis aus (6.28), daß genau dann eine positiv definite Matrix ist, wenn es ein GL gibt mit . 199 6. Euklidische und unitäre Vektorräume 6.7 Komplexifizierung reeller Vektorräume Wir wollen einen reellen Vektorraum in natürlicher Weise zu einem komplexen Vektorraum machen. Die Idee dazu besteht darin, aus Vektoren den zu bilden und die skalare Multiplikation durch for“komplexen” Vektor festzusetzen. Die males “Ausrechnen” Elemente des komplexifizierten Raumes müssen somit als Paare aufgefaßt werden, wobei den Realteil und den Imaginärteil repräsentiert. Dies ist der Hintergrund der folgenden Definition. 6.7.1 Lemma Sei ein reeller Vektorraum. Die Menge wird mit der punkt weisen Addition und der Multiplikation ein -Vektorraum, den wir mit bezeichnen wollen. Der Vektorraum heißt die Komplexifizierung von . mit der punktweisen AdditiBeweis: Wir haben bereits früher gesehen, daß on eine additive abelsche Gruppe bildet. Die Axiome für die skalare Multiplikation rechnet man einfach nach. 6.7.2 Lemma Die Abbildung (1) (2) (3) mit ist injektiv, und es gelten , , . Beweis: Offensichtlich ist injektiv. Die Behauptung (2) ist klar, und die erste Gleichung in (3) rechnet man anhand der Definition der skalaren Multiplikation sofort , woraus sich die zweite Gleichung nach. Dann ist insbesondere in (3) und (1) sofort ergeben. 6.7.3 Satz Ist ein reeller Vektorraum und eine Basis von , so ist . eine Basis von . Insbesondere ist , so ist nach Lemma 6.7.2 Beweis: Ist Basis von ist gibt es ein , und mit . Dann folgt mit Lemma 6.7.2 , und wir haben densystem nachgewiesen. Gilt mit Lemma 6.7.2 200 . Da eine und als Erzeugen , so folgt mit , woraus 6.7. Komplexifizierung reeller Vektorräume sich und folglich auch ergeben. Damit ist eine linear unabhängige Menge und somit eine Basis. Damit haben wir nachgewiesen, daß sich unsere Ausgangsidee verwirklichen läßt. Durch die Abbildung wird in eingebettet, und wir können daher und . identifizieren. Nach Lemma 6.7.2 hat dann jedes die Gestalt 6.7.4 Lemma Sind und reelle Vektorräume und Hom und defi nieren wir durch , d.h. , so ist Hom . Die Abbildung Hom Hom mit ist ein Homomorphismus der Ringe und -linear, d.h. es gilt für . . Ist eine Basis von und eine Basis von , so folgt Beweis: Klar durch Nachrechnen. 6.7.5 Korollar Für End . Beweis: Wegen 6.7.4. Nun gilt aber . Insbesondere ist dann ein euklidischer Raum und definieren wir für ist 6.7.6 Lemma Ist gilt Aussage aus Lemma erhalten wir die erste , so ein unitärer Raum. Beweis: Klar durch Nachrechnen. 6.7.7 Satz Ist . , woraus sich ergibt. Beweis: Es ist ein euklidischer Vektorraum und End , so gilt 201 6. Euklidische und unitäre Vektorräume 6.8 Isometrien unitärer Räume 6.8.1 Definition Eine lineare Abbildung zwischen zwei unitären Räumen, die das Skalarprodukt respektiert, heißt eine Isometrie. Mit dem gleichen Beweis wie in Satz 6.4.2 erhalten wir, daß jede Isometrie unitärer Räume schon ein Monomorphismus der Vektorräume und damit im endlich dimensionalen Fall bereits ein Isomorphismus der Vektorräume ist. 6.8.2 Satz Sei ein endlich dimensionaler unitärer Raum. Ist eine Isometrie von in sich, so nennen wir eine unitäre Abbildung. Ein Endo morphismus End ist genau dann unitär, wenn ist. Die Menge End ist mit der Komposition von Abbildungen eine Gruppe. Sie heißt die allgemeine unitäre Gruppe von Für gilt . Die Menge . Sie heißt die spezielle unitäre Gruppe von . ist eine Untergruppe der Die Beweise erfolgen wie im euklidischen Fall. 6.8.3 Satz Ist End eine Isometrie von ein euklidischer Raum und , so ist dessen komplexe Fortsetzung eine Isometrie von . Beweis: Wir haben nach Satz 6.8.2 nur nachzuprüfen, daß ergibt sich aber aus den Lemmata 6.7.4 und 6.7.7 wegen ist. Das . Ist ein euklidischer oder unitärer Vektorraum, so läßt sich für jeden Endomorphismus End eine Norm (6.30) definieren. Für diese Norm erhalten wir (6.31) Die Isometrien sind dann genau die Endomorphismen mit Norm , d.h. wir haben 202 6.9. Normale Endomorphismen für euklidische bzw. End (6.32) End (6.33) für unitäre Räume. Die Normen von Endomorphismen spielen in der Funktionalanalysis und in der numerischen Mathematik eine wichtige Rolle. mit dem kanoniBetrachten wir wieder den Spezialfall des unitären Raumes schen Skalarprodukt, so ist dessen darstellende Matrix bezüglich der kanonischen Basis die Einheitsmatrix. Aus (6.27) folgt daher, daß genau dann unitär ist, wenn ist. Daher definiert man und nennt die allgemeine unitäre Gruppe. Ebenso setzt man die spezielle unitäre Gruppe. Die Matrizen in und nennt heißen unitäre Matrizen. In Analogie zu Satz 6.4.15 erhalten wir 6.8.4 Satz Eine Matrix ist genau dann unitär, wenn ihre Spalten- bzw. Zeilenvektoren eine Orthonormalbasis des bezüglich des kanonischen Skalarproduktes bilden. 6.9 Normale Endomorphismen Vorbemerkung Unitäre und euklidische Räume haben sehr viele gemeinsame Eigenschaften. Zur Vereinfachung der Notation bedeute daher im euklidischen Falle den Körper und im unitären Falle den Körper . 6.9.1 Definition Sei ein euklidischer oder unitärer Vektorraum. Ein Endomorphismus End heißt normal, wenn er mit seiner adjungierten ver gilt. tauschbar ist, d.h. wenn 6.9.2 Lemma Ist ein normaler Endomorphismus, so sind alle Elemente von mit den Elementen in vertauschbar. und , so erhalten wir Beweis: Ist . 203 6. Euklidische und unitäre Vektorräume und gilt , so folgt erhalten wir Beweis: Für . Das ist nur möglich, wenn ist. Da wir beliebig gewählt haben, folgt für . 6.9.3 Lemma Sind . End ein euklidischer oder unitärer Vektorraum und ein norma6.9.4 Satz Ist ler Endomorphismus von . Dann enthält keine von verschiedenen nilpotenten Elemente. Beweis: Wir zeigen zunächst, daß ein nilpotenter Endomorphismus, für den ist. Ist und nilpotent, so gibt es ein , so daß , gilt, bereits aber und damit nach Lemma ist. Dann folgt 6.9.3 . Widerspruch. Für gilt aber , und ist wegen der Vertauschbar keit von und nilpotent, wenn dies ist. Damit ist , woraus sich für alle und damit ergibt. Zusammen mit Satz 5.7.4 erhalten wir die folgende Aussage. 6.9.5 Korollar Jeder splitte normale Endomorphismus eines euklidischen und jeder normale Endomorphismus eines unitären Vektorraumes ist halbeinfach und damit diagonalisierbar. 6.9.6 Lemma Sei ein -Vektorraum und ein halbeinfacher Endomorphismus von mit Minimalzerlegung . Gilt dann für , und es gibt eine ein vollständiges Orthogonalsystem , so ist mit und . Permutation Beweis: Sei und sowohl als auch ein vollständiges Orthogonalsystem. Dann gilt, wie im Beweis von Satz 5.7.4 gezeigt, für jedes Polynom erhalten wir 204 für . Wählen wir in (i) für (i) , so und damit (ii) 6.9. Normale Endomorphismen Demnach gibt es für für (iii) mit Da idempotent ist, folgt aus (iii) damit . Also gilt und und (iv) Aus Symmetriegründen erhalten wir auch für Da nun sowohl als auch für und folgt für und mit es gibt eine Permutation folgt. (v) linear unabhängig sind (vgl. 5.7.3), für . Also ist . Damit ist , und , woraus dann auch 6.9.7 Lemma Ist ein endlich dimensionaler unitärer . oder euklidischer Raum, so gilt Im und Kern Kern Im Kern Beweis: Mit Lemma 6.3.6 erhalten wir Im Im damit Kern und Im Kern Kern . Kern Im . Ähnlich folgt Im 6.9.8 Lemma Sei ein endlich dimensionaler unitärer oder euklidischer VekEnd gilt dann Kern torraum. Für jeden normalen Endomorphismus Kern und Im Im . Insbesondere ist dann Kern Im . Beweis: Es gilt Kern Mit Lemma 6.9.7 folgt dann Im Wegen Kern Kern Kern Im . 205 6. Euklidische und unitäre Vektorräume Kern Kern Kern Kern Im Im ist alles bewiesen. 6.9.9 Lemma Ist ein euklidischer oder unitärer Vektorraum und End ein normaler Endomorphismus, so ist Eig Eig für jeden Eigenwert von . Beweis: Wir betrachten den Endomorphismus id , und wir erhalten Eig Damit ist id id id id id id id . Dann gilt normal, und mit Lemma 6.9.8 folgt Kern Kern Eig 6.9.10 Satz Sei ein endlich dimensionaler euklidischer oder unitärer Vektorraum und End split über (im unitären Fall ist dies immer erfüllt). Der Endomorphismus ist genau dann normal, wenn es eine Orthonormalbasis von Eigenvektoren von gibt. erhalBeweis: : Sei eine Basis von aus Eigenvektoren von . Für und damit . Also ten wir folgt . Damit sind und auf allen Basisvektoren und damit auf ganz vertauschbar. Ist normal, so ist nach Satz 6.9.4 halbeinfach. Ist die mit Minimalzerlegung, so gilt nach Satz 5.8.4 Wir behaupten, daß sogar (i) und für . Da sind nach und vertauschbar. Dann folgt , denn wegen ist Kern und nach Lemma 6.9.8 ist Kern Kern . Damit ist (i) gezeigt. Nach Satz 5.8.13 gilt. Sei dazu Lemma 6.9.2 206 6.9. Normale Endomorphismen . Die Räume gilt nun Eig sind wieder euklidisch bzw. unitär und besitzen daher Orthonormalbasen . Dann ist aber ! eine Orthonormalbasis von , die aus Eigenvektoren von besteht. Zusammen mit Satz 5.8.13 erhalten wir als Korollar des Satzes 6.9.10 6.9.11 Korollar Jeder splitte normale Automorphismus ist diagonalisierbar. 6.9.12 Bemerkung mit Wir betrachten nun den dem kanonischen Skalarprodukt. Für ist der Endomorphismus genau dann normal, wenn ist, und dies ist genau dann der Fall, wenn ist. Daher nennen wir eine Matrix normal, wenn ist. Da algebraisch abgeschlossen ist, ist jede normale Matrix split über . Damit existiert nach Satz 6.9.10 eine Orthonormalbasis von Eigenvektoren. Damit eine Diagonalmatrix, deren Hauptdiagonale alle Eigenwerist te in ihrer Vielfachheit gezählt enthält. Da das kanonische Skalarprodukt sowohl bezüglich der kanonischen Basis als auch der Basis durch die Einheitsmatrix aus (6.28) und die Matrix ist unitär. dargestellt wird, folgt Damit haben wir den folgenden Satz gezeigt. 6.9.13 Satz Ist mit wobei .. . eine normale Matrix, so gibt es eine unitäre Matrix .. . .. . .. . .. . .. . alle Eigenwerte von in ihrer Vielfachheit gezählt sind. 6.9.14 Bemerkung Um eine normale Matrix auf Diagonalgestalt zu transformieren, muß man nicht zuerst deren Minimalzerlegung kennen. Man weiß ja aus Satz 6.9.13, daß eine Orthonormalbasis aus Eigenvektoren existiert. Diese läßt sich finden, indem man zunächst die Wurzeln des charakteristischen Polynoms bestimmt, d.h. die Gleichung zusammen mit deren löst. Dies liefert alle verschiedenen Eigenwerte algebraischen Vielfachheiten. Nun bestimmt man die Eigenvektoren durch Lösen der Gleichungssysteme 207 6. Euklidische und unitäre Vektorräume Die Eigenvektoren zu einem Eigenwert orthonormalisiert man nach Schmidt zu einer Orthonormalbasis von Eig . Dadurch erhalten wir eine von , und für Orthonormalbasis .. . gilt .. . und daher .. . mit .. . .. . .. . .. . .. . . .. Die Matrix .. .. . .. . ist unitär, da ihre Zeilenvektoren eine Orthonormalba- sis bilden, und wir erhalten . .. . .. . .. . .. . .. . .. . .. . .. . .. . .. . Damit haben wir ein Verfahren zur Berechnung der unitären Transformationsmatrix einer normalen Matrix. Der schwierigste Punkt dabei ist die Berechnung der Eigenwerte, da das charakteristische Polynom den Grad hat. Hier müssen in der Regel Methoden der numerischen Mathematik in Anspruch genommen werden. 208 6.10. Unitäre und orthogonale Abbildungen 6.10 Unitäre und orthogonale Abbildungen Wir erinnern daran, daß wir die Isometrien euklidischer Räume als orthogonale und die Isometrien unitärer Räume als unitäre Abbildungen bezeichnen. Wir wollen in diesem Abschnitt einige Eigenschaften unitärer und orthogonaler Automorphismen genauer studieren. 6.10.1 Satz Sei ein euklidischer oder unitärer Raum. Sind und zwei orthogonal Orthonormalbasen von , so ist die Transformationsmatrix bzw. unitär. Beweis: Sind und Orthonormalbasen, so ist Satz 6.1.17 oder (6.28) folgt daher Damit ist bzw. bzw. . Nach . 6.10.2 Satz Jeder unitäre und orthogonale Automorphismus ist normal. Beweis: Ist ein orthogonaler oder unitärer Automorphismus, so gilt id . 6.10.3 Satz Ist ein orthogonaler oder unitärer Automorphismus und ein Eigenwert von , so ist . Damit sind und die einzigen möglichen reellen Eigenwerte. Beweis: Ist orthogonal oder unitär, so ist eine Isometrie, und für einen Eigen vektor zum Eigenwert erhalten wir . Damit ist . 6.10.4 Satz Jeder unitäre Automorphismus ist halbeinfach. Damit ist diagonalisierbar. Ist die Minimalzerlegung von , so ist jeder der Endomorphismen selbstadjungiert, d.h. es gilt Beweis: Da bar. Sei insbesondere normal ist, ist nach Korollar 6.9.11 diagonalisier , die Minimalzerlegung. Nach Satz 6.10.3 ist und wir erhalten id Damit ist . Da ebenfalls ein vollständiges Orthogonalsystem bilden, folgt aus der in Lemma 6.9.6 gezeigten Eindeutigkeit der Darstellung für . Wir erinnern an die orthogonale und unitäre Gruppe bzw. . 209 6. Euklidische und unitäre Vektorräume 6.10.5 Satz Sei ein euklidischer bzw. unitärer Vektorraum. Eine Matrix ist genau dann unitär oder orthogonal, wenn sie die darstellende Matrix eines orthogonalen bzw. unitären Automorphismus bezüglich einer Orthonormalbasis von ist. D.h. wir haben für eine Orthonormalbasis von bzw. folgt nach (6.27) bzw. nach Satz 6.1.16 Damit ist im euklidischen und im unitären Fall. Ist umgekehrt , so erhalten wir für sofort bzw. und damit Damit ist bzw. , und wir haben auch die umgekehrte Inklusion Beweis: Für bzw. gezeigt. 6.10.6 Satz Ist mit wobei .. . .. . .. . eine unitäre Matrix, so gibt es eine unitäre Matrix .. . .. . .. . alle Eigenwerte von in ihrer Vielfachheit gezählt sind. Wir wollen nun Normaldarstellungen orthogonaler Automorphismen studieren. Die Schwierigkeit, auf die wir hier unmittelbar stoßen, ist, daß die Endomorphismen euklidischer Räume nicht notwendigerweise split über sind. Hier müssen wir die Theorie der Komplexifizierung des Abschnitts 6.7 zu Hilfe nehmen. 6.10.7 Satz Sei morphismus von 210 ein euklidischer Vektorraum und ein orthogonaler Auto . Dann gibt es es eine Orthonormalbasis von , so daß 6.10. Unitäre und orthogonale Abbildungen .. . .. . .. .. . . .. . .. .. . .. .. . . .. . . , die Anzahl der Eigenwerte und mit die Anzahl der Eigenwerte alle komplexen für die Zahlen Eigenwerte von in ihrer Vielfachheit gezählt durchlaufen. wobei Beweis: Wir setzen den Automorphismus komplex zu fort. Nach Satz 6.8.3 ist dann unitär. Die charakteristischen Polynome von und stimmen nach Korollar 6.7.5 überein und sind daher Polynome in . Dann zerfällt über in die Linearfaktoren Insbesondere ist mit jedem Eigenwert auch dessen konjungiert Komplexe ein Ei die verschiedenen reellen und die verschiegenwert. Sind denen komplexen Eigenwerte von , so ist " (i) die Minimalzerlegung von . (Hier ist zu bemerken, daß für 6.10.3 ist und damit ist). Dann erhalten wir mit Zu jedem ist wegen Satz für Eig und damit . Zu (ii) . sei . Dann erhalten wir auch (iii) Definieren wir nämlich für einen Endomorphismus End dessen Konjugati on durch , so gilt für die Fortsetzung eines reellen Endomorphismus . Für folgt daher und damit Eig . Umgekehrt erhalten wir für , daß ! 211 6. Euklidische und unitäre Vektorräume Damit erhalten wir und damit Eig , d.h. ist. (iv) für ein geeignetes . Nun wählen wir Orthonormalbasen der Räume und , von mit die zusammen eine Orthonormalbasis ergeben. Wir wollen zu einer “reellen” Basis trans von konjungierten Eigenformieren. Dazu betrachten wir eines der Paare ergibt sich vektoren. Für , woraus und erhalten wir . Damit ist . Zusammen mit (v) zeigt dies, daß orthonormale Vektoren sind. Wegen (vi) (v) folgen. Aus ergibt sich als Transformationsmatrix Ist der Eigenwert zu , so ist (vii) und definieren wir sowie (viii) und wir erhalten 212 Weiter erhalten wir (ix) (x) 6.11. Selbstadjungierte Endomorphismen und für eine Orthonormalbasis von .. . .. . .. Mit Lemma 6.7.4 folgt .. . .. . .. .. . . .. . ist . .. . . .. und mit 6.11 und dies war die Behauptung. Selbstadjungierte Endomorphismen 6.11.1 Definition Es sei ein euklidischer oder unitärer Vektorraum. Ein Endomorphismus End heißt selbstadjungiert, , wenn ist. (Wir haben diese Terminologie schon vorher benutzt). Eine Matrix heißt symmetrisch, wenn ist. Eine Matrix heißt hermitesch, wenn ist. 6.11.2 Lemma Sei ein euklidischer oder unitärer Vektorraum und eine Orthonormalbasis von . Ein Endomorphismus GL ist genau dann symmetrisch selbstadjungiert in , wenn seine darstellende Matrix bzw. hermitesch ist. folgt dies Beweis: Wegen unmittelbar. Im euklidischen Falle entfällt der Übergang zum konjungiert komple xen. 6.11.3 Satz Jeder selbstadjungierte Endomorphismus eines unitären oder euklidischen Vektorraumes ist normal. Beweis: Dies ist klar wegen " . 213 6. Euklidische und unitäre Vektorräume 6.11.4 Satz Ist ein selbstadjungierter Endomorphismus eines euklidischen oder unitären Vektorraumes, so besitzt nur reelle Eigenwerte. Insbesondere ist jeder selbstadjungierte Endomorphismus eines euklidischen Raumes split über . Beweis: Im euklidischen Fall setzen wir zu fort. Dann ist split über . Da normal ist, besitzt nach Satz 6.9.10 eine Orthonormalbasis aus Eigenvektoren. . Da eine Dann gilt nach (6.27) Diagonalmatrix mit den Eigenwerten von in der Hauptdiagonalen ist, folgt und damit für jeden Eigenwert von . Die gleiche Argumentation gilt auch im unitären Fall. Im euklidischen Fall folgt nun, daß schon split über ist. 6.11.5 Satz (Hauptachsentransformation einer symmetrischen Matrix) Ist eine symmetrische Matrix, so gibt es eine orthogonale Matrix daß wobei .. . .. . .. . .. . .. . .. . alle Eigenwerte von , so in ihrer Vielfachheit gezählt sind. Beweis: Wir betrachten mit dem kanonischen Skalarprodukt. Der durch induzierte Endomorphismus ist dann selbstadjungiert und nach Satz 6.11.4 damit split über . Aus Satz 6.9.10 erhalten wir die Existenz einer Orthonormalbasis die verlangte Diagonalgestalt, und aus Eigenvektoren von . Dann hat ist nach Satz 6.10.1 orthogonal. die Transformationsmatrix 6.11.6 Satz (Hauptachsentransformation symmetrischer Bilinearformen) Es sei . Dann gibt eine symmetrische Bilinearform und es eine Orthonormalbasis von derart, daß .. . .. . .. . .. . .. . .. . ist, wobei alle Eigenwerte von in ihrer Vielfachheit gezählt sind. und Sind die Eigenwerte so geordnet, daß , sind, so gibt es eine Orthogonalbasis , so daß 214 .. . .. . 6.11. Selbstadjungierte Endomorphismen .. . . .. . ist. . . .. . .. . .. . .. . .. . .. . Beweis: Die Matrix ist symmetrisch, da eine symmetrische Bilinearform ist. Wenden wir Satz 6.11.5 auf an, so transformiert sich die kanonische Basis zu , bezüglich der die geforderte Diagonalgestalt einer Orthonormalbasis , so definieren wir hat. Ist Dann ist für für sonst. eine Orthogonalbasis, und es gilt , womit die behauptete Gestalt erhält. 6.11.7 Bemerkung Die Tatsache, daß eine reelle symmetrische Matrix nur reelle Eigenwerte hat, ist zunächst erstaunlich und hat “analytische” Gründe. Wir arbeiten im mit dem kanonischen Skalarprodukt und betrachten die quadratische Form Diese definiert eine stetige Funktion . Die -Sphäre ist kompakt, und daher gibt es ein . Wir mit behaupten, daß ein Eigenvektor von ist. Dazu betrachten wir den Raum . Gilt für alle , so ist und damit ein Eigenvektor. Sei also . Wir können normieren, so annehmen dürfen. wir daß und Nun wählen wir ein und setzen Da und senkrecht aufeinander stehen, folgt und damit , und wir erhalten 215 6. Euklidische und unitäre Vektorräume woraus sich nach Division durch ergibt. Sind und nicht orthogonal, so dürfen wir, indem wir gegebenfalls durch ersetzen, annehmen. Setzen wir nun und damit , . Also waren und orthogonal und so ergibt sich der Widerspruch ist ein Eigenvektor. Wegen folgt für den dazugehörigen Eigenwert schon . Damit ist der Eigenwert zum Eigenvektor . Das Verfahren läßt sich nun iterieren, indem man die quadratische Form betrachtet, diese nimmt auf der -Sphäre wieder ihr Maximum an einem Eigenvektor an, und ein reeller Eigenwert läßt sich wie eben berechnen. So erhält man letztendlich, daß alle Eigenwerte reell sind. Dies liefert auch ein Verfahren zur numerischen Berechnung von Eigenwerten und Eigenvektoren. 6.11.8 Bemerkung Der Name Hauptachsentransformation erklärt sich aus der zugeordvorherigen Bemerkung. Durch die einer symmetrischen Bilinearform im euklinete quadratische Form wird eine Kurve erklärt. Im kann dies ein Ellipse oder Hyperbel, im ein dischen Raum Ellipsoid oder Hyperboloid sein. Ist ein Vektor in , der Eigenvektor zum Eigenwert der darstellenden von bezüglich der kanonischen Basis ist, so gilt Matrix für Eig und damit und damit . Die Eigenvektoren der Matrix, welche die quadra- tische Form bezüglich der kanonischen Basis darstellt, zeigen dann, wie in 6.11.7 gezeigt, in die Richtung der Hauptachsen der quadratischen Kurven. Wir wollen dies an einem Beispiel im klarmachen. Sei eine Bilinearform mit darstellender Matrix ist dann Das charakteristische Polynom von Daraus errechnen sich die Eigenwerte . Für erhalten wir zu und und die dazugehörigen normierten Eigenvektoren 216 und 6.11. Selbstadjungierte Endomorphismen und Die zu gehörende quadratische Form Kurve definiert eine quadratische , so erhalten wir Ist die Orthonormalbasis aus Eigenvektoren, so erhalten wir . Ist und damit für (6.34) Die gemischten Glieder sind also verschwunden. Um diese Tatsache anschaulich und darzustellen, nehmen wir und an und setzen . Dann erhält (6.34) die Form Im Falle von ist die Kurve eine Ellipse und im Falle von eine Hyperbel, deren Hauptachsen und sind. Die Hauptachsentransformation bewirkt also eine Drehung des Koordinatensystems in Richtung der Hauptachsen. 217 Index Symbole , 2 , 22 , 22 , 24 , 26 , 2 , 2 , 2 , 2 , 3 , 3 , 5 , 27 ,5 , 5 ,6 mod , 11 , 27 , 32 , 33 , 37 , 38, 37 , 11 Pow , 11 , 11 dom , 11 rng , 11 feld , 11 , 11 , 12 , 12 dom , 12 Im , 12 , 12 , 12 , 13 , 13 id , 13 , 21 , 22 , 39 , 39 , 40 Abb , 40 , 40 , 40 , 40 Abb , 40 , 41 , 41 , 41 , 42 , 42 , 42 Kern , 45 218 , 42 , 42 INDEX , 47 , 47 , 47 Kern , 47 Kern , 48 , 48 , 49 mod , 49 , 50 , 51 , 52 , 55 Hom , 61 Hom , 61 End , 62 , 62 GL GL , 62 , 66 , 81 , 81 , 81 , 81 , 83 , 83 , 84 Rang , 87 Rang , 87 , 69 , 70 , 72 , 72 , 72 , 72 , 72 , 68 , 68 , 78 , 68 , 67 , 67 , 67 , 100 , 100 Char , 103 , 113 , 113 , 114 , 117 , 120 , 122 , 123 , 126 , 126 , 126 , 126 , 131 , 132 , 132 , 133 , 138 , 142 Eig , 142 , 144 , 150 , 151 Bkern , 171 Bkern , 171 , 172 Bkern , 174 , 175 , 66 , 66 ,, 66 , 6766 , 81 , 78 , 73 , 74 219 INDEX , 178 , 179 , 179 , 179 , 180 , 180 , 181 , 183 , 183 , 187 , 190 , 191 , 191 , 192 , 192 , 192 , 192 Bkern , 194 , 195 , 200 , 201 , 202 , 203 , 203 , 203 220 , 184 Stichworte elementare, 89 Betrag einer komplexen Zahl, 194 Beweis durch Iteration, 37 bijektiv, 12 Bild einer Funktion, 12 einer Menge unter einer Funktion, 12 Bilinearform, 171 alternierende, 172 antisymmetrische, 172 negativ definite, 178 nicht ausgeartete, 172 positiv definite, 177 positiv semi-definite, 177 symmetrische, 172 Bilinearkern, 171 -Vektorraum, 25 Übergangsmatrix, 84 Äquivalenzrelation, 10 Abbildung, 12 duale, 74 involutorische, 77 lineare, 53 semilineare, 194 unitäre, 202 Abstandsfunktion, 179 affiner Raum, 100 Algebra, 71, 149 assoziative, 150 der quadratischen Matrizen, 71 algebraisch über , 152 allgemeine orthogonale Gruppe, 191 allgemeine unitäre Gruppe, 202, 203 alternierend, 116 Angelpunkte, 95 Antihomomorphismus, 69 Antiisomorphismus, 71 Argument einer komplexen Zahl, 194 assoziiert, 133 aufgespannter Raum, 27 Aussagen, 1 aussagenlogische Operation, 2 aussagenlogischen Operationen, 2 Aussonderungsaxiom, 6 Auswahlaxiom, 34 Auswahlfunktion, 34 Automorphismus, 46 Cauchy-Schwarzsche Ungleichung, 178, 198 Cayley Satz von Hamilton–C., 169 Charakteristik eines Körpers, 103 charakteristische Gleichung, 143 charakteristische Polynom, 144 Cofaktor, 126 Cosinus-Satz, 182 Definitionsbereich, 11, 12 Determinante einer Matrix, 122 eines Endomorphismus, 120 Determinantenfunktion, 116 nicht triviale, 116 diagonalisierbar, 148 Differenzenraum Basis, 30 duale, 73 kanonische, 40 Basistransformation 221 INDEX eines affinen Raumes, 100 Dimension einer Algebra, 150 eines Vektorraumes, 37 Domain, 11 Drehung eigentliche, 190 uneigentliche, 190 Drehungen, 190 Dreiecksungleichung, 179 duale Abbildung, 74 dualer Raum, 72 Durchschnitt, 7 zweier Klassen/Mengen, 7 Eigenraum, 142 Eigenvektor, 142 Eigenwert, 142 Einbettung kanonische, 48 kanonische von in , 77 Einheit, 131 Einheitsmatrix, 67 Einsetzungshomomorphismus, 151 Element invertierbares, 131 Elementarmatrizen, 90 endlich erzeugt, 28 Endomorphismenring, 62 Endomorphismus, 46 adjungierter, 173 diagonalisierbarer, 148 nilzyklischer, 161 selbstadjungierter, 173, 213 unitärer, 202 vertauschbarer, 148 Entwicklung einer Determinante, 128 Epimorphismus, 46 kanonischer, 48, 52 222 Erzeugendensystem, 27 minimales, 30 Erzeugnis, 27 Extensionalität, 5 für fast alle, 40 Faktorgruppe, 48, 52 Feld, 11 Funktion, 12 inverse, 13 partielle, 11 totale, 12 Gaußsches Eliminationsverfahren, 95 Gerade, 104, 183 Gleichungssystem homogenes, 105 lineares, 98 Grad eines Polynoms, 41, 138 Gruppe, 20 abelsche, 21 allgemeine lineare, 62, 71 allgemeine orthogonale, 187, 191 allgemeine unitäre, 202, 203 alternierende, 115 kommutative, 21 spezielle orthogonale, 190, 192 spezielle unitäre, 202, 203 symmetrische, 22, 113 halbeinfacher Anteil, 157 halbeinfaches Element, 154 Halbgruppe, 19 Halbordnung, 10 strikte, 10 Hamilton Satz von H.–Cayley, 169 Hauptachsentransformation, 214 Hauptdiagonale, 66 Hauptideal, 132 INDEX Hauptidealring, 134 hermitesch, 194 hermitesche Form, 194 Hessesche Normalform, 183 Homomorphiesatz für Gruppen, 49 für Vektorräume, 56 Homomorphismus, 45 der Vektorräume, 53 von Algebren, 150 von Gruppen, 45 Hyperebene, 183 Ideal, 132 beidseitiges, 132 erzeugtes, 132 linkes, 132 rechtes, 132 idempotent, 154 Identität, 13 Imaginärteil, 192 Index einer Untergruppe, 51 Indexmenge, 7 Induktionsanfang, 16, 33 Induktionsbehauptung, 15 Induktionsschritt, 16, 33 Induktionsvoraussetzung, 15 Infixnotation, 10 injektiv, 12 Integritätsbereich, 133 Integritätsring, 23 invertierbar, 131 Isometrie, 187 isomorph, 47 Isomorphismus, 46 affiner Räume, 101 kanonischer, 76 Junktoren, 2 Kästchenschreibweise von Matrizen, 70 Körper, 24 algebraisch abgeschlossener, 139 kommutativer, 24 kanonisch isomorph, 76 kanonische Skalarprodukt, 180, 199 Kardinalzahl, 33 Kern eines Homomorphismus, 45 Kette in einer Halbordnung, 34 Klassen, 5 Klassendifferenz, 7 Komplement algebraisches, 126 eines Teilraumes, 58 orthogonales, 78, 182, 199 Komplementärmatrix, 126 komplexe Zahlen, 192 Komplexifizierung, 200 komponentenweise Definition, 39 Komposition, 11 Konjugation, 193 konjungiert Komplexe, 193 Koordinatendarstellung, 59, 83 konjungierte, 196 Koordinatenvektoren, 83 Koprodukt von Vektorräumen, 42 Kroneckersymbol, 39 verallgemeinertes, 41 Körper, 24 Länge eines Vektors, 181 Leere Menge, 6 Lemma von Zorn, 34 Limesschritt, 33 Limeszahlen, 33 223 INDEX linear abhängig, 28 linear unabhängig, 29 lineare Abbildung, 53 lineare Mannigfaltigkeit, 103 lineares Gleichungssystem , 98 Linearform, 72 Linearkombination, 28 linksinverses Element, 20 linksneutrales Element, 19 Matrix, 65 geränderte, 99 hermitesche, 213 invertierbare, 71 konjungierte, 126 nilzyklische, 164 normale, 207 orthogonale, 191 positiv definite, 180 symmetrische, 176, 213 transponierte, 72 unitäre, 203 Matrixdarstellung einer Bilinearform, 175 eines Homomorphismus, 68 Matrixmultiplikation, 69 maximal linear unabhängig, 30 maximales Element, 34 Mengenfamilie, 7 Metrik, 179 metrischer Raum, 179 Minimalpolynom, 151, 152 Minimalzerlegung, 157 Monomorphismus, 46 multilinear, 116 Nachbereich, 11 Nachfolgerzahlen, 32 Nebendiagonale, 66 Nebenklasse 224 linke, 50 negatives Element, 67 neutrales Element, 19 nilpotent, 153 nilpotenter Anteil, 157 nilzyklisch, 161 Norm, 179 eines Endomorphismus, 202 euklidische, 135 Normalform Jordansche, 168 Normalteiler, 52 Normfunktion, 179 normierter Raum, 179 normierter Vektor, 181 Nullideal, 132 Nullmatrix, 67 Nullstelle, 139 Nullteiler linker, 23 rechter, 23 Ordinalzahlen, 31 Ordnung, 10 einer Gruppe, 51 strikte, 10 Ordnungen äquivalente, 31 Ordnungstypus, 31 orthogonal, 78, 181, 199 Orthogonalbasis, 185 orthogonale Matrizen, 191 orthogonale Summe, 184 Orthogonalsystem vollständiges,, 154 Orthonormalbasis, 185 Paar geordnetes, 9 Paarmenge, 7 INDEX Partition, 47 Permutation, 22, 113 gerade, 115 ungerade, 115 Pivots, 95 Polynom charakteristisches, 144 irreduzibles, 141 konstantes, 139 Polynome, 41 Polynomring, 138 Potenzmenge, 8 Potenzmengenaxiom, 8 Primelement, 134 Produkt inneres zweier Vektoren, 70 kartesisches, 17 von Matrizen, 69 von Vektorräumen, 42 Punkte eines affinen Raumes, 100 punktweise Definition, 39 quadratische Form, 178, 197 Quelle einer Funktion, 12 Quotientengruppe, 48, 52 Quotientenraum, 56 Rang einer linearen Abbildung, 87 einer Matrix, 87 range, 11 Raum affiner, 100 metrischer, 179 Realteil, 192 rechtsinverses Element, 20 rechtsneutrales Element, 19 Rekursion, 16 transfinite, 33 Rekursionsvorschrift, 16, 33 Relation, 10 antireflexive, 10 antisymmetrische, 10 konnexe, 10 konverse, 11 lineare, 10 rechtseindeutige, 11 reflexive, 10 symmetrische, 10 transitive, 10 relativ prim, 134 Ring, 22 der Polynome, 42 euklidischer, 136 faktorieller, 137 kommutativer, 22 mit , 22 nullteilerfreier, 23 Rotation eigentliche, 190 uneigentliche, 190 Rotationen, 190 Satz des Pythagoras, 182 Schiefkörper, 24 Schranke obere für eine Kette, 34 selbstadjungiert, 173 semilinear, 194 senkrecht, 78, 199 Sesquilinearform, 194 indefinite, 198 negativ definite, 198 nicht ausgeartete, 194 positiv definite, 198 positiv semi-definite, 198 Sesquilinearkern, 194 Signatur 225 INDEX einer Permutation, 114 Skalarprodukt, 180, 199 kanonisches, 180 kanonisches auf , 199 von Vektoren, 70 Spalte einer Matrix, 66 Spaltenrang, 93 Spaltenumformungen elementare, 91 Spaltenvektoren, 67 Span, 27 spezielle orthogonale Gruppe, 190, 192 spezielle unitäre Gruppe, 202, 203 Spiegelung an einer Hyperebene, 188 split über , 154 Spur, 144 einer Matrix, 145 eines Endomorphismus, 145 Strecke ine einem affinen Raum, 100 Stufenlinie, 95 Summe direkte von Vektorräumen, 42 orthogonale, 184 von Unterräumen, 57 direkte, 57 surjektiv, 12 Teiler, 133 gemeinsamer, 134 teilerfremd, 134 Teilklasse, 5 Teilmenge, 5 Teilraum, 26 invarianter, 162 Teilring, 23 Transformationsmatrix, 84 Transformationssatz, 85 226 Transposition, 113 transzendent über ., 152 Unbekannte, 98 Unbestimmte, 41 Unbestimmten, 138 Unendlichkeitsaxiom, 8 unitärer Raum, 199 Universum mathematisches, 5 Untergruppe, 21 Unterraum zyklischer, 161 Unterring, 23 Untervektorraum, 26 Vektorprodukt, 150 Vektorraum, 25 endlich erzeugt, 28 euklidischer, 180 komplexer, 198 normierter, 179 reeller, 177 unitärer, 199 Vereinigung, 7 zweier Klassen/Mengen, 7 Vereinigungsmengenaxiom, 7 Verknüpfung, 19 assoziative, 19 vertauschbar, 148, 157 Verträglichkeit einer Äquivalenzrelation, 52 Vielfachheit algebraische, 145 einer Wurzel, 139 geometrische, 147 vollständiges Orthogonalsystem, 154 Vollständige Induktion, 15, 16 Vorbereich, 11 Winkel, 181 INDEX Wohldefiniertheit einer Abbildung, 48 Wohlordnung, 14 Wohlordnungssatz, 33 Wurzel eines Polynoms, 139 Zahlen ganze, 22 natürliche, 14, 21, 32 rationale, 22 Zeile einer Matrix, 66 Zeilenrang, 93 Zeilenstufenform, 95 Zeilenumformungen elementare, 91 Zeilenvektoren, 67 Ziel einer Funktion, 12 227