apl. Prof. Dr. G. Herbort - Bergische Universität Wuppertal

Werbung
1
Ausarbeitung der Vorlesung
Lineare Algebra 1
Studiengänge Bachelor, Master, Diplom und Lehramt Mathematik
SS 2006 - apl. Prof. Dr. G. Herbort
Bergische Universität Wuppertal
2
Bücher zur Vorlesung
M. Köcher: Lineare Algebra, Springer Grundwissen Mathematik, Band 4
H.J. Kowalski: Lineare Algebra, de Gruyter-Verlag
G. Fischer: Lineare Algebra, Vieweg-Verlag
F. Lorenz: Lineare Algebra I und II, BI-Taschenbuch
U. Storch: Lehrbuch der Mathematik, Band II: Lineare Algebra, BI-Verlag Mannheim
E. Brieskorn: Lineare Algebra und analytische Geometrie II, Vieweg-Verlag 1985
W. Klingenberg, P. Klein: Lineare Algebra und analytische Geometrie II, BI-Verlag Mannheim, Band 749
R. Valenza: Linear Algebra , Springer-Verlag, Undergraduate Text, 1993
T.S. Blyth, E. Robertson: Further Linear Algebra , Springer-Verlag, Undergraduate Text,
2002
Inhaltsverzeichnis
1 Lineare Gleichungssysteme
1.1 Elementares über Mengen . . . . . . . . . .
1.2 Lösbarkeit linearer Gleichungssysteme . . . .
1.2.1 Matrixkalkül . . . . . . . . . . . . . .
1.3 Allgemeine Vektorraumstrukturen . . . . . .
1.3.1 Gruppen und Körper . . . . . . . . .
1.3.2 Vektorräume. Der Dimensionsbegriff
3
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
5
5
11
13
26
26
36
4
INHALTSVERZEICHNIS
Kapitel 1
Lineare Gleichungssysteme
Abstrakte Vektorraumstrukturen
1.1
Elementares über Mengen
Wir wollen uns zuerst mit Schreibweisen aus der Mengenlehre bekannt machen. Die Mengenlehre
selbst ist von dem Mathematiker Georg Cantor (1845 - 1918) ”erfunden” worden. Anlass dazu
waren Fragen zur Konvergenz von Fourierreihen. Für uns sollen die Schreibweisen und Grundregeln der Mengenlehre nur insofern Bedeutung haben, als sie das angemessene Ausdrucksmittel
sind, mit dem sich mathematische Inhalte in der gewünschten Klarheit beschreiben lassen.
Die folgende Definition einer Menge stammt von Cantor:
Definition. Eine Menge ist eine Zusammenfassung von wohlunterschiedenen Objekten unserer
Anschauung oder unseres Denkens zu einem Ganzen.
Ist also M eine Menge, so schreiben wir x ∈ M , wenn das Objekt x zur Menge M gehört und
x∈
/ M , wenn es nicht zu M gehört.
Zwei Mengen M1 und M2 sind genau dann gleich, wenn jedes Objekt x, das zu M1 gehört,
auch schon zu M2 gehört und ebenso jedes Objekt x, das zu M2 gehört, auch schon zu M1 gehört.
Die Objekte, welche zu einer Menge gehören, werden als deren Elemente bezeichnet.
Beispiele. Die natürlichen Zahlen, die ganzen Zahlen, die rationalen Zahlen oder auch die
reellen Zahlen bilden wichtige Beispiele von Mengen. Sie werden mir IN, ZZ, Q bezw. mit IR
bezeichnet. Wir werden später noch die Menge C der komplexen Zahlen kennen lernen.
Man kann Mengen zum Beispiel durch Aufzählen ihrer Elemente darstellen
M = {x1 , x2 , x3 , ....}
sofern man ihre Elemente abzählen kann:
5
6
KAPITEL 1. LINEARE GLEICHUNGSSYSTEME
Beispiele: Die Menge ZZ der ganzen Zahlen:
ZZ = {0, 1, −1, 2, −2, 3, −3, 4, −4, ....}
oder die Menge IN 2 aller Paare natürlicher Zahlen
IN 2 = {(1, 1), (1, 2), (2, 1), (1, 3), (2, 2), (3, 1), (1, 4), (2, 3), (3, 2), (4, 1), ....}
Achtung: Eine solche Aufzählung ist aber nicht immer möglich:
Beispiel: Die reellen Zahlen lassen sich nicht abzählen, ebenso nicht irgendein Intervall reeller
Zahlen!
Wir können zwei Mengen miteinander vergleichen
Definition. Sind A und M zwei Mengen, so nennen wir A eine Teilmenge von M , wenn jedes
Element von A schon zu M gehört. Wir schreiben dann: x ∈ A =⇒ x ∈ M , oder
A⊂M
oder
M ⊃A
Folgendes leuchtet nun ein:
• Stets ist M ⊂ M ,
• Es ist A = M genau dann, wenn A ⊂ M und M ⊂ A gilt,
• Wenn B ⊂ A und A ⊂ M , so ist auch B ⊂ M .
Auswahlregel. Ist M eine Menge, so kann man auf folgende Weise neue Mengen aus M
gewinnen:
• Ist P ein Merkmal, das Objekte aus M haben können oder nicht, so kann man alle Elemente
x aus M , die das Merkmal P aufweisen, zu einer Menge zusammenfassen:
{x ∈ M | x hat P}
Achtung: Dieses Prinzip funktioniert nur innerhalb einer gegebenen Menge (hier M ).
Merkmale allein definieren im allgemeinen keine Menge!
Als Beispiel denke man an die Russelschen Antinomien (B. Russel (1872-1970), britischer
Mathematiker, Philosoph, Nobelpreisträger für Literatur). Das Gebilde
M := {S | S Menge S ∈
/ S}
kann keine Menge sein!
1.1. ELEMENTARES ÜBER MENGEN
7
Vereinigung von Mengen
Angenommen, M sei eine gegebene Menge. Für zwei Teilmengen A, B von M sei dann A ∪ B
die Menge derjenigen Elemente von M , welche zu A oder zu B gehören. Dabei ist zugelassen,
dass Elemente sowohl zu A als auch zu B gehören. Die so entstehende Menge heißt dann die
Vereinigung von A und B. Für sie verwenden wir das Symbol A ∪ B, also
A ∪ B = {x ∈ M | x ∈ A oder x ∈ B}
Beispiele: 1) Für die Menge der ganzen Zahlen haben wir die Zerlegung
ZZ = {x ∈ ZZ | x ist von der Form x = 2k, k ∈ ZZ}
∪{x ∈ ZZ | x ist von der Form x = 2k + 1, k ∈ ZZ}
2) Die Menge M aller Paare (x, y) mit |x| = |y| ist darstellbar als
M = {(x, x) | x ∈ IR} ∪ {(x, −x) | x ∈ IR}
Wir notieren einfache Regeln für die Vereinigungsbildung: Sind A, B und C Teilmengen einer
Menge M , so gilt
• A∪B =B∪A
• (A ∪ B) ∪ C = A ∪ (B ∪ C)
• Genau dann ist A ⊂ B, wenn A ∪ B = B,
Es lassen sich auch Vereinigungen beliebig vieler Mengen bilden. Wir können dies so formulieren: Sei I eine beliebige Menge (etwa I = IN oder I = ZZ, oder I = IR). Angenommen, zu
jedem i ∈ I sei eine Teilmenge Ai ⊂ M gegeben. Dann bezeichnet
[
Ai
A :=
i∈I
die Teilmenge von M , welche genau aus allen Elementen all dieser Ai besteht. Anders gesagt:
Eine Element x ∈ M gehört genau dann zu A, wenn es zu einer der Mengen Ai gehört.
Beispiele. 1) Ist etwa I = {k ∈ IN | k ≥ 2} und bezeichnen wir mit Ak die Menge aller ganzen
Zahlen, die sich durch k teilen lassen, so ist
ZZ \ {−1, 1} =
∞
[
Ak
k=2
2) Ist etwa M die Menge, die aus der Ebene durch Herausnehmen des Ursprungs (0, 0)
entsteht, und ist Mt für t > 0 die Menge aller Punkte, die vom Ursprung einen Abstand von
mindestens t haben, so ist
[
M=
Mt
t>0
8
KAPITEL 1. LINEARE GLEICHUNGSSYSTEME
Durchschnitte von Mengen.
Sei wieder M eine Menge. Für zwei Teilmengen A, B von M sei dann A ∩ B die Menge
von Elementen aus M , die sowohl Element von A als auch von B sind. Diese Menge heißt der
Durchschnitt von A mit B und wird mit A ∩ B bezeichnet, also
A ∩ B = {x ∈ M | x ∈ A und x ∈ B }
Beispiele. 1) Ist etwa M = ZZ und Ak die Menge aller der Zahlen, welche durch k teilbar sind,
so haben wir
A6 = A2 ∩ A3
Allgemeiner: Wenn m und ` zwei teilerfremde ganze Zahlen sind (d.h.: Es gibt keine ganze Zahl
d, die m und gleichzeitig ` teilt), so ist
Am` = Am ∩ A`
Es gelten sinngemäß die Regeln, die wir auch schon bei der Vereinigungsbildung notiert haben.
Sind A, B und C Teilmengen einer Menge M , so gilt
• A∩B =B∩A
• (A ∩ B) ∩ C = A ∩ (B ∩ C),
• Genau dann ist A ⊂ B, wenn A ∩ B = A.
Desgleichen können wir auch Durchschnitte beliebig vieler Teilmengen von M bilden: Ist also
I eine Indexmenge und (Ai )i∈I eine Familie von Teilmengen von M , so bezeichnet
\
A :=
Ai
i∈I
die Teilmenge von M , deren Elemente in allen Ai zugleich gelegen sind. Anders gesagt: Eine
Element x ∈ M gehört genau dann zu A, wenn es zu jeder der Mengen Ai gehört.
Beispiel. Ist M die ganze Ebene und t > 0, so sei At der Kreis um den Ursprung O mit Radius
t. Dann gilt
\
{O} =
At
t>0
Die leere Menge. Es kommt vor, dass innerhalb einer Menge M keine Elemente existieren,
die ein bestimmtes Merkmal P aufweisen: Man kann diesen Sachverhalt innerhalb der Mengenlehre mit Hilfe der leeren Menge, ausdrücken, die durch das Symbol ∅ beschrieben wird:
{x ∈ M | x hat P} = ∅
1.1. ELEMENTARES ÜBER MENGEN
9
Diese Menge vertritt in etwa dieselbe Rolle beim Rechnen mit Mengen wie die Null beim Addieren
von Zahlen. Man denkt sie sich als Menge, die kein Element enthält und vereinbart, dass ∅
Teilmenge jeder Menge ist.
Ein oft auftretendes Merkmal ist etwa dieses: Sind A und B zwei Teilmengen von M , die
keine gemeinsamen Elemente haben, so kann man das durch
A∩B =∅
darstellen. Man nennt A und B dann disjunkt. Etwas allgemeiner schreibt man für endlich viele
Mengen A1 , A2 , ..., An ⊂ M , dass
A1 ∩ A2 ∩ ... ∩ An = ∅
wenn keine Elemente in M existieren, die in allen A1 , ..., An zugleich enthalten sind.
Übungsaufgabe: Die Aussage A1 ∩ A2 ∩ ... ∩ An = ∅ ist gleichbedeutend damit, dass zu
jedem Element x ∈ M ein Index j ∈ {1, ..., n} existiert, so dass x ∈
/ Aj .
Die Operationen der Vereinigung und Durchschnittsbildung ”vertragen” sich in dem folgenden
Sinne gut miteinander:
1.1.1 Lemma. Sind A, B, C Teilmengen einer gegebenen Menge M , so gilt
• (A ∪ B) ∩ C = (A ∩ C) ∪ (B ∩ C)
• (A ∩ B) ∪ C = (A ∪ C) ∩ (B ∪ C)
Komplementbildung. Ist A Teilmenge einer Menge M , so fasst man alle nicht zu A gehörenden Elemente aud M zu einer neuen Menge Ac zusammen, die man das Komplement von A in
M nennt. Man schreibt auch Ac = M \ A dafür:
/ A}
Ac = M \ A = {x ∈ M | x ∈
Folgende Regeln sind offensichtlich
• (Ac )c = A für jede Menge A ⊂ M
• M c = ∅, und ∅c = M ,
• Genau dann ist A ⊂ B, wenn B c ⊂ Ac gilt
Mit den Vereinigungs-und Durchschnittsbildungen verträgt sich die Komplementbildung ebenfalls:
1.1.2 Lemma.(de Morgansche Regeln) Sind A und B Teilmengen einer gegebenen Menge M ,
so gelten die Regeln
10
KAPITEL 1. LINEARE GLEICHUNGSSYSTEME
• (A ∪ B)c = Ac ∩ B c
• (A ∩ B)c = Ac ∪ B c
Entsprechendes gilt bei unendlichen Vereinigungen und Durchschnitten: Ist I eine Indexmenge
und (Ai )i∈I eine Familie von Teilmengen von M , so wird
!c
[
\
Ai =
Aci
i∈I
und
\
i∈I
i∈I
!c
Ai
=
[
Aci
i∈I
Potenzmenge einer Menge
Die Welt ist nicht nur in Mengen und Elemente eingeteilt: Was eben noch als Menge angesehen
wurde, kann bei anderer Gelegenheit selbst Element einer Menge sein. Dafür lernen wir ein erstes
Beispiel kennen:
Ist M eine Menge, so können wir die Gesamtheit aller Teilmengen von M selbst zu einer
Menge zusammenfassen. Diese wird die Potenzmenge von M genannt und mit dem Symbol
P(M ) bezeichnet, also
P(M ) = {A | A ⊂ M }
Der Name rührt von der Tatsache her, dass, wenn etwa M eine Menge mit ` Elementen ist, dann
P(M ) genau 2` Elemente hat.
Beispiel. a) Ist etwa M = ∅, so haben wir P(M ) = {∅}
b) Ist M = {1}, so wird P(M ) = {∅, M },
c) Wenn M = {1, 2} ist, so folgt P(M ) = {∅, {1}, {2}, M }
d) Schließlich sei M = {1, 2, 3}, so finden wir
P(M ) = {∅, {1}, {2}, {3}, {1, 2}, {1, 3}, {2, 3}, M }
e) Angenommen nun, es sei M = IN . Dann ist die Menge P(M ) schon so groß, dass man ihre
Elemente nicht mehr abzählen kann. ( Diese Menge ist überabzählbar!)
Kartesische Produkte
Angenommen, wir haben zwei Mengen M1 und M2 gegeben. Dann können wir alle Paare
(x1 , x2 ), die aus einem Element x1 ∈ M1 und einem Element x2 ∈ M2 bestehen, zu einer neuen
Menge M1 × M2 zusammemfassen, die man das kartesische Produkt von M1 und M2 nennt
(benannt nach dem frz. Mathematiker René Descartes (1596-1650) ).
1.2. LÖSBARKEIT LINEARER GLEICHUNGSSYSTEME
11
Beispiele. 1) Werfen wir mit 2 Würfeln, so lässt sich die Menge M aller möglichen Ergebnisse
als kartesisches Produkt schreiben:
M = {1, 2, 3, 4, 5, 6} × {1, 2, 3, 4, 5, 6}
2) Die Ebene IR2 ist darstellbar als kartesisches Produkt von IR mit sich selbst, also
IR2 = IR × IR
Entsprechend kann man das kartesische Produkt von endlich vielen Mengen M1 , ..., Mk bilden:
Das ist die Menge aller Kollektionen (x1 , ..., xk ) (man nennt diese auch k-Tupel) von Elementen,
wobei x1 ∈ M1 , x2 ∈ M2 ,..., xk ∈ Mk gehört.
M1 × M2 × ... × Mk = {(x1 , ..., xk ) | x1 ∈ M1 , x2 ∈ M2 , ..., xk ∈ Mk }
Sind alle Mengen M1 , ..., Mk gleich einer Menge M , so schreibt man kurz M k statt M × .... × M .
Beispiele. 1) Angenommen, an einem Empfang nehmen k Personen teil und man fragt, mit
welcher Wahrscheinlichkeit haben zwei von ihnen am selben Tag Geburtstag, so kann man für dieses Problem ein mathematisches Modell entwerfen, bei dem man die Menge S aller Verteilungen
von Geburtstagen auf Personen verwenden muss. Diese ist gegeben durch
S = {1, 2, 3, 4, ...., 365}k
2) Der Anschauungsraum ist nichts anderes als die Menge IR3 ,
3) Datensätze, etwa die Ergebnisse einer Messreihe sind durch Elemente aus der Menge IRn
aller n-Tupel reeller Zahlen (Vektoren) darstellbar.
1.2
Lösbarkeit linearer Gleichungssysteme
Jeder hat schon einmal ein lineares Gleichungssystem gesehen. Es lässt sich allgemein so darstellen: Man hat eine Anzahl d von Gleichungen, welche von n Variablen erfüllt werden sollen:
a11 x1 + a12 x2 + ... + a1n xn = b1
a21 x1 + a22 x2 + ... + a2n xn = b2
..
.. ..
.
. .
ad1 x1 + ad2 x2 + ... + adn xn = bd
Dann sind die folgenden Rechenregeln erfüllt
Dabei sind a11 , ..., adn Zahlen, ebenso die b1 , ..., bn . Die x1 , ..., xn sind die Unbekannten.
Es stellen sich folgende Fragen
12
KAPITEL 1. LINEARE GLEICHUNGSSYSTEME
• Wie entscheidet man, ob es Lösungen gibt oder nicht?
• Wie errechnet man alle Lösungen, wenn es denn solche gibt?
Dazu ist ein Kalkül entwickelt worden, der auch Gauß-Algorithmus genannt wird.
Das Koeffizientenschema


a11 a12 . . . a1n
 a21 a22 . . . a2n 


A =  ..
..
.. 
 .
.
. 



heißt die Matrix und die Spalte b = 

b1
b2
..
.
(1.2.1)
ad1 ad2 . . . adn



 nennen wir die Daten des linearen Gleichungssystems.

bd
Allgemeiner wollen wir Spalten mit n reellen Einträgen, künftig auch Spaltenvektoren genannt,
zu einer Menge IRn zusammenfassen. Der Ausdruck x ∈ IRn bedeutet: x soll ein n-komponentiger
Spaltenvektor sein.
Auch die Gesamtheit aller Matrizen mit d Zeilen und n Spalten, auch d×n-Matrizen genannt,
fassen wir zu einer Menge zusammen, die wir mit M (d × n, IR) bezeichnen wollen. (Denn alle
Koeffizienten sollen dem Zahlenbereich IR der reellen Zahlen angehören). Die Notation A ∈
M (d × n, IR) soll bedeuten: A ist eine d × n-Matrix. Wir schreiben statt (1.2.1) auch
A = (aij )1≤i≤d,1≤j≤n
Wir können auf IRn und M (d × n, IR) Strukturen feststellen.
• Addition zweier Spaltenvektoren:




x1
y1




Für x =  ...  , y =  ...  setzen wir
xn
yn


x1 + y1


..
x + y := 

.
xn + yn
• Addition zweier Matrizen:
Zwei Matrizen


a11 a12 . . . a1n
 a21 a22 . . . a2n 


A =  ..
..
..  ,
 .
.
. 
ad1 ad2 . . . adn



B=


b11 b12 . . . b1n
b21 b22 . . . b2n 

..
..
.. 
.
.
. 
bd1 bd2 . . . bdn
1.2. LÖSBARKEIT LINEARER GLEICHUNGSSYSTEME
lassen sich addieren, wenn wir setzen:

a11 + b11 a12 + b12 . . . a1n + b1n
 a21 + b21 a22 + b22 . . . a2n + b2n

A + B := 
..
..
..

.
.
.
ad1 + bd1 ad2 + bd2 . . . adn + bdn
13





n
Ferner können wir eine reelle Zahl α mit
 Spaltenvektor x ∈ IR und mit einer Matrix
 einem
x1
 .. 
A ∈ M (d × n, IR) multiplizieren: Sei x =  .  ∈ IRn und A ∈ M (d × n, IR). Dann sei
xn




αa11 αa12 . . . αa1n
αx1
 αa21 αa22 . . . αa2n 
 .. 


αx :=  .  , αA :=  ..
..
.. 
 .
.
. 
αxn
αad1 αad2 . . . αadn
Es gelten dann die folgenden Rechenregeln
Für Spaltenvektoren x, y, z ∈ IRn und Matrizen A, B, C ∈ M (d × n, IR) und reelle Zahlen α, β
gilt
(x + y) + z = x + (y + z),
x + y = y + x,
α(x + y) = αx + αy,
(α + β)x = αx + βx,
α(βx) = (αβ)x,
1.2.1
(A + B) + C = A + (B + C),
Assoziativität
A + B = B + A,
Kommutativität
α(A + B) = αA + αB
Distributivgesetze
(α + β)A = αA + βA
α(βA) = (αβ)A, gemischtes Assoziativgesetz
Matrixkalkül
Es gibt eine weitere, feinsinnigere Struktur:
• Multiplikation bei Matrizen:

x1


Sei A = (aij )1≤i≤d,1≤j≤n ∈ M (d × n, IR) und x =  ...  ∈ IRn , so soll A · x das folgende
xn
bedeuten


a11 x1 + a12 x2 + a13 x3 + ... + a1n xn
 a21 x1 + a22 x2 + a23 x3 + ... + a2n xn 


A · x := 

..


.
ad1 x1 + ad2 x2 + ad3 x3 + ... + adn xn

14
KAPITEL 1. LINEARE GLEICHUNGSSYSTEME
Dies ist also eine Spalte mit d Einträgen.
Beispiele. 1) Es gilt etwa



3
36
4 8 −3 5


 3 −2 −1 6  ·  2  =  12 
 −1 
2
1 0
2 1
1



2) Sei e1 die Spalte mit n Einträgen, deren erster Eintrag gleich 1 ist, während die anderen
alle Null sein sollen. Weiter sei e2 die Spalte mit n Einträgen, deren zweiter Eintrag gleich 1
ist, während die anderen alle Null sein sollen. Allgemein bezeichnen wir mit ej diejenige Spalte,
deren j-te Stelle gleich 1 ist, während die anderen gleich Null sind.
Dann ist


a1j
 a2j 


A · ej =  .. 
 . 
adj
gerade die j-te Spalte der Matrix A.
• Wichtig: Der Ausdruck A · x kann nur gebildet werden, wenn x soviele Komponenten hat,
wie A Spalten besitzt!!
• Matrixprodukt:
Sei A ∈ M (d × k, IR) und B ∈ M (k × n, IR). Dann soll mit A · B diejenige Matrix bezeichnet
werden, deren j-te Spalte gerade durch A · (B · ej ) gegeben ist. Dabei kann j die Werte 1, ..., n
annehmen. Somit ist also A · B eine (d × n)-Matrix. Der Eintrag, der in dieser Matrix in der i-ten
Zeile und j-ten Spalte steht, ist also gerade
ai1 b1j + .... + aik bkj
wenn aij die Einträge von A
Beispiele. Es gilt

2
 −2
8
Das Matrixprodukt
und br` diejeingen von B bezeichnet.

 
 
−1
5
2
3
3 1
1 −4  ·  −2 −4  =  −10 −54 
25
14
1 11
1 11

 
2 3 1
2
3
 −2 −4  ·  −2 1 −4 
8 1 11
1 11

ist dagegen nicht definiert.
Wir stellen fest, dass folgende Rechenregeln für die Matrixmultiplikation gelten:
1.2. LÖSBARKEIT LINEARER GLEICHUNGSSYSTEME
15
1.2.3 Lemma. a) Ist A = (aij )1≤i≤d,1≤j≤n ∈ M (d × n, IR) eine Matrix und sind x, y ∈ IRn , so
gilt
A · (αx + βy) = αA · x + βA · y
b) Sei A wie unter a). Für zwei Matrizen B, C mit n Zeilen und r Spalten gilt dann
A · (B + C) = A · B + A · C
c) Seien B ∈ M (n × k, IR) und C ∈ M (k × r, IR). Dann gilt das Assoziativgesetz
A · (B · C) = (A · B) · C
Beweis. a) wird nachgerechnet.
b) folgt aus a) zusammen mit der Definition des Matrizenproduktes.
c) Wir vergleichen die j-te Spalte der links und rechts stehenden Matrix. Sei etwa C =
(cij )1≤i≤k,1≤j≤r . Dann gilt, wenn ei die r-komponentige Spalte bezeichnet, an deren i-ter Stelle 1
steht und an den anderen Stellen 0:
C · ej = c1j e01 + c2j e02 + . . . + ckj e0k
wobei die e0` ∈ IRk analoge Bedeutung haben, wie die ej . Es folgt mit Hilfe von a)
(B · C) · ej = B(c1j e01 + c2j e02 + . . . + ckj e0k )
= c1j Be01 + c2j Be02 + . . . + ckj Be0k
Nun bilden wir A · (B · C)ej . Das ist die j-te Spalte der links stehenden Matrix. Wieder mit a)
erhalten wir
A · (B · C)ej =
=
=
=
A · (c1j Be01 + c2j Be02 + . . . + ckj Be0k )
c1j A · Be01 + c2j A · Be02 + . . . + ckj A · Be0k
A · B · (c1j e01 + c2j e02 + . . . + ckj e0k )
(A · B) · (C · ej )
Letzterer Ausdruck ist aber gerade die j-te Spalte von (A · B) · C. Die jeweiligen Spalten beider
Matrizen stimmen überein, also insgesamt beide Matrizen.
• Achtung: Die Matrixmultiplikation erfüllt kein Kommutativgesetz, auch nicht, wenn die
Matrizen genauso viele Zeilen wie Spalten haben. Hier ist ein Beispiel
0 1
0 0
1 0
·
=
0 0
1 0
0 0
aber
0 0
1 0
0 1
0 0
·
=
0 0
0 1
16
KAPITEL 1. LINEARE GLEICHUNGSSYSTEME
Wir können nun ein lineares Gleichungssystem stets in der Form
A·x=b
schreiben, wobei A die Koeffizientenmatrix, b die Daten und x die Spalte gebildet aus den
Unbekannten x1 , ..., xn bedeutet.
Das sieht formal aus wie die leicht zu lösende lineare Gleichung
ax = b
mit Zahlen a 6= 0 und b. Hier kann die Lösung durch x = ab gefunden werden.
Mit der Division durch Matrizen ist es aber nicht so einfach bestellt. An die Stelle der Division tritt nun das Verfahren, die Matrix A und die Daten b innerhalb gewisser Regeln derart
umzuformen, dass bei den Zwischenschritten lineare Gleichungssysteme entstehen, welche dem
gegebenen äquivalent sind, also dieselbe Lösungsmenge besitzen.
Invertierbare Matrizen
Die Matrizen aus M (n, IR) := M (n × n, IR) nennen wir künftig quadratische Matrizen.
Für eine Klasse von quadratischen Matrizen lässt sich eine zur Matrixmultiplikation inverse
Operation durchführen.
Als n × n-Einheitsmatrix bezeichnen wir die folgende Matrix aus M (n, IR):


1 0 ... 0
 0 1 ... 0 


En :=  ..
. . . .. 
 .
. 
0
... 1
Das ist also die quadratische n-reihige Matrix, deren Diagonalelemente alle 1 sind, während
alle anderen Einträge 0 sein sollen.
Wir rechnen leicht aus, dass En sich bei Multiplikation neutral verhält:
Ist x ∈ IRn und A ∈ M (n × k, IR) und B ∈ M (d × n, IR) so ist
En · x = x,
En · A = A,
B · En = B
Definition. Wir nennen eine Matrix A ∈ M (n, IR) invertierbar, wenn eine Matrix A0 ∈
M (n, IR) mit A0 · A = En existiert. Die Menge der invertierbaren Matrizen wird mit GL (n, IR)
bezeichnet.
Zum Beispiel ist En invertierbar.
Hier sind erste Eigenschaften invertierbarer Matrizen:
1.2. LÖSBARKEIT LINEARER GLEICHUNGSSYSTEME
17
1.2.4 Lemma. a) Mit zwei Matrizen A, B ∈ GL (n, IR) ist auch A · B invertierbar.
b) Angenommen, es sei A ∈ M (d × n, IR) und B ∈ GL (d, IR).
Dann löst x ∈ IR das genau dann das lineare Gleichungssystem
A · x = b,
wenn x Lösung zum linearen Gleichungssystem
BA · x = B · b
ist.
Beweis. a) Sind A, B ∈ GL (n, IR) und A0 und B 0 zu A und B so gewählt, dass A0 · A =
B 0 · B = En , so gilt
B 0 · A0 · (A · B) = B 0 · (A0 · A) · B = B 0 · B = En
b) Ist x Lösung zu A · x = b, so folgt leicht B · A · x = B · b.
Ist umgekehrt x eine Lösung zu B · A · x = B · b, und ist B 0 eine d × d-Matrix mit B 0 · B = Ed ,
so ist
A · x = (B 0 · B) · (A · x) = B 0 · (B · A · x) = B 0 · (B · b) = b
Sei nun wieder A eine allgemeine d × n-Matrix und b ∈ IRd . Wir wollen nun durch Multiplikation von A mit geeigneten Matrizen aus GL (d, IR) das lineare Gleichungssystem
A·x=b
äquivalent umformen, um zu einem neuen linearen Gleichungssystem zu gelangen, das einfacher
strukturiert ist und dennoch dieselbe Lösungsmenge hat wie das gegebene.
Dazu arbeiten wir mit sog. Elementarmatrizen:
Das sind Matrizen vom folgenden Typ:
i) Für 1 ≤ i < j ≤ d sei






P(i, j) := 





1
..
.
0
..
.
0
..
.
0
j.te Spalte 
0 ... ... ... 0
.. 
. 

... ... 1 ... 0 
.. 
. 

... 1 ... ... 0 

.. 
. 
0 ... ... ... 1
i.te Spalte
i.te Zeile
j.te Zeile
18
KAPITEL 1. LINEARE GLEICHUNGSSYSTEME
Das ist genau die Matrix, die aus Ed entsteht, wenn wir die Spalten Nummer i und j vertauschen.
Da P(i, j) · P(i, j) = Ed , ist sicher P(i, j) ∈ GL (d, IR).
Dann wird P(i, j) · A die Matrix werden, die durch Vertauschen der Zeilen Nummer i und
j aus A entsteht.
ii) Sei für α 6= 0 und 1 ≤ i ≤ d:


1 ...
... 0
. 
 .. . .
.
 .
. . . .. 
 .
.. 
 .. . . .
α
. 
 i.te − Stelle
M(i, α) := 

 .
.
.
. . .. 
 .. . . .
0 ...
... 1
M(i, α) entseht also aus Ed dadurch, dass das i.te Diagonalelement durch α ersetzt wird.
Wegen α 6= 0 ist M(i, α) ∈ GL (d, IR), und
M(i, α) · M(i, 1/α) = M(i, 1/α) · M(i, α) = Ed
Die Matrix M(i, α)·A entsteht dann aus A dadurch, dass in A die i.te Zeile mit α multipliziert
wird.
iii) Für 1 ≤ i, j ≤ d sei Eij die Matrix, deren in Zeile i und Spalte j stehender Eintrag gleich
1 ist, während alle anderen Einträge 0 sind. Dann haben wir zunächst
0, wenn j 6= k
Eij · Ek` =
Ei` , wenn j = k
Wenn nun i 6= j, ist für jedes α ∈ IR die Matrix Ed + αEij invertierbar, und ihre Inverse ist
Ed − αEij . Multiplizieren wir nun A von links mit Ed + αEij , so bewirkt dies bei A, dass zur i.ten
Zeile von A das α-fache der j.ten Zeile addiert wird.
Zeilenstufenform einer Matrix
Definition. Gegeben sei eine Matrix A ∈ M (d×n). Dann sagen wir, A sei in Zeilenstufenform,
wenn gilt:
• Es existiert eine Zahl 1 ≤ r ≤ d, so dass genau die ersten r Zeilen von A ungleich Null sind
und
• bezeichnen wir für k ∈ {1, ..., r} mit jk die Nummer der ersten Stelle in der k.-ten Zeile,
an der ein von 0 verschiedenes Element steht, so ist
j1 < j2 < j3 < ... < jr ≤ n
1.2. LÖSBARKEIT LINEARER GLEICHUNGSSYSTEME
19
Beispiele: a) Diese Matrix hat Zeilenstufenform: (hier ist d = n = 5)



A=


1
0
0
0
0

3 −2 2 4
0 4 4 8 

0 0 0 −1 

0 0 0 0 
0 0 0 0
denn es gilt r = 3 und j1 = 1, j2 = 3, j3 = 5.
b) Diese Matrix ist dagegen nicht in Zeilenstufenform:



A=



1
3 −2 2 4
−1 −1 4 4 8 

0
1
0 0 −1 

0
0
0 0 0 
0
0
0 0 0
denn es ist j1 = j2 (= 1).
Allgemein hat eine Matrix A ∈ M (d × n, IR) in Zeilenstufenform also solch ein Aussehen:








A=







0
0
0
..
.
. . . a1j1 . . . . . . . . . . . . . . . . . .
. . . . . . . . . a2j2 . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . a3j3 . . .
.
. . . . . . . . . . . . . . . . . . . . . ..
0 ...
0 ...
0 0
.. ..
. .
0 0
... ...
... ...
... ...
...
...
...
...
...
...
...
...
...
... ...
... ...
... ...
...
...
...
...
.
. . . ..
... ...
... ...
...
...
...
...
...
...
...
... ...
... ...
...
...
... ... ...
... ... ...
...
...
...
...
... ...
. . . arjr
... ...
...
...
. . . a1n
. . . a2n
. . . a3n
.
. . . ..
.
. . . ..
. . . arn
0
0
..
..
.
.
0
















0
Wir zeigen jetzt:
1.2.5 Satz. Jede Matrix A ∈ M (d × n, IR) kann durch Linksmultiplikationen mit Elementarmatrizen (man nennt dies auch elementare Zeilenumformungen von A) in eine Matrix in Zeilenstufenform gebracht werden.
Beweis. Angenommen, es sei
20
KAPITEL 1. LINEARE GLEICHUNGSSYSTEME





A=



a11 ,
a21 ,
a31 ,
..
.
..
.
ad1 ,
a12 ,
a22 ,
a32 ,
..
.
..
.
ad2 ,
. . . . . . a1n
. . . . . . a2n
. . . . . . a3n
.
. . . . . . ..
.
. . . . . . ..
. . . . . . adn









Wir suchen die erste Spalte in A, die nicht nur aus Nullen besteht. Ihre Nummer nennen wir
j1 .
Folgende Schritte werden ausgeführt:
• Wir suchen einen Eintrag in Spalte j1 , der nicht Null ist.
Wenn a1j1 = 0, so steht an einer Stelle i1 ∈ {2, ..., d} ein derartiger Eintrag. In diesem Fall
vertauschen wir die Zeilen 1 und i1 miteinander
Das führt auf die Matrix

A(1)






=






0 . . . 0 ai1 j1 , ai1 j1 +1 ,
0 . . . 0 a2j1 , a2j1 +1 ,
0 . . . 0 a3j1 , a3j1 +1 ,
..
..
0 ... 0
.
.
0 . . . 0 0,
a1j1 +1 ,
..
..
0 ... 0
.
.
..
..
0 ... 0
.
.
0 . . . 0 adj1 , adj1 +1 ,
. . . . . . ai1 n
. . . . . . a2n
. . . . . . a3n
.
. . . . . . ..
. . . . . . a1n
.
. . . . . . ..
.
. . . . . . ..
. . . . . . adn














i1 . − te Stelle
Ist a1j1 6= 0, so brauchen wir an der Matrix A keine Zeilenvertauschungen vorzunehmen.
Der nächste Schritt:
• Man subtrahiere für jedes ` = 2, ...., d, für das a`j1 6= 0 ist, von der `.-ten Zeile das
der 1. Zeile.
a`j1
-fache
ai1 j1
1.2. LÖSBARKEIT LINEARER GLEICHUNGSSYSTEME
Es entsteht eine Matrix der Gestalt:

0 . . . 0 ai1 j1 ,
 0 . . . 0 0,

 0 . . . 0 0,

..

 0 ... 0
.
(2)
A =
 0 . . . 0 0,

..
 0 ... 0
.


.
..
 0 ... 0
0 ... 0
0
ai1 j1 +1 ,
a02j1 +1 ,
a03j1 +1 ,
..
.
a01j1 +1 ,
..
.
..
.
a0d j1 +1 ,
. . . . . . ai1 n
. . . . . . a02n
. . . . . . a03n
.
. . . . . . ..
. . . . . . a01n
.
. . . . . . ..
.
. . . . . . ..
. . . . . . a0dn
21














Nächster Schritt:
• Wir suchen in A(2) die erste Spalte, bei der an einer der Stellen 2 bis d ein von Null
verschiedener Eintrag steht. Ist keine solche Spalte da, so sind wir fertig, und es ist r = 1.
Anderenfalls gibt es eine solche Spalte, deren Nummer wir j2 nennen. Dann ist j2 > j1 .
An einer geeigneten Stelle in der j2 .ten Spalte von A(2) steht ein von Null verschiedenes
Element, etwa an der i2 .ten Stelle, (mit 2 ≤ i2 ≤ d). Sollte i2 nicht gleich 2 wählbar sein, so
vertauschen wir in A(2) die Zeilen 2 und i2 miteinander und erhalten eine neue Matrix von der
Form:


0 . . . 0 ai1 j1 , ai1 j1 +1 , . . . . . . . . . . . . . ai1 n
 0 . . . 0 0,
0
. . . ai2 j2 . . . . . . . . . a0i2 n 


0

 0 . . . 0 0,
0,
.
.
.
a
.
.
.
.
.
.
.
.
.
a
3j
2
3n



..
..
..
.. 
 0 ... 0
.
.
.
... ... ... ... . 


(2)
..
A =

0
0
.
.
.
0
0,
0,
.
.
.
.
.
.
.
.
.
.
.
.
.
a

1n 

..
..
..
.. 
 0 ... 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. 



..
..
..
.. 
 0 ... 0
.
...
.
...
. ... ... . 
0 . . . 0 0,
0
. . . adj2 . . . . . . . . . a0dn
a
Für ` = 3, ..., d subtrahieren wir von der `.-ten Zeile das ai` jj2 -fache der 2. Zeile. Heraus kommt
2 2
dann eine Matrix von der Gestalt:


0 . . . 0 ai1 j1 , ai1 j1 +1 , . . . . . . . . . . . . . ai1 n
 0 . . . 0 0,
0
. . . ai2 j2 . . . . . . . . . a0i2 n 


0

 0 . . . 0 0,
0,
.
.
.
0
.
.
.
.
.
.
.
.
.
a
3n 


.. 
..
..
 0 ... 0
. 
.
.
.
.
0
.
.
.
.
.
.
.
.
.
.


(3)
..
A =

0
.
.
.
.
.
.
.
.
.
.
a
0
.
.
.
0
0,
0,
.
.
.

1n 

.. 
..
..
..
 0 ... 0
. 
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.



..
..
..
.. 
 0 ... 0
.
...
.
...
. ... ... . 
0 . . . 0 0,
0
. . . 0 . . . . . . . . . a0dn
22
KAPITEL 1. LINEARE GLEICHUNGSSYSTEME
Hat der Teil der Matrix A(3) , der unterhalb der 2. Zeile liegt, keine von Null verschiedene Spalte
mehr, so ist das Verfahren zu Ende, und r = 2, sonst fahren wir in analoger Weise fort, solange
bis wir auf eine Matrix von Zeilenstufengestalt kommen, was nach spätestens d Schritten erreicht
ist.
Beispiel. Die Matrix



A=


Hier ist j1 = 2. Subtrahieren wir von
2-fache der 1. Zeile, so entsteht



A0 = 


0 1 2 −4
0 0 0 0
0 1 2 −4
0 1 2 −4
0 2 4 −8
der 3. und 4.
0
0
0
0
0
1
0
0
0
0

29 −41
40 −69 

−3 3 

53 −60 
18 −17
Zeile die 1. Zeile und von der 5. Zeile das
2 −4 29 −41
0 0
40 −69
0 0 −32 44
0 0
24 −19
0 0 −40 65
In A0 addieren wir zur 2. Zeile die 3. Zeile und

0 1 2
 0 0 0

A00 = 
 0 0 0
 0 0 0
0 0 0
finden die
−4 29
0
8
0 −32
0
24
0 −40






Matrix

−41
−25 

44 

−19 
65
Nun addieren wir hierin zur 3. Zeile das 4-fache der 2. Zeile, zur 4. Zeile das (−3)-fache der 2.
Zeile und zur 5. Zeile das 5-fache der 2. Zeile und gelangen zu der Matrix


0 1 2 −4 29 −41
 0 0 0 0 8 −25 


000

A =
 0 0 0 0 0 −56 
 0 0 0 0 0 56 
0 0 0 0 0 −60
Nun addieren wir zur 4. Zeile die 3. Zeile
entsteht die Zeilenstufenmatrix

0
 0

Azsf = 
 0
 0
0
und zur 5. Zeile das (−15/14)-fache der 3. Zeile. Es
1
0
0
0
0

2 −4 29 −41
0 0 8 −25 

0 0 0 −56 

0 0 0
0 
0 0 0
0
1.2. LÖSBARKEIT LINEARER GLEICHUNGSSYSTEME
23
Für die Diskussion um die Lösbarkeit linearer Gleichungssyssteme ergibt sich aus dem Satz
von der Zeilenstufengestalt einer Matrix das folgende Lösbarkeitskriterium.
1.2.6 Satz. Angenommen, es sei A ∈ M (d × n, IR) und b ∈ IRd . Nehmen wir an A Zeilenoperationen vor, um A in Zeilenstufengestalt Azsf zu bringen, so bedeute b∗ den Vektor, der aus
b dadurch entsteht, dass man alle diese Zeilenoperationen auch an b vornimmt. Wenn dann die
oberen r Zeilen in Azsf ungleich Null sind und ab der (r +1)-ten alle Zeilen in Azsf verschwinden,
so hat das 
lineareGleichungssystem A · x = b genau dann mindestens eine Lösung, wenn b∗ die
b∗1
 .. 
 . 
 ∗ 
 b 
Form b∗ =  r  hat.
 0 
 . 
 .. 
0
Beweis. Bezeichnen wir das Produkt aller Elementarmatrizen, die zur Gewinnung einer Zeilenstufenform von A nötig sind, mit M(∈ GL (d, IR) ), so ist also b∗ = M · b. Angenommen,
das Gleichungssystem A · x = b habe mindestens eine Lösung. Dann gilt dies auch für das Gleichungssystem Azsf · x = M · A · x = b∗ . Nun hat aber Azsf von der (r + 1)-ten Stelle an nur noch
Nullzeilen, so dass auch b∗ ab der (r + 1)-ten Stelle nur noch Nullen haben darf.
 ∗ 
b1
 .. 
 . 
 ∗ 
 b 
∗
Umgekehrt nehmen wir jetzt an, es sei b =  r . Dann machen wir für einen gesuchten
 0 
 . 
 .. 
0
Lösungsvektor x den Ansatz:
x = xj1 ej1 + ... + xjr ejr
wobei ek ∈ IRn den früher schon eingeführten ”Basisvektor” (mit 1 an der k-ten Stelle und
0 anden anderen
Stellen) bedeuten soll. Dann soll also der nunmehr r-komponentige Vektor

xj1
 .. 
x
e =  .  ein lineares Gleichungssystem der Form
xjr

b∗1


D·x
e =  ... 
b∗r

24
KAPITEL 1. LINEARE GLEICHUNGSSYSTEME
lösen, wobei D ∈ M (r, IR) aus Azsf dadurch entsteht, dass die letzten d − r Zeilen und dann
noch die Spalten mit Nummer k ∈
/ {j1 , j2 , ...., jr } weggelassen werden. Dann hat D die Gestalt


d11 d12 . . . d1r
 0 d22 . . . d2r 


D =  ..
.. 
.
.
 .
. . 
0 . . . . . . drr
mit d11 , ...., drr 6= 0.

b∗1


Die letzte der Gleichungen in D · x
e =  ...  lautet nun einfach drr xjr = b∗r und wird durch
b∗r
∗
xjr = dbrrr gelöst. Damit gehen wir in die zweitletzte Geichung ein, also dr−1 r−1 xjr−1 + dr−1 r xjr =
b∗r−1 , was dann eine lineare Gleichung in xjr−1 ergibt, die wegen dr−1 r−1 6= 0 nach xjr−1 aufgelöst
werden kann. So fahren wir fort und finden den Lösungsvektor x
e und damit auch x.
Beispiele. Wir studieren das Gleichungssystem

5x1 + 4x2 − 4x3 −
x4 = 2
3x1 + 2x2 + 2x3 + 4x4 = t
−14x1 − 12x2 + 20x3 + 12x4 = s
 
2
Hier ist d = 3, n = 4 und b =  t . Wir fügen b als weitere Spalte zu A hinzu und erhalten
s
die erweiterte Koeffizientenmatrix


5
4 −4 −1 2





2
2
4 t 
Ab =  3





−14 −12 20 12 s
Dieses Gleichungssystems ist genau dann lösbar, wenn s − 2t + 8 = 0. Das sehen wir so:
Die Operation: 2.Zeile- 35 mal 1. Zeile überführt (A, ~b) in


5
4 −4 −1 2




2
22
23
t− 6 
A1 = 
0
−
5
5
5
5 



−14 −12 20 12 s
1.2. LÖSBARKEIT LINEARER GLEICHUNGSSYSTEME
25
Die Operation: 3.Zeile+ 14
mal 1. Zeile überführt A1 in
5

5
4


2
A2 = 
 0 −5

0 −4
5
−4 −1 2
22
23
t− 6
5
5
5
44
46
s + 28
5
5
5






Schließlich subtrahieren wir von der 3. Zeile das 2-fache der 2. Zeile und erhalten die neue
Matrix


 
5 4 −4 −1 2
5 4 −4 −1 2


 




ZSF
2
22
23

 =  0 − 2 22 23 t − 6
t− 6
A
0
−
:= 


 
5
5
5
5
5
5
5
5


 
6
s
−
2t
+
8
0 0
0
0 s + 28
−
2(t
−
)
0
0
0
0
5
5

2
. Daran können wir alles
Nun ist j1 = 1, j2 = 2, und r = 2. Ferner: b∗ =  t − 65
s − 2t + 8
ablesen.

Eine Matrix kann auf verschiedene Weisen in Zeilenstufenform
gebracht werden.
Vertauschen wir etwa in der obigen erweiterten Matrix Ab die Zeilen 1 und 3 miteinander,
so entsteht


 −14 −12 20 12 s 




 3
t 
2
2
4




5
4 −4 −1 2
3
5
Nun addieren wir zur 2. das ( 14
)-fache der 1. Zeile und zur 3. das ( 14
)-fache der 1. Zeile und
finden


 −14 −12 20 12 s





4
3
44
46  0

−
t
+
s

7
7
7
14



5
23
2
+
0
− 27 22
s
7
7
14
26
KAPITEL 1. LINEARE GLEICHUNGSSYSTEME
Schließlich subtrahieren wir von der 3. Zeile das ( 12 )-fache der 2. Zeile und erhalten


 −14 −12 20 12 s





4
3
44
46  0

− 7 7 7 t + 14 s




5
3
0
0
0 0 2 + 14
s − 12 t − 28
s
Die Bedingung 2 +
5
s
14
− 12 t −
3
s
28
= 0 ist mit s − 2t + 8 = 0 äquivalent.
Es werden folgende Fragen nahegelegt:
• Ist die Zahl r aus dem Satz von der Zeilenstufenform einer Matrix eindeutig bestimmt, also
unabhängig von der Art, in der die Matrix auf Zeilenstufenform gebracht wurde?
• Wie können wir zuverlässig klären, ob die Menge der Lösungen, die wir mit dem Zeilenstufenverfahren für das lineare Gleichungssystem gefunden haben, vollständig ist, also alle
Lösungen auf diesem Wege gefunden sind?
Da etwa im Zusammenhang mit Aufgaben aus der linearen Optimierung (Minimierung von
Transportkosten u.ä.) lineare Gleichungssysteme mit sehr vielen Unbekannten auftreten, ist eine
allgemeine Theorie nötig, Beispielrechnungen reichen nicht.
Die für unsere Probleme relevante Theorie zu entwickeln, soll Anliegen des nächsten Abschnittes sein. Gleichzeitig wollen wir in Bezug auf den Zahlenbereich (hier die Menge der reellen
Zahlen) Abstraktionen vornehmen.
1.3
1.3.1
Allgemeine Vektorraumstrukturen
Gruppen und Körper
Bei den Rechnungen des vorherigen Abschnitts haben wir im Bereich der reellen Zahlen gearbeitet. Der Grund hierfür ist
a) In IR haben wir die Rechenoperationen ”+” und ”·”, welche den folgenden Regeln genügen
i) Mit x, y ∈ IR ist auch x + y ∈ IR
ii) Für x, y, z ∈ IR gilt (x + y) + z = x + (y + z)
iii) Es gilt x + 0 = x für jedes x ∈ IR
1.3. ALLGEMEINE VEKTORRAUMSTRUKTUREN
27
iv) Es gilt x + (−x) = 0 für jedes x ∈ IR
Entsprechend haben wir für die Menge IR∗ := IR \ {0}
i’) Mit x, y ∈ IR∗ ist auch x · y ∈ IR∗
ii’) Für x, y, z ∈ IR∗ gilt (x · y) · z = x · (y · z)
iii’) Es gilt x · 1 = x für jedes x ∈ IR∗
iv’) Es gilt x · (1/x) = 1 für jedes x ∈ IR∗
Weiter haben wir
v) Es gilt x · (y + z) = x · y + x · z für alle x, y, z ∈ IR.
Die auf IR durch i)-iv) und auf IR∗ durch i’)-iv’) beschriebene Struktur ist das Ausschlaggebende, nicht die Menge IR selbst.
Unser erster Abstraktionsschritt ist nun dieser:
Definition. Eine nicht-leere Menge G, auf der eine Rechenoperation ”·” erklart ist, wird eine
Gruppe genannt, wenn gilt:
G1) Mit x, y ∈ G ist auch x · y ∈ G
G2) Für x, y, z ∈ G gilt (x · y) · z = x · (y · z)
G3) Es gibt ein Element e ∈ G mit e · x = x für alle x ∈ G
G4) Zu jedem x ∈ G existiert ein x0 ∈ G mit x0 · x = e
Wir schreiben auch xy statt x · y und nennen e auch das neutrale Element von G. Das in G4)
zu x ∈ G geforderte Element x0 ∈ G heißt zu x invers.
Wenn zu den Gruppenaxiomen G1)-G4) noch das Gesetz xy = yx für alle x, y ∈ G erfüllt
wird, so wird G auch abelsche Gruppe genannt (nach dem norwegischen Mathematiker Niels
Hendrik Abel (1802-1829)).
Der folgende Satz besagt, dass der Gruppenbegriff insofern konsistent ist, dass nur ein neutrales Element und zu jedem x ∈ G nur ein inverses Element existiert.
1.3.1 Satz. Ist G mit der Rechenoperation ”·” eine Gruppe, so gilt
a) Ist x ∈ G und x0 ∈ G wie in G4) gewählt, so gilt x · x0 = e
b) Für jedes x ∈ G ist x · e = x
c) Zu jedem x ∈ G existiert genau ein inverses Element
c) Es gibt nur genau ein Element e ∈ G, dass Forderung G3) erfüllt.
Beweis. Zu a). Wir wählen zu x0 ∈ G ein inverses Element x00 . Dann wird (wiederholte
Ausnutzung von G2)!)
x · x0 = (x00 · x0 ) · (x · x0 ) = x00 · (x0 · (x · x0 )) = x00 · ((x0 · x) · x0 ) = x00 · (e · x0 ) = x00 · x0 = e
b) Sei x ∈ G und x0 ∈ G zu x invers. Dann ist
x · e = x · (x0 · x) = (x · x0 ) · x = e · x = x
28
KAPITEL 1. LINEARE GLEICHUNGSSYSTEME
Zu c) Sind x01 , x02 ∈ G inverse Elemente zu x ∈ G, so folgt
x02 = e · x02 = (x01 · x) · x02 = x01 · (x · x02 ) = x01 · e = x01
nach b), also kann es zu x nicht zwei verschiedene inverse Elemente geben.
Zu d) Angenommen, e, f ∈ G erfüllen beide Axiom G3). Dann folgt aus b)
e=e·f =f
Beispiele. Neben den Gruppen (IR,00 +00 ) und IR∗ ,00 ·00 ) gibt es viele weitere Beipiele für Gruppenstrukturen:
a) Man kann IR durch den Bereich Q der rationalen Zahlen ersetzen.
b) Wir definieren auf der Menge G := {1, 2, 3, 4} die folgende ”Multiplikation”
1 ◦ 1 = 1,
1 ◦ 2 = 2,
1 ◦ 3 = 3,
1◦4=4
2 ◦ 1 = 2,
2 ◦ 2 = 4,
2 ◦ 3 = 1,
2◦4=3
3 ◦ 1 = 3,
3 ◦ 2 = 1,
3 ◦ 3 = 4,
3◦4=2
4 ◦ 1 = 4,
4 ◦ 2 = 3,
4 ◦ 3 = 2,
4◦4=1
Dann wird G eine Gruppe. Dazu beobachten wir, dass x ◦ y = r ist, wobei r der Rest ist, der
beim Teilen von xy durch 5 bleibt.
Zu G2):
Seien x, y, z ∈ G.
Zu zeigen ist, dass (x ◦ y) ◦ z = x ◦ (y ◦ z) gilt. Man könnte dies durch Fallunterscheidungen
verifizieren, wobei 43 = 64 Fälle durchzugehen wären. Das können wir aber vermeiden:
Wir schreiben xy = 5m + r und rz = 5k + s mit m, k ∈ ZZ und r, s ∈ {1, 2, 3, 4}. Dann wird
x ◦ y = r und
(x ◦ y) ◦ z = r ◦ z = s
Entsprechend schreiben wir yz = 5µ + ρ und xρ = 5κ + σ mit µ, κ ∈ ZZ und ρ, σ ∈ {1, 2, 3, 4}.
Dann ist
x ◦ (y ◦ z) = x ◦ ρ = σ
Aus (xy)z = x(yz) folgt nun sogleich
5(mz + k) + s = (xy)z = x(yz) = 5(µx + κ) + σ
also sind σ und s ganze Zahlen aus {1, 2, 3, 4}, deren Differenz durch 5 teilbar ist. Das geht nur,
wenn s = σ ist. Das heißt aber gerade, dass
(x ◦ y) ◦ z = x ◦ (y ◦ z)
1.3. ALLGEMEINE VEKTORRAUMSTRUKTUREN
29
Zu G3) Offenbar dient 1 als neutrales Element.
Zu G4) 1 ist zu sich selbst invers, 2 und 3 sind zueinander invers und 4 wieder zu sich selbst.
Da obige Tabelle zur Diagonalen symmetrisch ist, ist G sogar abelsch.
Wir verallgemeinern das obige Beispiel wie folgt:
Sei p eine Primzahl, also p > 1 und nur 1 und p sei Teiler von p. Für eine Zahl x ∈ ZZ sei
rp (x) der Rest, der beim Teilen von x durch p bleibt, also
x = a · p + rp (x), mit a ∈ ZZ, rp (x) ∈ {0, 1, 2, 3, ..., p − 1}
Wir setzen dann IF ∗p := {1, ..., p − 1}, versehen mit der Multiplikation
x ◦ y := rp (xy)
Dann ist (IF ∗p , ◦) eine abelsche Gruppe mit 1 als neutralem Element.
Zu G2) Wir wiederholen das Argument von früher: Seien x, y, z ∈ IF ∗p . Dann schreiben wir
xy = mp + r und rz = kp + s mit m, k ∈ ZZ und r, s ∈ {1, 2, ..., p − 1}. Dann wird x ◦ y = r und
(x ◦ y) ◦ z = r ◦ z = s
Entsprechend schreiben wir yz = µp+ρ und xρ = κp+σ mit µ, κ ∈ ZZ und ρ, σ ∈ {1, 2, ..., p−1}.
Dann ist
x ◦ (y ◦ z) = x ◦ ρ = σ
Aus (xy)z = x(yz) folgt nun sogleich
(mz + k)p + s = (xy)z = x(yz) = (µx + κ)p + σ
also sind σ und s ganze Zahlen aus {1, 2, ..., p − 1}, deren Differenz durch p teilbar ist. Das geht
nur, wenn s = σ ist.
Das beweist das Assoziativgesetz in IF ∗p .
Zu G3) Wieder dient 1 als neutrales Element.
Zu G4) Sei a ∈ {1, ..., p − 1}. Gesucht ist ein b ∈ {1, ..., p − 1}, so dass ab − 1 durch p teilbar
ist. Dann gilt nämlich a ◦ b = 1 in IF ∗p .
Zur Auffindung von b untersuchen wir die folgende Menge:
I = {x ∈ ZZ | es gibt α, β ∈ ZZ mit x = α a + βp}
Können wir nachweisen, dass 1 3 I , so gibt es b, c ∈ ZZ mit ba + cp = 1, also ist ba − 1 = −cp
durch p teilbar, wie gewünscht. Nachdem wir, wenn nötig, von b ein Vielfaches von p abziehen,
erreichen wir, dass zusätzlich b ∈ {1, ...., p − 1}.
Die Menge I ist mit der Addition ganzer Zahlen eine Gruppe. Weiter folgt aus x ∈ I und
k ∈ ZZ, dass sogar kx ∈ I . Offenbar ist a, p ∈ I . Es gibt nun eine kleinste positive ganze Zahl
30
KAPITEL 1. LINEARE GLEICHUNGSSYSTEME
r ∈ I . Wir behaupten, dass r = 1 sein muss. Anderenfalls könnten wir p mit Rest r > s ≥ 1
durch r teilen, also p = qr + s. Aber dann wäre ja s = p − qr ∈ I , also wäre r nicht die kleinste
positive Zahl in I !
So erkennen wir, dass 1 ∈ I sein muss, und wir haben gezeigt, dass G4) erfüllt ist.
Zu G1): Sind a, b ∈ IF ∗p , so ist zunächst mit geeigneten k, ` ∈ ZZ doch ka + `p = 1. Wäre nun
a·b ∈
/ {1, ..., p − 1}, so müsste ab durch p teilbar sein, also wäre b = k ab + `bp durch p teilbar,
Widerspruch!
Beispiele a) Sei p = 127 und a = 45.
Dann ist p = 2a + 37. Weiter ist 45 = 37 + 8 und 37 = 4 · 8 + 5. Sodann finden wir 8 = 5 + 3
und weiter 5 = 3 + 2. Nun verfolgen wir alles zurück und sehen
1 =
=
=
=
=
=
3−2
3 − (5 − 3) = −5 + 2 · 3
2 · 8 − 3 · 5 = 2 · 8 − 3 · (37 − 4 · 8)
−3 · 37 + 14 · 8 = −3 · 37 + 14 · (45 − 37)
14a − 17 · 37 = 14a − 17(p − 2a)
48a − 17p
Also 48 · 45 = 17 · 127 + 1, d.h.: Es ist 48 ◦ 45 = 1 in IF ∗127 .
b) Sei p = 7919 und a = 1232. Dann ist p = 6a + 527, weiter a = 2 · 527 + 178 und
527 = 2 · 178 + 171, sowie 178 = 171 + 7 und 171 = 24 · 7 + 3. Dann haben wir 7 = 2 · 3 + 1. Das
führt auf
1 =
=
=
=
7 − 2 · 3 = 7 − 2(171 − 24 · 7) = 49 · 7 − 2 · 171
49 · 178 − 51 · 171 = 49 · 178 − 51(527 − 2 · 178) = 151 · 178 − 51 · 527
151(a − 2 · 527) − 51 · 527 = 151a − 353 · 527 = 151a − 353(p − 6a)
2269a − 353p
Somit finden wir 1232 ◦ 2269 = 1 in IF ∗7919 .
Allgemein sei nun p prim und a ∈ {2, ...., p − 1}. Dann schreiben wir p = k1 a + a1 , mit k1 ∈ ZZ
und a2 ∈ {1, ...., a − 1}. Dann: a = k2 a1 + a2 , mit k2 ∈ ZZ und a2 < a1 . Da a1 kein Teiler von p ist,
muss a2 ≥ 1 sein. Danach schreiben wir a1 = k3 a2 + a3 , wobei k3 ganz und der Rest a3 ≥ 1 sein
muss und kleiner als a2 . (Warum?) So fortfahrend erhalten wir eine Folge a > a1 > a2 > .... ≥ 1
von Zahlen a` , für die immer a`−2 = k` a`−1 + a` mit ganzzahligem k` gilt. Diese Folge muss
irgendwann etwa im Schritt s bei as = 1 endigen. Dann erhalten wir
1 =
=
=
=
as−2 − ks as−1
as−2 − ks (as−3 − ks−1 as−2 ) = −ks as−3 + (1 + ks ks−1 )as−2
−ks as−3 + (1 + ks ks−1 )(as−4 − ks−3 as−3 )
−(ks + (1 + ks ks−1 )ks−3 )as−3 + (1 + ks ks−1 )as−4
1.3. ALLGEMEINE VEKTORRAUMSTRUKTUREN
31
So fortfahrend gelangen wir zu einer Darstellung ma + tp = 1 mit ganzen Zahlen m ∈
{1, ...., p − 1} und t.
a b
Beispiel (Invertierbare 2 × 2-Matrizen): Ist A =
∈ M (2, IR), so ist
c d
d −b
d −b
·A=A·
= (ad − bc)E2 ,
−c a
−c a
so dass wir sehen können: Ist ad − bc 6= 0, so ist A ∈ GL (2, IR)
Ist umgekehrt A ∈ GL (2, IR), so gibt es ein A0 ∈ M (2, IR) mit A0 · A = E2 . Wäre nun
ad − bc = 0, folgte also
d −b
d −b
d −b
0
0
= (A · A) ·
=A · A·
= (ad − bc)A0 = 0
−c a
−c a
−c a
Dann müsste auch A die Nullmatrix gewesen sein, was der Annahme der Invertierbarkeit
von A
d
−b
1
0
widerspräche. Das zeigt, dass, wenn A ∈ GL (2, IR), dann die Matrix A = ad−bc
−c a
wieder zu A invers und wieder invertierbar ist.
Nun folgt, dass GL (2, IR) mit der Matrixmultiplikation eine Gruppe ist.
Für das Folgende werden wir aber mit Gruppenstrukturen allein noch nicht auskommen.
Wir benötigen eine Struktur mit 2 Rechenoperationen, so dass die Regeln gelten, die wir auch
innerhalb der Bereiche der reellen und der rationalen Zahlen kennen.
Definition. Unter einem Körper verstehen wir eine nicht-leere Menge K, auf der 2 Rechenoperationen 00 +00 und 00 ·00 gegeben sind, so dass folgendes gilt
K1) (K, +) ist eine abelsche Gruppe
K2) Ist 0 das neutrale Element in (K, +), ist K ∗ := K \ {0} nicht-leer und mit 00 ·00 eine
abelsche Gruppe
K3) Es gilt das Distributivgesetz
x · (y + z) = x · y + x · z
für alle x, y, z ∈ K.
Die Zahlenbereiche IR und Q sind Körper.
Wir lernen nun einen weiteren wichtigen Körper kennen, nämlich den Körper C der komplexen
Zahlen.
x
Für die Punkte
der Ebene IR2 kennen wir die Addition:
y
x1
x2
x1 + x2
+
=
y1
y2
y1 + y2
32
KAPITEL 1. LINEARE GLEICHUNGSSYSTEME
Diese definiert auf dem IR2 die Struktur einer abelschen Gruppe. Jetzt definieren wir die Multiplikation:
x1
x2
x1 x2 − y1 y2
·
=
y1
y2
x1 y2 + x2 y1
und stellen fest:
(IR2 \ {0},00 ·00 ) ist ebenfalls eine abelsche Gruppe.
Das prüfen wir nach.
• Zum Assoziativgesetz:
x1
x2
x3
x1 x2 − y1 y2
x3
·
·
=
·
y1
y2
y3
x1 y2 + x2 y1
y3
(x1 x2 − y1 y2 )x3 − (x1 y2 + x2 y1 )y3
=
(x1 y2 + x2 y1 )x3 + (x1 x2 − y1 y2 )y3
x1 x2 x3 − y1 y2 x3 − x1 y2 y3 − y1 x2 y3
=
x1 y2 x3 + y1 x2 x3 + x1 x2 y3 − y1 y2 y3
Genauso rechnen wir aus
x1
x2
x3
x1
x2 x3 − y2 y3
·
·
=
·
y1
y2
y3
y1
x2 y3 + y2 x3
x1 (x2 x3 − y2 y3 ) − y1 (x2 y3 + y2 x3 )
=
x1 (x2 y3 + y2 x3 ) + y1 (x2 x3 − y2 y3 )
x1 x2 x3 − y1 y2 x3 − x1 y2 y3 − y1 x2 y3
=
x1 y2 x3 + y1 x2 x3 + x1 x2 y3 − y1 y2 y3
Das beweist das Assoziativgesetz.
• Das Kommutativgesetz gilt ebenfalls, wie man auf dieselbe Weise nachprüft.
1
• Der Vektor
ist neutrales Element:
0
1
x
x
·
=
0
y
y
x
für alle
.
y
x
x
1
• Ist
6= 0, so ist x2 +y2
wohldefiniert und es gilt
y
−y
1
x
1
x
=
· 2
2
−y
0
y
x +y
1.3. ALLGEMEINE VEKTORRAUMSTRUKTUREN
33
Schließlich haben wir auch das
• Distributivgesetz:
x1
x2
x3
x1
x2 + x3
x1 (x2 + x3 ) − y1 (y2 + y3 )
·
+
=
·
=
x1 (y2 + y3 ) + y1 (x2 + x3 )
y1
y2
y3
y1
y2 + y3
x1 x2 − y1 y2
x1 x3 − y1 y3
=
+
x1 y2 + y1 x2
x1 y3 + y1 x3
x1
x2
x1
x3
=
·
+
·
y1
y2
y1
y3
Wir stellen fest
Verwenden wir die übliche Notation:
so kann jeder Punkt
x
y
1
0
0
1
2
=−
=: 1,
0
1
1
0
=: i
als
x
y
=x
0
1
+y
0
1
= x + iy
dargestellt werden. Man nennt die ”Zahl” i nach L. Euler die imaginäre Einheit. Es gilt i2 = −1.
Im Bild:
z1 +
z z
1
2
z2
i
z2
z
1
34
KAPITEL 1. LINEARE GLEICHUNGSSYSTEME
Die Ebene IR2 , ausgestattet mit diesen Rechenoperationen heißt der Bereich der komplexen
Zahlen und wird mit C bezeichnet.
Beispiele. Man hat etwa
√
1+i 2
1+i 3 3
(4 + 7i)(3 + 8i) = −44 + 53i,
( √ ) = i,
) = −1
(
2
2
und
64 + 5i
310 + 153i
=
,
5 − 2i
29
1 − 3i 6 − i
504 − 129i
+
=
2 + 5i 4 − i
493
Eine besondere Eigenschaft der komplexen Zahlen ist die folgende
1.3.2 Lemma. Man kann aus jeder Zahl w ∈ C eine Quadratwurzel ziehen. Ist z eine Quadratwurzel aus w, so auch −z.
Beweis. Ist eine komplexe Zahl w = u + iv gegeben, so sehen wir uns das folgende Gleichungssystem an
x2 − y 2 = u,
2xy = v
Zunächst sei v 6= 0. Wir multiplizieren mit 4x2 und finden
4x4 − 4x2 y 2 = 4x2 u
also
4x4 − v 2 = 4x2 u,
1
x4 − ux2 = v 2
4
Diese Gleichung lösen wir auf nach x2 :
1√ 2
1
x2 = u +
u + v2
2
2
Da die rechte Seite nicht-negativ ist, können wir die Quadratwurzel ziehen und finden
r
1
1√ 2
x=
u+
u + v2
2
2
Da v 6= 0, ist auch x 6= 0. Wir wählen dann y = v/2x und erhalten eine Lösung der Gleichung
(x + iy)2 = x2 − y 2 + 2ixy = u + iv = w
√
Ist nun
v
=
0,
so
müssen
wir,
wenn
u
>
0
ist,
nur
x
=
u und y = 0 und bei u < 0 nur x = 0
√
und y = −u nehmen, um eine Quadratwurzel aus w zu erhalten.
1.3. ALLGEMEINE VEKTORRAUMSTRUKTUREN
35
Das erlaubt das Lösen aller quadratischer Gleichungen:
Ist
z 2 + pz + q = 0
eine quadratische Gleichung, so wählen wir eine Quadratwurzel ζ aus ∆ := p2 − 4q. Dann werden
1
1
z1 := (−p + ζ), z2 = (−p − ζ)
2
2
Lösungen der gegebenen quadratischen Gleichung.
Hier ist ein Beispiel eines endlichen Körpers:
Beispiel. Ist p eine Primzahl, so sei IF p := {0, 1, 2, 3, ..., p − 1}. Wir definieren auf IF p die
folgende Addition
x ⊕ y := rp (x + y)
wobei wieder rp (m) der Rest ist, der bei Division der ganzen Zahl m durch p bleibt.
Wir prüfen die Gruppenaxiome nach:
G1). Mit x, y ∈ IF p ist per definitionem auch x ⊕ y ∈ IF p .
G2) Seien x, y, z ∈ IF p und r := rp (x + y), sowie s = rp (r + z). Dann ist für geeignete
m1 , k1 ∈ ZZ wieder x + y = m1 p + r, r + z = k1 p + s, und
(x ⊕ y) ⊕ z = r ⊕ z = s
Ebenso ist y + z = m2 p + ρ, x + ρ = k2 p + σ, wobei ρ = rp (y + z), σ = rp (x + ρ) und
x ⊕ (y ⊕ z) = x ⊕ ρ = σ
Es folgt
(m1 + k1 )p + s = (x + y) + z = x + (y + z) = (m2 + k2 )p + σ
Angenommen, es sei s > σ. Dann ist s − σ ∈ {1, ..., p − 1} und gleichzeitig durch p teilbar,
was nicht geht. Ebenso sehen wir, dass σ > s nicht möglich ist. Also ist s = σ. Somit ist das
Assoziativgesetz erfüllt.
G3) Offenbar ist x ⊕ 0 = 0 ⊕ x = x für alle x ∈ IF p .
G4) Für jedes x ∈ IF p haben wir x ⊕ (−x) = 0.
Nun setzen wir x · 0 := 0, wenn x ∈ IF p und definieren das Produkt zweier Elemente aus
IF p \ {0} wie zuvor. Dann sind die Forderungen K1) und K2) an einen Körper durch IF p erfüllt.
Die Überprüfung des Distributivgesetzes ist eine Übungsaufgabe.
36
KAPITEL 1. LINEARE GLEICHUNGSSYSTEME
1.3.2
Vektorräume. Der Dimensionsbegriff
Nun wollen wir den Begriff des (abstrakten) Vektorraumes einführen:
Definition. Gegeben sei ein Körper K. Dann verstehen wir unter einem K-Vektorraum V eine
nichtleere Menge V mit folgender Struktur:
• Es ist auf V eine Addition ”+” erklärt, mit der V eine abelsche Gruppe wird
• Man kann jedes Element α ∈ K mit jedem x ∈ V multiplizieren, so dass folgende Regeln
gelten
a) α(x + y) = αx + αy
b) (α + β)x = αx + βx
c) 1 · x = x, wobei 1 das neutrale Element aus (K,00 ·00 ) sein soll,
d) (αβ)x = α(βx),
für alle α, β ∈ K und x, y ∈ V .
Dies sind genau die Strukturen, die wir schon bei der Menge der Spaltenvektoren aus IRn
und der Menge der reellen (d × n)-Matrizen beobachtet haben. Dies sind also erste Beispiele für
IR-Vektorräume.
Weitere Beispiele
a) Der Raum K n der Spaltenvektoren mit Einträgen aus K trägt in analoger Weise wie der
IR die Struktur eines K-Vektorraumes, ebenso wie der Raum Kn der n-tupel (x1 , ..., xn ) mit
Einträgen aus K.
b) Die Menge M (d × n, K) der (d × n)-Matrizen mit Einträgen aus K ist ein K-Vektorraum.
Alle für K = IR definierten Rechenoperationen werden analog für allgemeines K definiert.
n
Definition. Ist V ein K-Vektorraum, so nennen wir eine Teilmenge U ⊂ V einen Unterraum
von V , wenn U mit den Rechenoperationen von V selbst wieder ein K-Vektorraum ist.
1.3.3 Satz. Sei V ein K-Vektorraum. Eine Menge U ⊂ V ist genau dann ein Unterraum von
V , wenn gilt:
• 0∈U
• Mit x, y ∈ U ist auch x − y ∈ U
• Mit λ ∈ K und x ∈ U ist auch λx ∈ U
1.3. ALLGEMEINE VEKTORRAUMSTRUKTUREN
37
Beweis. Die Menge U ist mit der Addition eine abelsche Gruppe: Die Axiome G2) und G3)
gelten in V , also erst recht in U , ebenso das Kommutativgesetz.
Zu G4) und G1): Sind x, y ∈ U , so ist zunächst −y = 0−y ∈ U , also auch x+y = x−(−y) ∈ U .
Die Gesetze der Skalarenmultiplikation gelten in U , da sie sogar in V gelten. Erfüllt also U
die drei genannten Bedingungen, so ist U ein Vektorraum über K.
Umgekehrt gelten die drei Bedingungen offensichtlich in jedem Unterraum von V .
Definition. Ist V ein Vektorraum über einem Körper K und E ⊂ V , so sagen wir, ein x ∈ V
sei Linearkombination von Elementen aus E, wenn es α1 , ..., αr ∈ K und v1 , ..., vr ∈ E gibt, so
dass
x = α1 v1 + . . . + αr vr
1.3.4 Lemma. Ist V ein Vektorraum über einem Körper K und E ⊂ V , so ist die Menge
Lin (E) aller Linearkombinationen von Elementen aus E selbst ein Unterraum von V .
Ist F ⊂ V ein Unterraum von V , der E enthält, so gilt schon Lin (E) ⊂ F .
Wenn E1 ⊂ E2 ⊂ V , so ist Lin (E1 ) ⊂ Lin (E2 ).
Beweis. Ü.A.
Definition. Ist V ein Vektorraum über einem Körper K und E ⊂ V , so sagen wir, E erzeuge
V , wenn V = Lin (E). Kann man sogar ein endliches Erzeugendensystem E für V finden, nennen
wir V auch endlich erzeugt.
Beispiele. Die Räume der Spaltenvektoren und der Matrizen sind endlich erzeugt, nicht aber
der Raum der Zahlenfolgen (etwa über Q oder IR).
Ist V irgendein Vektorraum, so gilt Lin (∅) = {0}.
Folgender Begriff ist von grundlegender Bedeutung:
Definition. Seien K und V wie bisher. Dann nennen wir die Elemente v1 , ...., vr ∈ V linear
unabhängig, wenn gilt
• Sind α1 , ..., αr ∈ K und α1 v1 + ... + αr vr = 0, so muss schon α1 = ... = αr = 0 sein.
Äquivalent dazu ist
• Wenn immer α1 , ..., αr ∈ K nicht alle null sind, so muss α1 v1 + ... + αr vr 6= 0 gelten.
Wir bezeichnen eine Menge E ⊂ V als linear unabhängig, wenn je endlich viele ihrer Elemente
linear unabhängig sind.
Unter einer Basis von V verstehen wir ein linear unabhängiges Erzeugendensystem für V .
Die Elemente x1 , ...., xr ∈ V werden linear abhängig genannt, wenn sie nicht linear unabhängig
sind. Das heißt also: Es gibt β1 , ...., βr ∈ K, die nicht alle Null sind, für die aber dennoch
β1 x1 + . . . + βr xr = 0 wird.
38
KAPITEL 1. LINEARE GLEICHUNGSSYSTEME
Äquivalent hierzu ist:
Unter den x1 , ...., xr gibt es einen Vektor xj , der sich als Linearkombination der anderen
schreiben lässt.
Insbesondere sind x1 , ..., xr immer linear abhängig, wenn einer der Vektoren der Nullvektor
ist.
Zuerst kennzeichnen wir Basen eines Vektorraumes.
1.3.5 Satz. Angenommen, es sei V ein K-Vektorraum und E ein Erzeugendensystem von V .
Dann sind folgende Aussagen über E äquivalent
i) E ist eine Basis für V ,
ii) Keine echte Teilmenge E 0 ⊂ E erzeugt V .
Beweis. Aus i) folgt ii): Angenommen, es sei E 0 ⊂ E und es gebe ein Element x0 ∈ E \ E 0 .
Angenommen, E 0 erzeuge V . Dann könnten wir schreiben
x0 = α1 x1 + . . . + αr xr
mit α1 , ..., αr ∈ K und geeigneten x1 , ..., xr ∈ E 0 . Dann wäre aber die Menge {x0 , x1 , ....., xr } ⊂ E
nicht mehr linear unabhängig, entgegen der Annahme über E.
Aus ii) folgt i). Wir müssen begründen, dass E linear unabhängig ist. Seien also v1 , ..., vk ∈ E
und λ1 , ..., λk ∈ K, so dass
λ1 v1 + . . . + λk vk = 0
Wäre eines der λi nicht null, etwa λ1 6= 0, so hätte man
v1 ∈ Lin {v2 , ...., vk } ⊂ Lin (E 0 )
wobei E 0 = E \ {v1 }. Da auch E 0 ⊂ Lin (E 0 ), folgte E ⊂ Lin (E 0 ), also auch V = Lin (E) ⊂
Lin (E 0 ), so dass V sogar von E 0 erzeugt würde, im Widerspruch zur Unverkürzbarkeit von E
als Erzeugendensystem von V .
Ein entsprechender Satz gilt für linear unabhängige Mengen:
1.3.6 Satz. Es sei wieder V ein K-Vektorraum und B ⊂ V eine linear unabhängige Menge.
Dann sind äquivalent
i) B ist eine Basis für V
ii) Keine echte Obermenge B 0 ⊃ B ist linear unabhängig
Beweis. i) impliziert ii): Sei V ⊃ B 0 ⊃ B und es gebe ein x0 ∈ B 0 \ B. Da x0 ∈ V = Lin (B),
gibt es x1 , ..., xk ∈ B, so dass {x0 , x1 , ..., xk } eine linear abhängige Teilmenge von B 0 wird.
ii) impliziert i): Wir zeigen, dass V durch B erzeugt ist. Wäre das nicht so, gäbe es ein
x0 ∈ V , dass nicht als Linearkombination von Elementen aus B dargestellt werden könnte. Sei
1.3. ALLGEMEINE VEKTORRAUMSTRUKTUREN
39
nun B 0 = B ∪ {x0 }. Dann ist B 0 ebenfalls linear unabhängig. Denn ist B1 := {y1 , ...., y` } eine
Teilmenge von B 0 , so ist B1 wieder linear unabhängig. Das ist klar, wenn keines der yi gleich x0
ist, da dann B1 ⊂ B. Ist aber etwa y1 = x0 , und gilt
α1 y1 + . . . + α` y` = 0
mit α1 , ...., α` ∈ K, so muss α1 = 0 sein, anderenfalls x0 ∈ Lin ({y2 , ..., y` }) ⊂ Lin (B) wäre, was
der Wahl von x0 widerspräche. Dann ist aber schon α2 y2 +. . .+α` y` = 0, also, da {y2 , ..., y` } ⊂ B,
schon α2 = . . . = α` = 0.
Wir wollen uns im Folgenden auf endlich erzeugte Vektorräume konzentrieren.
Zunächst folgern wir aus dem Satz 1.3.5 :
1.3.7 Satz. Jeder endlich erzeugte K-Vektorraum V hat eine Basis.
0
Beweis. Wir bilden eine Folge (Ej0 )j von Erzeugendensystemen von V , für die Ek0 ( Ek−1
ist.
Sei etwa E = {b1 , ..., bk } ein endliches Erzeugendensystem für V . Dann prüfen wir, ob E10 :=
E \ {bk } ebenfalls Erzeugendensystem für V ist. Wenn ja, ersetzen wir E durch E10 , anderenfalls
prüfen wir, ob in E auf bk−1 verzichtet werden kann, also E \{bk−1 } ein Erzeugendensystem ist. So
gehen wir alle bi ’s durch. Sollte keiner der Vektoren aus E weggelassen werden können, ohne die
Erzeugendeneigenschaft von E zu zerstören, muss E selbst linear unabhängig, also eine Basis von
V sein. Anderenfalls finden wir ein Erzeugendensystem E10 ⊂ E von E, das ein Element weniger
hat als E. Dann wenden wir dieselbe Prozedur auf E10 an, die wir soeben auf E angewendet
haben. Entweder ist dann E10 ein unverkürzbares Erzeugendensystem von V , oder es gibt ein
E20 ⊂ E10 , das V erzeugt und ein Element weniger hat als E10 . So kommen wir nach endlich vielen
Schritten zu einer Teilmenge E 0 ⊂ E, welche ebenfalls V erzeugt, aber aus der kein Element
mehr weggelassen werden kann, ohne dass die Erzeugendeneigenschaft verloren geht. Dann ist
E 0 nach Satz 1.3.5 eine Basis für V .
In einem endlich erzeugten Vektorraum gibt es keine linear unabhängige Menge mit unendlich
vielen Elementen.
Das ist ein erster nicht-trivialer Sachverhalt in unserer allgemeinen Theorie.
1.3.8 Satz (Steinitz). Ist E = {x1 , ...., xr } ein Erzeugendensystem für den K-Vektorraum V
und B = {y1 , ..., ys } eine linear unabhängige Menge, so gibt es zu jeder Zahl ` mit ` ≤ r, ` ≤ s
eine Menge E` ⊂ E mit ` Elementen, so dass V auch von (E \ E` ) ∪ {y1 , ...., y` } erzeugt wird.
Beweis. Da beweisen wir durch Induktion nach `.
Sei ` = 1. Wir schreiben y1 = α1 x1 + . . . + αr xr . Sicher muss einer der Koeffizienten αi ∈ K
ungleich Null sein, sonst wäre ja y1 = 0, also B nicht linear unabhängig. Sei etwa αi1 6= 0. Dann
ist
1
α1
αi −1
αi +1
αr
xi1 =
y1 +
x1 + . . . + 1 xi1 −1 + 1 xi1 +1 + . . . +
xr ∈ Lin ( (E \ E1 ) ∪ {y1 })
αi1
αi1
αi1
αi+1
αi1
40
KAPITEL 1. LINEARE GLEICHUNGSSYSTEME
wenn wir E1 = {xi1 } wählen. Offenbar ist E \ E1 ⊂ Lin ( (E \ E1 ) ∪ {y1 }), also E ⊂ Lin ( (E \
E1 ) ∪ {y1 }), woraus folgt, dass V durch (E \ E1 ) ∪ {y1 } erzeugt wird.
Sei nun ` ≥ 2 und angenommen, die Behauptung sei für ` − 1 richtig. Dann finden wir eine
(` − 1)-elementige Menge E`−1 ⊂ E, so dass V durch (E \ E`−1 ) ∪ {y1 , ..., y`−1 } erzeugt wird.
Wir schreiben E \ E`−1 = {xi` , ..., xir } Wir können dann y` als Linearkombination
y` = β1 y1 + . . . + β`−1 y`−1 + αi` xi` + . . . + αir xir
mit Koeffizienten βν , αiµ ∈ K darstellen. Nun können aber nicht alle αiµ Null sein, da sonst
y` Linearkombination der y1 , ..., y`−1 wäre entgegen der Annahme über die Menge B. Sei etwa
αij 6= 0 für ein j ∈ {`, ..., r}. Sei E` = E`−1 ∪ {xij }. Dann sehen wir wieder, dass xij ∈ Lin ( E \
E` ∪ {y1 , ..., y` }). Da offenbar
({y1 , ..., y`−1 } ∪ E \ E`−1 ) \ {xij } = {y1 , ..., y`−1 } ∪ E \ E` ⊂ Lin ( E \ E` ∪ {y1 , ..., y` }),
gehört {y1 , ..., y`−1 } ∪ E \ E`−1 zu Lin ( E \ E` ∪ {y1 , ..., y` }), woraus V = Lin ( E \ E` ∪ {y1 , ..., y` })
folgt.
Je zwei Basen in einem endlich erzeugten Vektorraum müssen nun die gleiche Anzahl von
Elementen haben.
1.3.9 Satz. Sei E = {x1 , ...., xr } Erzeugendensystem eines K-Vektorraumes V .
a) Ist dann B = {y1 , ...., ys } eine linear unabhängige Menge, so muss schon s ≤ r sein.
b) Je zwei Basen B und B 0 von V haben gleichviele Elemente.
Beweis. a) In der Tat kann nicht s > r sein, sonst könnten wir nach dem Steinitzschen
Austauschsatz y1 , ..., yr gegen die Vektoren aus E austauschen und fänden, dass V durch y1 , ..., yr
erzeugt würde. Dann wäre aber yr+1 Linearkombination von y1 , ..., yr , Widerspruch!
b) Wende a) an. B 0 hat nicht mehr Elemente als B. Vertauschen wir die Rollen von B und
B 0 , so folgt, dass B nicht mehr Elemente als B 0 haben kann.
So wird der folgende Begriff sinnvoll:
Definition. Ist V endlich erzeugt, so sagen wir, V habe die Dimension n, wenn eine Basis mit
n Elementen für V existiert. Wir schreiben dann dim (V ) = n.
Folgende Beispiele sind einfach:
dim K n = n, dim M (d × n, K) = nd.
1.3.10 Lemma. Ist V endlich erzeugt und dim (V ) = n, so ist jedes n-elementige Erzeugendensystem E von V eine Basis von V .
Ebenso ist jede n-elementige linear unabhängige Menge B in V eine Basis von V .
1.3. ALLGEMEINE VEKTORRAUMSTRUKTUREN
41
Beweis. Gäbe es eine echte Teilmenge E 0 ⊂ E, die ebenfalls V erzeugte, so müsste jede
linear unabhängige Teilmenge von V weniger als n Elemente haben, so dass dim (V ) < n folgte,
Widerspruch. Nach Satz 1.3.5 ist dann E eine Basis für V .
Sei B1 eine Basis von V . Dann hat B1 also n Elemente. Jede linear unabhängige Menge in
V hat daher nicht mehr als n Elemente. Daher kann es keine echte Obermenge B 0 von B geben,
die noch linear unabhängig wäre. Mit Satz 1.3.6 muss dann B bereits eine Basis von V sein.
Die folgenden Sätze scheinen offensichtlich zu sein, sind aber ohne den Steinitzschen Satz
nicht zu erhalten:
1.3.11 Satz (Basisergänzungssatz). Ist B1 eine linear unabhängige Menge in einem endlich
erzeugten K-Vektorraum V , so gibt es eine Basis B für V mit B1 ⊂ B.
Beweis. Wir wählen eine endliche Basis E mit n Elementen für V und wenden den Austauschsatz an: Es können dann, wenn s die Anzahl der Elemente von B1 bezeichnet, s der
Vektoren aus E gegen die Vektoren aus B1 ausgetauscht werden. Es entsteht ein Erzeugendensystem B = E 0 ∪ B1 , wobei E 0 ⊂ E eine Menge mit n − s Elementen ist. Da die Menge B wieder
n Elemente hat, ist sie sogar eine Basis.
1.3.12 Satz. Sei V endlich erzeugter K-Vektorraum. Dann ist auch jeder Unterraum U ⊂ V
endlich erzeugt, und es ist dim U ≤ dim V . Gilt dim U = dim V , so ist bereits U = V .
Beweis. Sei n = dim (V ). Angenommen, U ) {0}. Wäre U nicht endlich erzeugt, könnten
wir wie folgt eine linear unabhängige Menge M ⊂ U ⊂ V mit mehr als n Elementen finden: Sei
y1 6= 0. Da nicht U = Lin ({y1 }) sein kann, gibt es ein y2 ∈ U , so dass {y1 , y2 } linear unabhängig
sind. Da auch Lin ({y1 , y2 }) 6= U , gibt es y3 ∈ U \ Lin ({y1 , y2 }). Dann ist {y1 , y2 , y3 } linear
unabhängig. So fahren wir fort und gelangen im (n + 1)-ten Schritt zu einer linear unabhängigen
Teilmenge von U und damit von V , welche zuviele Elemente hat.
Also ist U endlich erzeugt. Eine Basis von U ist eine linear unabhängige Teilmenge von V ,
kann also nicht mehr als n Elemente haben. Somit ist dim (U ) ≤ n.
Wenn nun dim (U ) = n ist, so ist eine Basis von U schon eine Basis von V , da sie eine
n-elementige linear unabhängige Teilmenge von V darstellt.
Die Vektorsumme zweier Unterräume
Wir können uns leicht Beispiele dafür überlegen, dass die Vereinigung zweier Unterräume
eines Vektorraumes im Allgemeinen kein Unterraum von V sein wird.
Definition. Sind U, W ⊂ V Unterräume eines (nicht notwendig endlich erzeugten) Vektorraumes V , so bezeichnen wir als Vektorsumme von U und W den folgenden Unterraum
U + W := Lin (U ∪ W )
42
KAPITEL 1. LINEARE GLEICHUNGSSYSTEME
Bemerkung (Ü.A.) Jedes Element aus U + W ist darstellbar als Summe eines Vektors aus U
und eines Vektors aus W .
Wir haben die folgende Dimensionsformel:
1.3.13 Satz. Sei V endlich erzeugt, etwa n = dim (V ). Dann gilt für zwei Unterräume U, W
von V
dim (U + W ) = dim U + dim W − dim (U ∩ W )
Beweis. Sei etwa dim (U ) = r, dim (W ) = s und dim (U ∩ W ) = t. Sollte t = r oder t = s
sein, ist U ∩ W = U und U + W = W bzw. U ∩ W = W und U + W = U , und die Formel ist
trivial. Ist nun Sei also t < r, t < s. Ist nun B 000 := {b1 , ...., bt } eine Basis von U ∩W , so verlängern
wir B 000 zu einer Basis B 0 = B 000 ∪ {ct+1 , ..., cr } von U und zu einer Basis B 00 = B 000 ∪ {bt+1 , ..., bs }
von W . Wir behaupten, dass dann
B = B 0 ∪ {bt+1 , ..., bs } = B 000 ∪ {ct+1 , ..., cr } ∪ {bt+1 , ..., bs }
eine Basis von U + W ist. Da B nun r + s − t Elemente hat, folgt die Dimensionsformel.
B erzeugt U + W : Sei x ∈ U + W . Dann gibt es u ∈ U, w ∈ W mit x = u + w. Nun ist
u ∈ Lin (B 0 ) ⊂ Lin (B) und w ∈ Lin (B 00 ) ⊂ Lin (B), also U + W ⊂ Lin (B). Da B ⊂ U ∪ W ,
ist Lin (B) ⊂ Lin (U ∪ W ) = U + W .
B ist linear unabhängig: Angenommen, es sei
α1 b1 + . . . + αt bt + βt+1 ct+1 + ... + βr cr + γt+1 bt+1 + ... + γr bs = 0
für gewisse Koeffizienten αi , βi , γi ∈ K. Dann ist
z := γt+1 bt+1 + ... + γr bs ∈ Lin ({b1 , ..., bt , ct+1 , ..., cr }) = U,
also z ∈ U ∩ W . Dann aber haben wir auch z = α10 b1 + . . . + αt0 bt mit geeigneten αi0 ∈ K. Es folgt
dann aber durch Gleichsetzen beider Ausdrücke für z
(α1 + α10 )b1 + . . . + (αt + αt0 )bt + βt+1 ct+1 + ... + βr cr = 0
Nun ist aber die Menge {b1 , ..., bt , ct+1 , ..., cr } linear unabhängig (da sie eine Basis von U ist).
Also gilt insbesondere βt+1 = . . . = βr = 0. Das ergibt aber
α1 b1 + . . . + αt bt + γt+1 bt+1 + ... + γr bs = 0
Da nun {b1 , ..., bt , bt+1 , ..., bs } als Basis von W ebenfalls linear unabhängig ist, folgt, dass alle αi
und alle γj Null sein müssen.
Folgerung. Sind U und W zwei Unterräume von V und dim (U ) + dim (W ) > dim (V ), so
ist dim (U ∩ W ) > 0.
Herunterladen