Skalarprodukt und Orthogonalit¨at

Werbung
Skalarprodukt und Orthogonalität
Skalarprodukt und Orthogonalität
in Rn
Wir erinnern an das euklidische Skalarprodukt im R2:
Wir erinnern an das euklidische Skalarprodukt im R2:
< ~a, ~b >:= α1β1 + α2β2
Wir erinnern an das euklidische Skalarprodukt im R2:
< ~a, ~b >:= α1β1 + α2β2
Genau so geht’s im Rn:
Wir erinnern an das euklidische Skalarprodukt im R2:
< ~a, ~b >:= α1β1 + α2β2
Genau so geht’s im Rn:
Seien ~a = (α1, ..., αn)T und ~b = (β1, ..., βn)T Vektoren im Rn.
Das (euklidische) Skalarprodukt von ~a und ~b ist definiert als
Das (euklidische) Skalarprodukt von ~a und ~b ist definiert als
< ~a, ~b > := α1β1 + α2β2 + ... + αnβn.
Das (euklidische) Skalarprodukt von ~a und ~b ist definiert als
< ~a, ~b > := α1β1 + α2β2 + ... + αnβn.
Die Länge von ~a ist
Das (euklidische) Skalarprodukt von ~a und ~b ist definiert als
< ~a, ~b > := α1β1 + α2β2 + ... + αnβn.
Die Länge von ~a ist
|~a| :=
q
2
α2
1 + ... + αn
Das (euklidische) Skalarprodukt von ~a und ~b ist definiert als
< ~a, ~b > := α1β1 + α2β2 + ... + αnβn.
Die Länge von ~a ist
|~a| :=
q
2
α2
1 + ... + αn
√
= < ~a, ~a >
Auch im Rn hat das Skalarprodukt dieselben schönen Eigenschaften
wie im R2:
Auch im Rn hat das Skalarprodukt dieselben schönen Eigenschaften
wie im R2:
es ist symmetrisch
Auch im Rn hat das Skalarprodukt dieselben schönen Eigenschaften
wie im R2:
es ist symmetrisch
und linear in jedem seiner beiden Einträge.
Auch im Rn hat das Skalarprodukt dieselben schönen Eigenschaften
wie im R2:
es ist symmetrisch
und linear in jedem seiner beiden Einträge.
Also gilt z.B.:
Auch im Rn hat das Skalarprodukt dieselben schönen Eigenschaften
wie im R2:
es ist symmetrisch
und linear in jedem seiner beiden Einträge.
Also gilt z.B.:
< ~a − ~b, ~a − ~b >=< ~a, ~a − ~b > − < ~b, ~a − ~b >
Auch im Rn hat das Skalarprodukt dieselben schönen Eigenschaften
wie im R2:
es ist symmetrisch
und linear in jedem seiner beiden Einträge.
Also gilt z.B.:
< ~a − ~b, ~a − ~b >=< ~a, ~a − ~b > − < ~b, ~a − ~b >
=< ~a, ~a > − < ~a, ~b > − < ~b, ~a > + < ~b, ~b >
Auch im Rn hat das Skalarprodukt dieselben schönen Eigenschaften
wie im R2:
es ist symmetrisch
und linear in jedem seiner beiden Einträge.
Also gilt z.B.:
< ~a − ~b, ~a − ~b >=< ~a, ~a − ~b > − < ~b, ~a − ~b >
=< ~a, ~a > − < ~a, ~b > − < ~b, ~a > + < ~b, ~b >
=< ~a, ~a > −2 < ~a, ~b > + < ~b, ~b >
Damit ergibt sich ohne Schwierigkeit:
Damit ergibt sich ohne Schwierigkeit:
<~a,~b>
2
2
2
~
~
~
|~a − b| = |~a| + |b| − 2|~a||b| ~
|~a||b|
Damit ergibt sich ohne Schwierigkeit:
<~a,~b>
2
2
2
~
~
~
|~a − b| = |~a| + |b| − 2|~a||b| ~
|~a||b|
Also ist auch im Rn
Damit ergibt sich ohne Schwierigkeit:
<~a,~b>
2
2
2
~
~
~
|~a − b| = |~a| + |b| − 2|~a||b| ~
|~a||b|
Also ist auch im Rn
der Cosinus des von ~a und ~b und eingeschlossenen Winkels θ
Damit ergibt sich ohne Schwierigkeit:
<~a,~b>
2
2
2
~
~
~
|~a − b| = |~a| + |b| − 2|~a||b| ~
|~a||b|
Also ist auch im Rn
der Cosinus des von ~a und ~b und eingeschlossenen Winkels θ
gegeben durch
Damit ergibt sich ohne Schwierigkeit:
<~a,~b>
2
2
2
~
~
~
|~a − b| = |~a| + |b| − 2|~a||b| ~
|~a||b|
Also ist auch im Rn
der Cosinus des von ~a und ~b und eingeschlossenen Winkels θ
gegeben durch
~
cos(θ) = <~a,b>
.
|~a||~b|
Wieder sagt man:
Wieder sagt man:
~a und ~b orthogonal
:⇔ < ~a, ~b >= 0.
Orthogonales Projizieren auf den
Orthogonales Projizieren auf den
von einem Vektor ~b erzeugten eindimensionalen Teilraum L(~b)
Orthogonales Projizieren auf den
von einem Vektor ~b erzeugten eindimensionalen Teilraum L(~b)
ist genau so einfach wie im R2:
~a
~a − c~b
c~b = ~aL(~b)
~b
~a
~a − c~b
c~b = ~aL(~b)
~b
~
< ~a − c~b, ~b >= 0 ⇐⇒ c = <~~a,~b>
<b,b>
~a
~a − c~b
c~b = ~aL(~b)
~b
~
< ~a − c~b, ~b >= 0 ⇐⇒ c = <~~a,~b>
<b,b>
Das wird ganz besonders sympathisch, wenn |~b| = 1 ist:
~a
~a − c~b
c~b = ~aL(~b)
~b
~a
~a − c~b
c~b = ~aL(~b)
~b
|~b| = 1
=⇒
~aL(~b) =< ~a, ~b > ~b
Orthonormalbasen
Orthonormalbasen
Orthonormalbasen
Man sagt:
Man sagt:
Die Vektoren {~b1, ..., ~bn } im Rn bilden eine
Man sagt:
Die Vektoren {~b1, ..., ~bn } im Rn bilden eine
orthonormale Basis (kurz: ON-Basis),
Man sagt:
Die Vektoren {~b1, ..., ~bn } im Rn bilden eine
orthonormale Basis (kurz: ON-Basis),
falls sie Länge 1 haben und orthogonal sind:
Man sagt:
Die Vektoren {~b1, ..., ~bn } im Rn bilden eine
orthonormale Basis (kurz: ON-Basis),
falls sie Länge 1 haben und orthogonal sind:
|~bi| = 1 ∀i
< ~bi, ~bj >= 0 ∀i 6= j.
Die Darstellung eines Vektors ~a
Die Darstellung eines Vektors ~a
als Linearkombination von orthonormalen Basisvektoren {~b1, ..., ~bn}
Die Darstellung eines Vektors ~a
als Linearkombination von orthonormalen Basisvektoren {~b1, ..., ~bn}
ist besonders einfach:
Die Darstellung eines Vektors ~a
als Linearkombination von orthonormalen Basisvektoren {~b1, ..., ~bn}
ist besonders einfach:
Hat ~a die Darstellung
Die Darstellung eines Vektors ~a
als Linearkombination von orthonormalen Basisvektoren {~b1, ..., ~bn}
ist besonders einfach:
Hat ~a die Darstellung
~a = k1~b1 + .... + kn~bn,
Die Darstellung eines Vektors ~a
als Linearkombination von orthonormalen Basisvektoren {~b1, ..., ~bn}
ist besonders einfach:
Hat ~a die Darstellung
~a = k1~b1 + .... + kn~bn,
dann ergibt das Skalarprodukt mit ~bi:
Die Darstellung eines Vektors ~a
als Linearkombination von orthonormalen Basisvektoren {~b1, ..., ~bn}
ist besonders einfach:
Hat ~a die Darstellung
~a = k1~b1 + .... + kn~bn,
dann ergibt das Skalarprodukt mit ~bi:
< ~a, ~bi >= ki
~a = k1~b1 + .... + kn~bn,
~a = k1~b1 + .... + kn~bn,
ki =< ~a, ~bi >
~a = k1~b1 + .... + kn~bn,
ki =< ~a, ~bi >
Die Komponente ki~bi =< ~a, ~bi > ~bi ist also nichts anderes als
~a = k1~b1 + .... + kn~bn,
ki =< ~a, ~bi >
Die Komponente ki~bi =< ~a, ~bi > ~bi ist also nichts anderes als
die Projektion von ~a auf den eindimensionalen Teilraum L(~bi).
~a = k1~b1 + .... + kn~bn,
ki =< ~a, ~bi >
Die Komponente ki~bi =< ~a, ~bi > ~bi ist also nichts anderes als
die Projektion von ~a auf den eindimensionalen Teilraum L(~bi).
Die Darstellung von ~a
~a = k1~b1 + .... + kn~bn,
ki =< ~a, ~bi >
Die Komponente ki~bi =< ~a, ~bi > ~bi ist also nichts anderes als
die Projektion von ~a auf den eindimensionalen Teilraum L(~bi).
Die Darstellung von ~a
als Linearkombination der orthonormalen Basisvektoren {~b1, ..., ~bn }
~a = k1~b1 + .... + kn~bn,
ki =< ~a, ~bi >
Die Komponente ki~bi =< ~a, ~bi > ~bi ist also nichts anderes als
die Projektion von ~a auf den eindimensionalen Teilraum L(~bi).
Die Darstellung von ~a
als Linearkombination der orthonormalen Basisvektoren {~b1, ..., ~bn }
ist somit :
~a = k1~b1 + .... + kn~bn,
ki =< ~a, ~bi >
Die Komponente ki~bi =< ~a, ~bi > ~bi ist also nichts anderes als
die Projektion von ~a auf den eindimensionalen Teilraum L(~bi).
Die Darstellung von ~a
als Linearkombination der orthonormalen Basisvektoren {~b1, ..., ~bn }
ist somit :
~a = ~aL(~b ) + ... + ~aL(~b ) =< ~a, ~b1 > ~b1 + ...+ < ~a, ~bn > ~bn
n
1
~a = k1~b1 + .... + kn~bn
~a = k1~b1 + .... + kn~bn
Man nennt die Zahlen k1, ..., kn auch die
~a = k1~b1 + .... + kn~bn
Man nennt die Zahlen k1, ..., kn auch die
Koordinaten von ~a in der Basis {~b1, ..., ~bn }
~a = k1~b1 + .... + kn~bn
Man nennt die Zahlen k1, ..., kn auch die
Koordinaten von ~a in der Basis {~b1, ..., ~bn }
Wir haben gesehen: Das Ausrechnen der Koordinaten in einer
orthonormalen Basis {~b1, ..., ~bn}ist ganz leicht:
~a = k1~b1 + .... + kn~bn
Man nennt die Zahlen k1, ..., kn auch die
Koordinaten von ~a in der Basis {~b1, ..., ~bn }
Wir haben gesehen: Das Ausrechnen der Koordinaten in einer
orthonormalen Basis {~b1, ..., ~bn}ist ganz leicht:
Die ~bi-Koordinate von ~a ist
~a = k1~b1 + .... + kn~bn
Man nennt die Zahlen k1, ..., kn auch die
Koordinaten von ~a in der Basis {~b1, ..., ~bn }
Wir haben gesehen: Das Ausrechnen der Koordinaten in einer
orthonormalen Basis {~b1, ..., ~bn}ist ganz leicht:
Die ~bi-Koordinate von ~a ist
ki =< ~a, ~bi >
Beispiel
Beispiel

x



~a =  y 
z
Beispiel

x



~a =  y 
z

1


~b1 = 
 0 
0

0


~b2 = 
 1 
0

0


~b3 = 
 0 
1
Beispiel

x



~a =  y 
z

1


~b1 = 
 0 
0

0


~b2 = 
 1 
0

0


~b3 = 
 0 
1
~a =< ~a, ~b1 > ~b1+ < ~a, ~b2 > ~b2+ < ~a, ~b3 > ~b3
Beispiel

x



~a =  y 
z

1


~b1 = 
 0 
0

0


~b2 = 
 1 
0

0


~b3 = 
 0 
1
~a =< ~a, ~b1 > ~b1+ < ~a, ~b2 > ~b2+ < ~a, ~b3 > ~b3
= x~b1 + y~b2 + z~b3
Weil das Ausrechnen von Koordinaten in ON-Basen so leicht ist,
Weil das Ausrechnen von Koordinaten in ON-Basen so leicht ist,
ist auch das Umrechnen der Koordinaten
von einer in eine andere ON-Basis leicht.
Beispiel: n = 2
Beispiel: n = 2
Seien {~e1, ~e2} und {f~1, f~2} zwei ON-Basen des R2
Beispiel: n = 2
Seien {~e1, ~e2} und {f~1, f~2} zwei ON-Basen des R2
Gegeben sei die Darstellung
Beispiel: n = 2
Seien {~e1, ~e2} und {f~1, f~2} zwei ON-Basen des R2
Gegeben sei die Darstellung
~a = k1~e1 + k2~e2
Beispiel: n = 2
Seien {~e1, ~e2} und {f~1, f~2} zwei ON-Basen des R2
Gegeben sei die Darstellung
~a = k1~e1 + k2~e2
Wie sieht die erste Koordinate von ~a in der Basis {f~1, f~2} aus?
Beispiel: n = 2
Seien {~e1, ~e2} und {f~1, f~2} zwei ON-Basen des R2
Gegeben sei die Darstellung
~a = k1~e1 + k2~e2
Wie sieht die erste Koordinate von ~a in der Basis {f~1, f~2} aus?
Wir berechnen die gesuchte “f~1-Koordinate” von ~a
durch Projizieren auf L(f~1):
Beispiel: n = 2
Seien {~e1, ~e2} und {f~1, f~2} zwei ON-Basen des R2
Gegeben sei die Darstellung
~a = k1~e1 + k2~e2
Wie sieht die erste Koordinate von ~a in der Basis {f~1, f~2} aus?
Wir berechnen die gesuchte “f~1-Koordinate” von ~a
durch Projizieren auf L(f~1):
< ~a, f~1 >= k1 < ~e1, f~1 > +k2 < ~e2, f~1 >
Das Orthogonale Komplement:
Das Orthogonale Komplement:
Sei U ein Teilraum von A.
Das Orthogonale Komplement:
Sei U ein Teilraum von A.
Das orthogonale Komplement
Das Orthogonale Komplement:
Sei U ein Teilraum von A.
Das orthogonale Komplement
U⊥
Das Orthogonale Komplement:
Sei U ein Teilraum von A.
Das orthogonale Komplement
U⊥
(lies:
”
U -senkrecht“)
Das Orthogonale Komplement:
Sei U ein Teilraum von A.
Das orthogonale Komplement
U⊥
(lies:
”
U -senkrecht“)
ist der Teilraum aller Vektoren, die orthogonal auf U stehen:
Das Orthogonale Komplement:
Sei U ein Teilraum von A.
Das orthogonale Komplement
U⊥
(lies:
”
U -senkrecht“)
ist der Teilraum aller Vektoren, die orthogonal auf U stehen:
U ⊥ = {~a ∈ A | < ~a, ~
u >= 0 ∀~
u ∈ U }.
Sei {~b1, ..., ~bn} eine orthonormale Basis von A. Dann gilt:
L(~b1, ..., ~br )⊥ = L(~br+1, ..., ~bn).
Beispiele:
Beispiele:
Im R2
Beispiele:
Im R2
L((1, 0)T )⊥ =
Beispiele:
Im R2
L((1, 0)T )⊥ =
L((0, 1)T )
Beispiele:
Im R2
L((1, 0)T )⊥ =
L((0, 1)T )
L((0.6, 0.8)T )⊥ =
Beispiele:
Im R2
L((1, 0)T )⊥ =
L((0, 1)T )
L((0.6, 0.8)T )⊥ =
L((−0.8, 0.6)T )
Im R3
Im R3
L((1, 0, 0)T )⊥ =
Im R3
L((1, 0, 0)T )⊥ =
L((0, 1, 0)T , (0, 0, 1)T )
Im R3
L((1, 0, 0)T )⊥ =
L((0, 1, 0)T , (0, 0, 1)T )
L((0.6, 0.8, 0)T , (−0.8, 0.6, 0)T )⊥ =
Im R3
L((1, 0, 0)T )⊥ =
L((0, 1, 0)T , (0, 0, 1)T )
L((0.6, 0.8, 0)T , (−0.8, 0.6, 0)T )⊥ =
L((0, 0, 1)T )
Orthogonale Projektion in Rn:
Orthogonale Projektion in Rn:
Die orthogonale Projektion ~aB
Orthogonale Projektion in Rn:
Die orthogonale Projektion ~aB
des Vektors ~a auf den Teilraum B
Orthogonale Projektion in Rn:
Die orthogonale Projektion ~aB
des Vektors ~a auf den Teilraum B
ist derjenige Vektor aus B, für den die Differenz (~a − ~aB )
Orthogonale Projektion in Rn:
Die orthogonale Projektion ~aB
des Vektors ~a auf den Teilraum B
ist derjenige Vektor aus B, für den die Differenz (~a − ~aB )
orthogonal zu allen Vektoren ~b in B steht:
Orthogonale Projektion in Rn:
Die orthogonale Projektion ~aB
des Vektors ~a auf den Teilraum B
ist derjenige Vektor aus B, für den die Differenz (~a − ~aB )
orthogonal zu allen Vektoren ~b in B steht:
< (~a − ~aB ), ~b > = 0
~ ∈ B.
∀B
Projizieren auf B ist leicht,
Projizieren auf B ist leicht,
wenn man eine orthonormale Basis ~b1, ..., ~bm für B kennt. Dann gilt:
Projizieren auf B ist leicht,
wenn man eine orthonormale Basis ~b1, ..., ~bm für B kennt. Dann gilt:
~aB = ~aL(~b ) + ... + ~aL(~b )
m
1
Projizieren auf B ist leicht,
wenn man eine orthonormale Basis ~b1, ..., ~bm für B kennt. Dann gilt:
~aB = ~aL(~b ) + ... + ~aL(~b )
m
1
= < ~a, ~b1 > ~b1 + ...+ < ~a, ~bm > ~bm.
Projizieren auf B ist leicht,
wenn man eine orthonormale Basis ~b1, ..., ~bm für B kennt. Dann gilt:
~aB = ~aL(~b ) + ... + ~aL(~b )
m
1
= < ~a, ~b1 > ~b1 + ...+ < ~a, ~bm > ~bm.
Falls die ~bi nicht normiert sind ( |~bi| 6= 1),
Projizieren auf B ist leicht,
wenn man eine orthonormale Basis ~b1, ..., ~bm für B kennt. Dann gilt:
~aB = ~aL(~b ) + ... + ~aL(~b )
m
1
= < ~a, ~b1 > ~b1 + ...+ < ~a, ~bm > ~bm.
Falls die ~bi nicht normiert sind ( |~bi| 6= 1),
muss man nachträglich normieren:
Projizieren auf B ist leicht,
wenn man eine orthonormale Basis ~b1, ..., ~bm für B kennt. Dann gilt:
~aB = ~aL(~b ) + ... + ~aL(~b )
m
1
= < ~a, ~b1 > ~b1 + ...+ < ~a, ~bm > ~bm.
Falls die ~bi nicht normiert sind ( |~bi| 6= 1),
muss man nachträglich normieren:
< ~a, ~bi > ~
bi.
~aL(~b ) =
~
~
i
< bi, bi >
Beispiele im R3:
Beispiele im R3:
Sei ~a = (1, 2, 3)T .
Beispiele im R3:
Sei ~a = (1, 2, 3)T .
aL((0,0,1)T ) =
Beispiele im R3:
Sei ~a = (1, 2, 3)T .
aL((0,0,1)T ) =
= (0, 0, 3)T
Beispiele im R3:
Sei ~a = (1, 2, 3)T .
aL((0,0,1)T ) =
= (0, 0, 3)T
~aL((0,1,0)T ,(0,0,1)T ) =
Beispiele im R3:
Sei ~a = (1, 2, 3)T .
aL((0,0,1)T ) =
= (0, 0, 3)T
~aL((0,1,0)T ,(0,0,1)T ) =
= (0, 2, 3)T
~a = (1, 2, 3)T
~a = (1, 2, 3)T
~aL((1,1,1)T ) =
~a = (1, 2, 3)T
~aL((1,1,1)T ) =
= (2, 2, 2)T
~a = (1, 2, 3)T
~aL((1,1,1)T ) =
= (2, 2, 2)T
~aL((1,1,0)T ) =
~a = (1, 2, 3)T
~aL((1,1,1)T ) =
= (2, 2, 2)T
~aL((1,1,0)T ) =
=
3, 3, 0 T
2 2
~a = (1, 2, 3)T
~a = (1, 2, 3)T
~aL((1,1,0)T ,(0,0,1)T ) =
~a = (1, 2, 3)T
~aL((1,1,0)T ,(0,0,1)T ) =
3, 3, 3 T
2 2
~a = (1, 2, 3)T
~aL((1,1,0)T ,(0,0,1)T ) =
3, 3, 3 T
2 2
~aL((1,2,3)T ) =
~a = (1, 2, 3)T
~aL((1,1,0)T ,(0,0,1)T ) =
3, 3, 3 T
2 2
~aL((1,2,3)T ) =
= (1, 2, 3)T
Herunterladen