Skalarprodukt und Orthogonalität Skalarprodukt und Orthogonalität in Rn Wir erinnern an das euklidische Skalarprodukt im R2: Wir erinnern an das euklidische Skalarprodukt im R2: < ~a, ~b >:= α1β1 + α2β2 Wir erinnern an das euklidische Skalarprodukt im R2: < ~a, ~b >:= α1β1 + α2β2 Genau so geht’s im Rn: Wir erinnern an das euklidische Skalarprodukt im R2: < ~a, ~b >:= α1β1 + α2β2 Genau so geht’s im Rn: Seien ~a = (α1, ..., αn)T und ~b = (β1, ..., βn)T Vektoren im Rn. Das (euklidische) Skalarprodukt von ~a und ~b ist definiert als Das (euklidische) Skalarprodukt von ~a und ~b ist definiert als < ~a, ~b > := α1β1 + α2β2 + ... + αnβn. Das (euklidische) Skalarprodukt von ~a und ~b ist definiert als < ~a, ~b > := α1β1 + α2β2 + ... + αnβn. Die Länge von ~a ist Das (euklidische) Skalarprodukt von ~a und ~b ist definiert als < ~a, ~b > := α1β1 + α2β2 + ... + αnβn. Die Länge von ~a ist |~a| := q 2 α2 1 + ... + αn Das (euklidische) Skalarprodukt von ~a und ~b ist definiert als < ~a, ~b > := α1β1 + α2β2 + ... + αnβn. Die Länge von ~a ist |~a| := q 2 α2 1 + ... + αn √ = < ~a, ~a > Auch im Rn hat das Skalarprodukt dieselben schönen Eigenschaften wie im R2: Auch im Rn hat das Skalarprodukt dieselben schönen Eigenschaften wie im R2: es ist symmetrisch Auch im Rn hat das Skalarprodukt dieselben schönen Eigenschaften wie im R2: es ist symmetrisch und linear in jedem seiner beiden Einträge. Auch im Rn hat das Skalarprodukt dieselben schönen Eigenschaften wie im R2: es ist symmetrisch und linear in jedem seiner beiden Einträge. Also gilt z.B.: Auch im Rn hat das Skalarprodukt dieselben schönen Eigenschaften wie im R2: es ist symmetrisch und linear in jedem seiner beiden Einträge. Also gilt z.B.: < ~a − ~b, ~a − ~b >=< ~a, ~a − ~b > − < ~b, ~a − ~b > Auch im Rn hat das Skalarprodukt dieselben schönen Eigenschaften wie im R2: es ist symmetrisch und linear in jedem seiner beiden Einträge. Also gilt z.B.: < ~a − ~b, ~a − ~b >=< ~a, ~a − ~b > − < ~b, ~a − ~b > =< ~a, ~a > − < ~a, ~b > − < ~b, ~a > + < ~b, ~b > Auch im Rn hat das Skalarprodukt dieselben schönen Eigenschaften wie im R2: es ist symmetrisch und linear in jedem seiner beiden Einträge. Also gilt z.B.: < ~a − ~b, ~a − ~b >=< ~a, ~a − ~b > − < ~b, ~a − ~b > =< ~a, ~a > − < ~a, ~b > − < ~b, ~a > + < ~b, ~b > =< ~a, ~a > −2 < ~a, ~b > + < ~b, ~b > Damit ergibt sich ohne Schwierigkeit: Damit ergibt sich ohne Schwierigkeit: <~a,~b> 2 2 2 ~ ~ ~ |~a − b| = |~a| + |b| − 2|~a||b| ~ |~a||b| Damit ergibt sich ohne Schwierigkeit: <~a,~b> 2 2 2 ~ ~ ~ |~a − b| = |~a| + |b| − 2|~a||b| ~ |~a||b| Also ist auch im Rn Damit ergibt sich ohne Schwierigkeit: <~a,~b> 2 2 2 ~ ~ ~ |~a − b| = |~a| + |b| − 2|~a||b| ~ |~a||b| Also ist auch im Rn der Cosinus des von ~a und ~b und eingeschlossenen Winkels θ Damit ergibt sich ohne Schwierigkeit: <~a,~b> 2 2 2 ~ ~ ~ |~a − b| = |~a| + |b| − 2|~a||b| ~ |~a||b| Also ist auch im Rn der Cosinus des von ~a und ~b und eingeschlossenen Winkels θ gegeben durch Damit ergibt sich ohne Schwierigkeit: <~a,~b> 2 2 2 ~ ~ ~ |~a − b| = |~a| + |b| − 2|~a||b| ~ |~a||b| Also ist auch im Rn der Cosinus des von ~a und ~b und eingeschlossenen Winkels θ gegeben durch ~ cos(θ) = <~a,b> . |~a||~b| Wieder sagt man: Wieder sagt man: ~a und ~b orthogonal :⇔ < ~a, ~b >= 0. Orthogonales Projizieren auf den Orthogonales Projizieren auf den von einem Vektor ~b erzeugten eindimensionalen Teilraum L(~b) Orthogonales Projizieren auf den von einem Vektor ~b erzeugten eindimensionalen Teilraum L(~b) ist genau so einfach wie im R2: ~a ~a − c~b c~b = ~aL(~b) ~b ~a ~a − c~b c~b = ~aL(~b) ~b ~ < ~a − c~b, ~b >= 0 ⇐⇒ c = <~~a,~b> <b,b> ~a ~a − c~b c~b = ~aL(~b) ~b ~ < ~a − c~b, ~b >= 0 ⇐⇒ c = <~~a,~b> <b,b> Das wird ganz besonders sympathisch, wenn |~b| = 1 ist: ~a ~a − c~b c~b = ~aL(~b) ~b ~a ~a − c~b c~b = ~aL(~b) ~b |~b| = 1 =⇒ ~aL(~b) =< ~a, ~b > ~b Orthonormalbasen Orthonormalbasen Orthonormalbasen Man sagt: Man sagt: Die Vektoren {~b1, ..., ~bn } im Rn bilden eine Man sagt: Die Vektoren {~b1, ..., ~bn } im Rn bilden eine orthonormale Basis (kurz: ON-Basis), Man sagt: Die Vektoren {~b1, ..., ~bn } im Rn bilden eine orthonormale Basis (kurz: ON-Basis), falls sie Länge 1 haben und orthogonal sind: Man sagt: Die Vektoren {~b1, ..., ~bn } im Rn bilden eine orthonormale Basis (kurz: ON-Basis), falls sie Länge 1 haben und orthogonal sind: |~bi| = 1 ∀i < ~bi, ~bj >= 0 ∀i 6= j. Die Darstellung eines Vektors ~a Die Darstellung eines Vektors ~a als Linearkombination von orthonormalen Basisvektoren {~b1, ..., ~bn} Die Darstellung eines Vektors ~a als Linearkombination von orthonormalen Basisvektoren {~b1, ..., ~bn} ist besonders einfach: Die Darstellung eines Vektors ~a als Linearkombination von orthonormalen Basisvektoren {~b1, ..., ~bn} ist besonders einfach: Hat ~a die Darstellung Die Darstellung eines Vektors ~a als Linearkombination von orthonormalen Basisvektoren {~b1, ..., ~bn} ist besonders einfach: Hat ~a die Darstellung ~a = k1~b1 + .... + kn~bn, Die Darstellung eines Vektors ~a als Linearkombination von orthonormalen Basisvektoren {~b1, ..., ~bn} ist besonders einfach: Hat ~a die Darstellung ~a = k1~b1 + .... + kn~bn, dann ergibt das Skalarprodukt mit ~bi: Die Darstellung eines Vektors ~a als Linearkombination von orthonormalen Basisvektoren {~b1, ..., ~bn} ist besonders einfach: Hat ~a die Darstellung ~a = k1~b1 + .... + kn~bn, dann ergibt das Skalarprodukt mit ~bi: < ~a, ~bi >= ki ~a = k1~b1 + .... + kn~bn, ~a = k1~b1 + .... + kn~bn, ki =< ~a, ~bi > ~a = k1~b1 + .... + kn~bn, ki =< ~a, ~bi > Die Komponente ki~bi =< ~a, ~bi > ~bi ist also nichts anderes als ~a = k1~b1 + .... + kn~bn, ki =< ~a, ~bi > Die Komponente ki~bi =< ~a, ~bi > ~bi ist also nichts anderes als die Projektion von ~a auf den eindimensionalen Teilraum L(~bi). ~a = k1~b1 + .... + kn~bn, ki =< ~a, ~bi > Die Komponente ki~bi =< ~a, ~bi > ~bi ist also nichts anderes als die Projektion von ~a auf den eindimensionalen Teilraum L(~bi). Die Darstellung von ~a ~a = k1~b1 + .... + kn~bn, ki =< ~a, ~bi > Die Komponente ki~bi =< ~a, ~bi > ~bi ist also nichts anderes als die Projektion von ~a auf den eindimensionalen Teilraum L(~bi). Die Darstellung von ~a als Linearkombination der orthonormalen Basisvektoren {~b1, ..., ~bn } ~a = k1~b1 + .... + kn~bn, ki =< ~a, ~bi > Die Komponente ki~bi =< ~a, ~bi > ~bi ist also nichts anderes als die Projektion von ~a auf den eindimensionalen Teilraum L(~bi). Die Darstellung von ~a als Linearkombination der orthonormalen Basisvektoren {~b1, ..., ~bn } ist somit : ~a = k1~b1 + .... + kn~bn, ki =< ~a, ~bi > Die Komponente ki~bi =< ~a, ~bi > ~bi ist also nichts anderes als die Projektion von ~a auf den eindimensionalen Teilraum L(~bi). Die Darstellung von ~a als Linearkombination der orthonormalen Basisvektoren {~b1, ..., ~bn } ist somit : ~a = ~aL(~b ) + ... + ~aL(~b ) =< ~a, ~b1 > ~b1 + ...+ < ~a, ~bn > ~bn n 1 ~a = k1~b1 + .... + kn~bn ~a = k1~b1 + .... + kn~bn Man nennt die Zahlen k1, ..., kn auch die ~a = k1~b1 + .... + kn~bn Man nennt die Zahlen k1, ..., kn auch die Koordinaten von ~a in der Basis {~b1, ..., ~bn } ~a = k1~b1 + .... + kn~bn Man nennt die Zahlen k1, ..., kn auch die Koordinaten von ~a in der Basis {~b1, ..., ~bn } Wir haben gesehen: Das Ausrechnen der Koordinaten in einer orthonormalen Basis {~b1, ..., ~bn}ist ganz leicht: ~a = k1~b1 + .... + kn~bn Man nennt die Zahlen k1, ..., kn auch die Koordinaten von ~a in der Basis {~b1, ..., ~bn } Wir haben gesehen: Das Ausrechnen der Koordinaten in einer orthonormalen Basis {~b1, ..., ~bn}ist ganz leicht: Die ~bi-Koordinate von ~a ist ~a = k1~b1 + .... + kn~bn Man nennt die Zahlen k1, ..., kn auch die Koordinaten von ~a in der Basis {~b1, ..., ~bn } Wir haben gesehen: Das Ausrechnen der Koordinaten in einer orthonormalen Basis {~b1, ..., ~bn}ist ganz leicht: Die ~bi-Koordinate von ~a ist ki =< ~a, ~bi > Beispiel Beispiel x ~a = y z Beispiel x ~a = y z 1 ~b1 = 0 0 0 ~b2 = 1 0 0 ~b3 = 0 1 Beispiel x ~a = y z 1 ~b1 = 0 0 0 ~b2 = 1 0 0 ~b3 = 0 1 ~a =< ~a, ~b1 > ~b1+ < ~a, ~b2 > ~b2+ < ~a, ~b3 > ~b3 Beispiel x ~a = y z 1 ~b1 = 0 0 0 ~b2 = 1 0 0 ~b3 = 0 1 ~a =< ~a, ~b1 > ~b1+ < ~a, ~b2 > ~b2+ < ~a, ~b3 > ~b3 = x~b1 + y~b2 + z~b3 Weil das Ausrechnen von Koordinaten in ON-Basen so leicht ist, Weil das Ausrechnen von Koordinaten in ON-Basen so leicht ist, ist auch das Umrechnen der Koordinaten von einer in eine andere ON-Basis leicht. Beispiel: n = 2 Beispiel: n = 2 Seien {~e1, ~e2} und {f~1, f~2} zwei ON-Basen des R2 Beispiel: n = 2 Seien {~e1, ~e2} und {f~1, f~2} zwei ON-Basen des R2 Gegeben sei die Darstellung Beispiel: n = 2 Seien {~e1, ~e2} und {f~1, f~2} zwei ON-Basen des R2 Gegeben sei die Darstellung ~a = k1~e1 + k2~e2 Beispiel: n = 2 Seien {~e1, ~e2} und {f~1, f~2} zwei ON-Basen des R2 Gegeben sei die Darstellung ~a = k1~e1 + k2~e2 Wie sieht die erste Koordinate von ~a in der Basis {f~1, f~2} aus? Beispiel: n = 2 Seien {~e1, ~e2} und {f~1, f~2} zwei ON-Basen des R2 Gegeben sei die Darstellung ~a = k1~e1 + k2~e2 Wie sieht die erste Koordinate von ~a in der Basis {f~1, f~2} aus? Wir berechnen die gesuchte “f~1-Koordinate” von ~a durch Projizieren auf L(f~1): Beispiel: n = 2 Seien {~e1, ~e2} und {f~1, f~2} zwei ON-Basen des R2 Gegeben sei die Darstellung ~a = k1~e1 + k2~e2 Wie sieht die erste Koordinate von ~a in der Basis {f~1, f~2} aus? Wir berechnen die gesuchte “f~1-Koordinate” von ~a durch Projizieren auf L(f~1): < ~a, f~1 >= k1 < ~e1, f~1 > +k2 < ~e2, f~1 > Das Orthogonale Komplement: Das Orthogonale Komplement: Sei U ein Teilraum von A. Das Orthogonale Komplement: Sei U ein Teilraum von A. Das orthogonale Komplement Das Orthogonale Komplement: Sei U ein Teilraum von A. Das orthogonale Komplement U⊥ Das Orthogonale Komplement: Sei U ein Teilraum von A. Das orthogonale Komplement U⊥ (lies: ” U -senkrecht“) Das Orthogonale Komplement: Sei U ein Teilraum von A. Das orthogonale Komplement U⊥ (lies: ” U -senkrecht“) ist der Teilraum aller Vektoren, die orthogonal auf U stehen: Das Orthogonale Komplement: Sei U ein Teilraum von A. Das orthogonale Komplement U⊥ (lies: ” U -senkrecht“) ist der Teilraum aller Vektoren, die orthogonal auf U stehen: U ⊥ = {~a ∈ A | < ~a, ~ u >= 0 ∀~ u ∈ U }. Sei {~b1, ..., ~bn} eine orthonormale Basis von A. Dann gilt: L(~b1, ..., ~br )⊥ = L(~br+1, ..., ~bn). Beispiele: Beispiele: Im R2 Beispiele: Im R2 L((1, 0)T )⊥ = Beispiele: Im R2 L((1, 0)T )⊥ = L((0, 1)T ) Beispiele: Im R2 L((1, 0)T )⊥ = L((0, 1)T ) L((0.6, 0.8)T )⊥ = Beispiele: Im R2 L((1, 0)T )⊥ = L((0, 1)T ) L((0.6, 0.8)T )⊥ = L((−0.8, 0.6)T ) Im R3 Im R3 L((1, 0, 0)T )⊥ = Im R3 L((1, 0, 0)T )⊥ = L((0, 1, 0)T , (0, 0, 1)T ) Im R3 L((1, 0, 0)T )⊥ = L((0, 1, 0)T , (0, 0, 1)T ) L((0.6, 0.8, 0)T , (−0.8, 0.6, 0)T )⊥ = Im R3 L((1, 0, 0)T )⊥ = L((0, 1, 0)T , (0, 0, 1)T ) L((0.6, 0.8, 0)T , (−0.8, 0.6, 0)T )⊥ = L((0, 0, 1)T ) Orthogonale Projektion in Rn: Orthogonale Projektion in Rn: Die orthogonale Projektion ~aB Orthogonale Projektion in Rn: Die orthogonale Projektion ~aB des Vektors ~a auf den Teilraum B Orthogonale Projektion in Rn: Die orthogonale Projektion ~aB des Vektors ~a auf den Teilraum B ist derjenige Vektor aus B, für den die Differenz (~a − ~aB ) Orthogonale Projektion in Rn: Die orthogonale Projektion ~aB des Vektors ~a auf den Teilraum B ist derjenige Vektor aus B, für den die Differenz (~a − ~aB ) orthogonal zu allen Vektoren ~b in B steht: Orthogonale Projektion in Rn: Die orthogonale Projektion ~aB des Vektors ~a auf den Teilraum B ist derjenige Vektor aus B, für den die Differenz (~a − ~aB ) orthogonal zu allen Vektoren ~b in B steht: < (~a − ~aB ), ~b > = 0 ~ ∈ B. ∀B Projizieren auf B ist leicht, Projizieren auf B ist leicht, wenn man eine orthonormale Basis ~b1, ..., ~bm für B kennt. Dann gilt: Projizieren auf B ist leicht, wenn man eine orthonormale Basis ~b1, ..., ~bm für B kennt. Dann gilt: ~aB = ~aL(~b ) + ... + ~aL(~b ) m 1 Projizieren auf B ist leicht, wenn man eine orthonormale Basis ~b1, ..., ~bm für B kennt. Dann gilt: ~aB = ~aL(~b ) + ... + ~aL(~b ) m 1 = < ~a, ~b1 > ~b1 + ...+ < ~a, ~bm > ~bm. Projizieren auf B ist leicht, wenn man eine orthonormale Basis ~b1, ..., ~bm für B kennt. Dann gilt: ~aB = ~aL(~b ) + ... + ~aL(~b ) m 1 = < ~a, ~b1 > ~b1 + ...+ < ~a, ~bm > ~bm. Falls die ~bi nicht normiert sind ( |~bi| 6= 1), Projizieren auf B ist leicht, wenn man eine orthonormale Basis ~b1, ..., ~bm für B kennt. Dann gilt: ~aB = ~aL(~b ) + ... + ~aL(~b ) m 1 = < ~a, ~b1 > ~b1 + ...+ < ~a, ~bm > ~bm. Falls die ~bi nicht normiert sind ( |~bi| 6= 1), muss man nachträglich normieren: Projizieren auf B ist leicht, wenn man eine orthonormale Basis ~b1, ..., ~bm für B kennt. Dann gilt: ~aB = ~aL(~b ) + ... + ~aL(~b ) m 1 = < ~a, ~b1 > ~b1 + ...+ < ~a, ~bm > ~bm. Falls die ~bi nicht normiert sind ( |~bi| 6= 1), muss man nachträglich normieren: < ~a, ~bi > ~ bi. ~aL(~b ) = ~ ~ i < bi, bi > Beispiele im R3: Beispiele im R3: Sei ~a = (1, 2, 3)T . Beispiele im R3: Sei ~a = (1, 2, 3)T . aL((0,0,1)T ) = Beispiele im R3: Sei ~a = (1, 2, 3)T . aL((0,0,1)T ) = = (0, 0, 3)T Beispiele im R3: Sei ~a = (1, 2, 3)T . aL((0,0,1)T ) = = (0, 0, 3)T ~aL((0,1,0)T ,(0,0,1)T ) = Beispiele im R3: Sei ~a = (1, 2, 3)T . aL((0,0,1)T ) = = (0, 0, 3)T ~aL((0,1,0)T ,(0,0,1)T ) = = (0, 2, 3)T ~a = (1, 2, 3)T ~a = (1, 2, 3)T ~aL((1,1,1)T ) = ~a = (1, 2, 3)T ~aL((1,1,1)T ) = = (2, 2, 2)T ~a = (1, 2, 3)T ~aL((1,1,1)T ) = = (2, 2, 2)T ~aL((1,1,0)T ) = ~a = (1, 2, 3)T ~aL((1,1,1)T ) = = (2, 2, 2)T ~aL((1,1,0)T ) = = 3, 3, 0 T 2 2 ~a = (1, 2, 3)T ~a = (1, 2, 3)T ~aL((1,1,0)T ,(0,0,1)T ) = ~a = (1, 2, 3)T ~aL((1,1,0)T ,(0,0,1)T ) = 3, 3, 3 T 2 2 ~a = (1, 2, 3)T ~aL((1,1,0)T ,(0,0,1)T ) = 3, 3, 3 T 2 2 ~aL((1,2,3)T ) = ~a = (1, 2, 3)T ~aL((1,1,0)T ,(0,0,1)T ) = 3, 3, 3 T 2 2 ~aL((1,2,3)T ) = = (1, 2, 3)T