Hilfsmittel aus Mathematik und Statistik $ Materialien zu „Investition

Werbung
Hilfsmittel aus Mathematik und Statistik
- Materialien zu „Investition und Finanzierung”Lehrstuhl für Betriebswirtschaftslehre mit Schwerpunkt Finanzierung
Universität Passau
2006
Inhaltsverzeichnis
1 Statistik
1.1 Statistische Verteilungsparameter und ihre Berechnung: Erwartungswert, Varianz,
Kovarianz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.2 Wichtige Eigenschaften der Basisparameter
Erwartungswert, Varianz und Kovarianz . . . . . . . . . . . . . . . . . . . . . . .
2 Matrizenrechnung
2.1 Grundsätzliche Konstruktion . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.2 Rechnen mit Vektoren und Matrizen . . . . . . . . . . . . . . . . . . . . . . . .
2.3 Darstellungsmöglichkeiten mittels Matrizenrechnung
(anhand eines Beispiels aus dem Bereich „Portfolio–Selektion”) . . . . . . . . .
2.4 Di¤erentiation von Matrizen und Vektoren . . . . . . . . . . . . . . . . . . . . .
2.5 Di¤erentiation von Matrizen und Vektoren (anhand
eines Beispiels aus dem Bereich „Portfolio–Selektion”) . . . . . . . . . . . . . .
2.6 Abschließ
ende Bemerkungen:
Au‡ösung nach einer Unbekannten, wenn sie in einer Vektorgleichung enthalten
1
2
2
5
.
.
12
12
13
.
.
16
17
.
19
ist 20
Kapitel 1
Statistik
1.1
Statistische Verteilungsparameter und ihre Berechnung:
Erwartungswert, Varianz, Kovarianz
Üblicherweise begegnet man drei Verteilungsparametern: Erwartungswert, Varianz, Kovarianz.
Weitere Kenngröß
en (Höhere Momente, Schiefe, etc.) werden im Weiteren nicht behandelt. Alle
diese Größ
en lassen sich letztlich auf das Konzept des Erwartungswertes zurückführen
– Erwartungswert:
Verbale Beschreibung:
Der Erwartungswert ist die mit den Eintrittswahrscheinlichkeiten gewichtete Summe
der möglichen Realisationen einer Zufallsvariablen. Im einfachsten Fall einer Zufallsgröß
en mit endlich vielen (n) möglichen Werten können diese Werte als Datenreihe
aufgeschrieben werden.
Formale Beschreibung:
Sei hier und im Folgenden X eine reelle Zufallsvariable mit endlich vielen möglichen
Ausprägungen x1 ; : : : ; xn . Für die Eintritts–Wahrscheinlichkeit gelte prob[X = xi ] =
n
X
pi 2 [0; 1], wobei
pi = 1 gilt. Dann berechnet man den Erwartungswert E[X] im
i=1
endlichen Fall wie folgt:
E [X] =
n
X
pi xi
i=1
X:
xi :
pi :
Zufallsvariable
Die i–te Ausprägung der Zufallsvariable n X (i 2 1 : : : n)
Eintritts–Wahrscheinlichkeit der Ausprägung xi (i 2 1 : : : n)
Beispiel:
Eine Zufallsvariable X sei wie folgt gegeben:
X =
x1 = 1
x2 = 3
mit Wahrscheinlichkeit
mit Wahrscheinlichkeit
2
1
2
1
2
Dann gilt für den Erwartungswert von X:
E[X]
2
X
=
pi xi = p1 x1 + p2 x2
i=1
1
2
=
1+
1
2
3=2
Für die De…nition des Erwartungswerts bei Zufallsvariablen mit abzählbar unendlich
vielen möglichen Werten (z. B. Z) oder mit überabzählbar vielen möglichen Werten
(z. B. R oder [0; 1]) sei auf die einschlägige Literatur verwiesen.
– Varianz:
Verbale Beschreibung:
Die Varianz ist die erwartete quadratische Abweichung einer Zufallsvariablen von ihrem Erwartungswert.
Formale Beschreibung:
var[X] =
n
X
pi (xi
i=1
h
2
E[X]) = E (X
2
E[X])
i
Beispiel:
Es sei die Zufallsvariable X von oben gegeben.
var[X]
=
n
X
pi (xi
2
E[X])
i=1
= p1 (x1
=
1
2
(1
2
E[X]) + p2 (x2
2)2 +
1
2
(3
2
E[X])
2)2 = 1
Zusatz:
Die Varianz hat als quadrierte Größ
e auch die ursprüngliche Einheit zum Quadrat, z.B. Geldeinheiten2 . Man rechnet aber lieber mit Geldeinheiten (und nicht
mit ihrem Quadrat).
Die Standardabweichung std[X] =
Im Beispiel gilt: std[X] =
p
X
var[X] =
– Kovarianz:
3
=
p
p
var[X] wird gebildet.
1=1
Verbale Beschreibung:
Die Kovarianz ist ein Maßfür das Zusammenspiel zweier Zufallsvariable n.
Formale Beschreibung:
cov [X; Y ]
=
n
X
pi (xi
E[X]) (yi
E[Y ])
i=1
= E [(X
E[X]) (Y
E[Y ])]
Beispiel:
Es gebe zwei Zustände „Zustand 1”und „Zustand 2”. In Abhängigkeit des Zustands
nehme das Zufallsvariable n–Paar (X; Y ) die Werte der folgenden Tabelle an. Man
spricht von „gemeinsamer Verteilung”. Die Eintritts–Wahrscheinlichkeiten der beiden
Zustände seien wieder jeweils 12 .
X
Y
Zustand 1 mit Wahrscheinlichkeit
1
2
1 = x1
5 = y1
Zustand 2 mit Wahrscheinlichkeit
1
2
3 = x2
2 = y2
Es gilt:
E[Y ]
=
1
2
var[Y ]
=
1
2
cov[X; Y ]
=
5+
2 = 3; 5
3; 5)2 +
(5
2
X
1
2
pi (xi
1
2
(2
3; 5)2 = 2; 25
E[X]) (yi
E[Y ])
i=1
= p1 (x1
=
=
1
2
(1
E[X]) (y1
2) (5
3; 5) +
E[Y ]) + p2 (x2
1
2
(3
2) (2
E[X]) (y2
E[Y ])
3; 5)
1; 5
Zusatz:
Die Zufallsvariablen X und Y heiß
en unkorreliert, falls cov[X ; Y ] = 0. Sind X
und Y stochastisch unabhängig, so sind sie auch unkorreliert; die Umkehrung ist
aber im Allgemeinen falsch.
Es gilt: cov[X; X] = var[X].
4
Die Kovarianz kann beliebige Werte annehmen:
)
Es ist schwierig zu sagen, ob Zufallsvariable n mit hoher Kovarianz
ein stärkeres Zusammenspiel aufweisen als solche mit niedriger Ko–
varianz.
)
Man de…niert den Korrelationskoe¢ zienten
als eine Art normierte
Kovarianz, um Vergleiche zu ermöglichen:
cov[X; Y ]
X E [X] Y E [Y ]
= cov
;
std[X] std[Y ]
std[X]
std[Y ]
1 mit den folgenden Interpretationen:
= corr[X; Y ] =
Es gilt
=
1
1:
=0 :
Zufallsvariable n laufen völlig gegeneinander.
Zufallsvariable n laufen völlig unbeein‡usst nebeneinander, d.h.
sie haben nichts miteinander zu tun.
=1 :
Zufallsvariable n laufen völlig miteinander.
Das „miteinander Laufen”bzw. „gegeneinander Laufen”von Zufallsvariablen bezieht sich dabei auf eine a¢ n lineare Beziehung zwischen den Zufallsvariable n,
denn es gilt: j j = 1 genau dann, wenn a; b 2 R existieren mit prob[Y = a X +b] =
1.
– Bemerkung: Bisher wurde die Wahrscheinlichkeit für einen Zustand si
explizit vorgegeben, z.B. prob(s1 ) = 21 .
(i 2 1 : : : n)
Eine alternative Möglichkeit ist die Vorgabe der Verteilung der Zustände. Daraus erreichnet
man die Eintritts–Wahrscheinlichkeit en, z.B. 3 Zustände mit Gleichverteilung:
prob(s1 ) = prob(s2 ) = prob(s3 ) =
1.2
1
3
Wichtige Eigenschaften der Basisparameter
Erwartungswert, Varianz und Kovarianz
– Basisparameter und sichere Größ
en:
Eine sichere Größ
e liefert in jedem Zustand (genauer: in jedem Zustand mit positiver
Eintritts–Wahrscheinlichkeit) einen identischen Wert. Man spricht auch von einer deterministischen Größ
e oder –im exakten mathematischen Sprachgebrauch –von einer
fast sicheren Größ
e.
5
Erwartungswert einer sicheren Größ
e:
Der Erwartungswert einer sicheren Größ
e ist die sichere Größ
e. Sei etwa Z eine
Zufallsvariable mit prob[Z = r] = 1, dann gilt: E[Z] = 1 r = r.
Beispiel:
Z
Zustand s1 mit Wahrscheinlichkeit
1
2
r
Zustand s2 mit Wahrscheinlichkeit
1
2
r
Dann gilt:
E[Z] =
1
2
r +
1
2
r = r:
Varianz einer sicheren Größ
e:
Die Varianz einer sicheren Größ
e beträgt 0, d.h. eine sichere Größ
e schwankt (de…nitionsgemäß
) nicht. Sei wieder Z eine Zufallsvariable mit prob[Z = r] = 1, dann gilt
E[Z] = r und es folgt
var[Z] =
n
X
i=1
2
pi r E[Z]
| {z }
0
=0
Die Kovarianz einer sicheren mit einer unsicheren Größ
e:
Die Kovarianz einer sicheren mit einer anderen, im Allgemeinen unsicheren Größ
e beträgt 0. Eine sichere und eine unsichere Größ
e laufen also völlig unbeein‡usst nebeneinander. Sie sind unkorreliert. Sei wieder Z eine Zufallsvariable mit prob[Z = r] = 1,
und sei X irgendeine Zufallsvariable. Es folgt:
cov[Z; X] =
n
X
i=1
pi r E[Z]
| {z }
0
xi
E[X] = 0
– Das Vielfache einer Zufallsvariablen und die Summe zweier Zufallsvariablen:
Allgemeines:
Seien X und Z zwei Zufallsvariable n und a eine reelle Zahl. Dann sind W := a X
und U := X + Y zwei (neue) Zufallsvariable n.
6
Beispiel:
X
Y
W := 4 X
U := X + Y
Zustand 1
1
5
4
6
Zustand 2
3
2
12
5
Erwartungswert:
Der Erwartungswert ist linear, d.h.
(i)
und
(ii)
E [a X] = a E [X]
E [X + Y ] = E [X] + E [Y ]
denn es gilt
(i)
E [a X] =
x
P
pi (a xi ) =
i=1
und
(ii)
E [X + Y ] =
x
P
x
P
a (pi xi ) = a
i=1
pi (xi + yi ) =
i=1
x
P
pi xi +
i=1
x
P
i=1
Die Kovarianz ist symmetrisch und bilinear, d.h.
(i)
cov[X ; Y ]
= cov[Y ; X],
(ii)
cov[a X ; Y ]
= a cov[X ; Y ],
cov[X ; b Y ]
= b cov[X ; Y ],
cov[X + Y ; Z]
= cov[X ; Z] + cov[Y ; Z],
cov[X ; Y + Z]
= cov[X ; Y ] + cov[X ; Z],
denn es gilt:
7
pi xi = a E [X]
i=1
Kovarianz
(iii)
x
P
pi yi = E [X] + E [Y ]
(i)
cov[X ; Y ]
=
=
n
X
pi (xi
E[X]) (yi
E[Y ])
i=1
n
X
pi (yi
E[Y ]) (xi
E[X])
n
X
pi (a xi
E[a X]) (yi
E[Y ])
pi (a xi
a E[X]) (yi
E[Y ])
a pi (xi
E[X]) (yi
E[Y ])
E[X]) (yi
E[Y ])
i=1
= cov[Y ; X]
(ii)
cov[a X ; Y ]
=
=
=
i=1
n
X
i=1
n
X
i=1
=a
n
X
pi (xi
i=1
= a cov[X ; Y ]
Die zweite Gleichung folgt aus der Symmetrie, d.h. aus Gleichung (i).
(iii)
cov[X + Y ; Z] =
=
=
=
n
X
i=1
n
X
i=1
n
X
n
X
pi (xi + yi )
E[X + Y ] (zi
E[Z])
i=1
pi (xi + yi )
pi (xi
pi (xi
(E[X] + E[Y ]) (zi
E[X]) + (yi
E[X]) (zi
E[Y ]) (zi
E[Z]) +
i=1
n
X
E[Z])
E[Z])
pi (yi
i=1
= cov[X ; Z] + cov[Y ; Z]
Die zweite Gleichung folgt wieder aus der Symmetrie.
Varianz
Die Varianz ist quadratisch, d.h.
(i)
var[a X] = a2 var[X]
(ii)
var[X + Y ] = var[X] + 2 cov[X ; Y ] + var[Y ]
(zur Struktur: Vgl. Binomische Formel)
denn es gilt:
8
E[Y ])(zi
E[Z])
(i)
var[a X]
(ii)
=
cov[a X ; a X]
=
a a cov[X ; X]
=
a2 var[X]
var[X + Y ] = cov[X + Y ; X + Y ]
= cov[X ; X + Y ] + cov[Y ; X + Y ]
= cov[X ; X] + cov[X ; Y ] + cov[Y ; X] + cov[Y ; Y ]
= var[X] + 2 cov[X ; Y ] + var[Y ]
Anwendungsgebiet des Vielfachen einer Zufallsvariablen bzw. der Summe zweier Zufallsvariablen:
Die Rendite–Preis–Umrechnung: Wir betrachten aus einer Menge von Wertpapieren ein bestimmtes Papier j. Sein Preis im Zeitpunkt t = 0 sei deterministisch Pj .
Seine Zahlung im Zeitpunkt t = 1 sei stochastisch Zj . Seine Rendite Rj ist stochastisch
und ergibt sich aus:
Pj (1 + Rj ) = Zj () Rj =
Zj
Pj
1 () 1 + Rj =
Zj
Pj
Erwartungswert:
)
Zj
Zj
Pj = Pj E
= Pj E[1 + Rj ] = Pj (1 + E[Rj ])
Pj
Pj
d.h. der Erwartungswert einer Zahlung des Papiers j ergibt sich
aus dem Erwartungswert von (1 + Rendite) durch Multiplikation
mit seinem Preis.
Man beachte, dass bei dem letzten Gleichheitszeichen die Linearität
des Erwartungswerts und der Erwartungswert einer sicheren Größ
e
angewendet worden ist.
E[Zj ] = E
E[Zj ]
Pj
d.h. der Erwartungswert von (1 + Rendite) des Papiers j ergibt sich
aus dem erwarteten Zahlungsstrom des Papiers durch Division mit
seinem Preis.
Varianz:
)
E[1 + Rj ] =
9
)
)
Zj Pj
= var[1 + Rj ] Pj2 = 1 var[Rj ] Pj2
Pj
d.h. die Varianz einer Zahlung des Papiers j ergibt sich aus der
Varianz der Rendite durch Multiplikation mit seinem quadrierten
Preis
var[Zj ] =var
var[Zj ]
Pj2
d.h. die Varianz der Rendite des Papiers j ergibt sich aus der
Zahlungsstromvarianz durch Division mit seinem quadrierten Preis.
var[Rj ] =
Kovarianz:
)
)
Zi Pi Zj Pj
;
Pi
Pj
= Pi Pj cov[1 + Ri ; 1 + Rj ]
= 2 Pi Pj cov[Ri ; Rj ]
d.h. die Kovarianz der Zahlungsströme zweier Papiere i und j ergibt
sich aus der Renditekovarianz durch Multiplikation mit den Preisen
beider Wertpapiere.
cov[Zi ; Zj ] = cov
cov[Z ;Z ]
cov[Ri ;Rj ] = Pi Pi j j
d.h. die Kovarianz der Renditen zweier Papiere i und j ergibt sich
aus der Zahlungsstromkovarianz durch Division mit den Preisen
beider Wertpapiere.
– Weitere Eigenschaften der Basiskennzahlen:
Zusammenhang zwischen Korrelationskoe¢ zient und Kovarianz:
cov[X; Y ]
=
) cov[X; Y ] =
std[X] std[Y ]
std[X] std[Y ]
Verschiebungssätze
Es gilt:
1 Der deterministische Summand 1 verschwindet bei der Varianz–Bildung. Wir beweisen diese Eigenschaft
später im Abschnitt „Weitere Eigenschaften der Basis–Kennzahlen“ .
2 Auch
bei der Kovarianz–Bildung verschwinden deterministische Summanden.
10
(i)
(ii)
(iii)
var[X]
= E[X 2 ]
(E[X])2
E[X 2 ]
= var[X] + (E[X])2
cov[X ; Y ]
= E[X Y ]
E[X Y ]
= cov[X ; Y ] + E[X] E[Y ] ,
cov[X ; Y ]
h
= E X(Y
bzw.
,
E[X] E[Y ]
bzw.
i
h
E[Y ]) = E (X
E[X])Y
i
,
denn es gilt:
h
i
(ii) cov[X ; Y ] = E (X E[X])(Y E[Y ])
h
i
= E X Y X E[Y ] E[X]Y + E[X] E[Y ]
(i)
(iii)
= E[X Y ]
E[X] E[Y ]
= E[X Y ]
E[X] E[Y ] .
E[X] E[Y ] + E[X] E[Y ]
Folgt aus (ii), da var[X] = cov[X ; X].
h
E X(Y
i
h
E[Y ]) = E X Y
= E[X Y ]
E[X] E[Y ]
(ii)
=
i
X E[Y ]
cov[X ; Y ] .
Varianz einer Summe
Leicht zu zeigen sind nun folgende Eigenschaften:
(i)
var [Xi + Xj ] = var [Xi ] + var [Xj ] + 2 cov [Xi ; Xj ]
(ii)
var [ai Xi + aj Xj ] = a2i var [Xi ] + a2j var [Xj ] + 2ai ai cov [Xi ; Xj ]
(iii)
var [Xi + Xj + Xk ] =
var [Xi ] + var [Xj ] + var [Xk ] + 2 cov [Xi ; Xj ] + 2 cov [Xi ; Xk ] + 2 cov [Xj ; Xk ]
(iv)
var [1 + X] = var [X]
(v)
cov [1 + X; Y ] = cov [X; Y ]
11
Kapitel 2
Matrizenrechnung
2.1
Grundsätzliche Konstruktion
– Zahl oder Skalar
– Vektor
a
b
a 2 R.
bzw.
(a b)1
2
mit
2 1
a; b 2 R
Die Schreibweise 2
1 bzw. 1
2 bezeichnet die Dimension des Vektors, d.h. wie viele
Zeilen und Spalten er hat. Die erste Zahl beschreibt die Anzahl der Zeilen, die zweite Zahl
die Anzahl der Spalten.
a
b
2
1
(a b)1
2
: 2 Zeilen, 1 Spalte ) Spaltenvektor
: 1 Zeile, 2 Spalten ) Zeilenvektor
Spaltenvektoren sind die Standardform der Darstellung von Vektoren; wenn man von einem
Vektor spricht, meint man automatisch einen Spaltenvektor. Ein (n 1)–Spaltenvektor x
ist ein Element aus Rn , man schreibt x 2 Rn .
– Matrix
Eine (2
abc
def
mit
2
3
a; : : : ; f 2 R
3)–Matrix, die aus 2 Zeilen und 3 Spalten besteht.
– Fazit
Schon der rein optische Vergleich von Vektoren und Matrizen mit Zahlen legt nahe, dass
für Vektoren und Matrizen andere Rechenregeln als für Zahlen benötigt werden.
12
2.2
Rechnen mit Vektoren und Matrizen
– Grundsätzlich gilt, dass nur Vektoren/Matrizen passender Dimension verknüpft werden
können.
) Klärung, was unter „passend“ zu verstehen ist.
– Addition und Subtraktion von Vektoren/Matrizen ist komponentenweise de…niert:
a
b
a
b
c
d
+
2
1
c
d
e
+
2
ab
cd
1
2
2
1
!
:
3
2
Nicht de…niert, da unterschiedliche Dimensionen.
1
ef
gh
+
a+c
b+d
=
a+e b+f
c+g d+h
=
2
2
– Die Transposition als Vektor/Matrix –typische Operation
Die Transposition macht aus Zeilen nun Spalten und aus Spalten nun Zeilen. Beispiel:
x
=
x1
x2
=
xT
=
x1
x2 = 1
A
=
AT
=
3
1
0
3
@1
0
1
5
1
3
: Spaltenvektor
3
: Zeilenvektor
0
2
: (2 3)_Matrix
1
1
5A
2
: (3 2)_Matrix
– Multiplikation
Multiplikation einer Zahl mit einem Vektor/einer Matrix: Die Skalare Multiplikation
Man multipliziert den Skalar mit allen Komponenten des Vektors/der Matrix:
x1
x2
a b
c d
x1
x2
=
( 2 R)
a
c
=
13
b
d
( 2 R)
Multiplikation zweier Matrizen: Das Matrizen–Produkt
Zwei Matrizen A und B können multizipliert werden, wenn die Anzahl der Spalten
der ersten Matrix gleich der Anzahl der Zeilen der zweiten Matrix ist.
Für die Dimensionen gilt dann:
(m
Beispiele:
(1 2) (2
1) = (1
(1
2) (1
2): Nicht de…niert
(1
2)T (1
2) = (2
k) (k
n) = (m
n)
1): Eine Zahl, d.h. ein Skalar
1) (1
2) = (2
2)
Rechenregel:
a b
c d
e
g
f
h
=
a e+b g
c e+d g
a f +b h
c f +d h
Das Element (i,j) der Ergebnis–Matrix ergibt sich aus der i–ten Zeile der ersten Matrix
und der j–ten Spalte der zweiten Matrix. Beachte, dass das Matrizen–Produkt nicht
kommutativ ist.
Beispiel:
3
1
1
5
0
2
0
1
@1
0
1
2
1A =
1
4
4
5
9
Spezialfall des Matrizen–Produkts: Das (Standard–) Skalarprodukt oder das Innere Produkt oder die Vektor–Multiplikation
Seien0x; y12 Rn zwei
der gleichen Dimension (n
0 Vektoren
1
x1
y1
x = @ ... A ; y = @ ... A, dann heiß
t das Produkt
xn
yn
xT y = y T x =
n
X
1), also n–Spaltenvektoren
xi yi
i=1
Inneres Produkt oder (Standard–) Skalarprodukt.
Beispiel:
x=
1
2
; y=
xT y = y T x =
14
1
1
1+2 = 1
– Division
Für Vektoren/Matrizen ist –mit Ausnahme der Inversen–Bildung –keine Division de…niert.
– Inversen–Bildung
Betrachtet man nur quadratische Matrizen der Dimensionen (n
heitsmatrix
0
1
id = E = @0
0
eine Matrix, die für
0
1
0
1
0
0A
1
n), so ist die sog. Ein-
(n = 3)
(A 2 Rn
A id = id A = A
n
)
gilt. Die Einheitsmatrix id ist das „neutrale Element der Multiplikation“.
Bei den reellen Zahlen ist die 1 das neutrale Element der Multiplikation. Für =
6 0 gilt:
1
1
1
=
= 1
= 1. Die Zahl
ist deshalb das „inverse Element“ zu .
Die zur (n
n)–Matrix A inverse Matrix A
A A
1
1
ist derart de…niert, dass
1
= A
A = id
gilt. Man kann zeigen, dass
(i)
(ii)
(iii)
(iv)
die
die
die
die
inverse
inverse
inverse
inverse
Matrix
Matrix
Matrix
Matrix
eindeutig ist, falls sie existiert;
existiert, falls die Spalten der Matrix linear unabhängig sind;
existiert, falls die Zeilen der Matrix linear unabhängig sind;
existiert, falls die Determinante verschieden von null ist.
Konkrete Berechnung für den (2
1
a b
c d
=
2)–Fall:
1
det
d
c
b
a
=
1
ad
d
c
bc
b
a
Beispiel:
1
3
2
4
1
=
1
1 4
4
3
2 3
2
1
=
2
1; 5
1
0; 5
Proben:
1
3
2
4
2
1; 5
1
0; 5
=
1
0
0
1
und
15
2
1; 5
1
0; 5
1
3
2
4
=
1
0
0
1
2.3
Darstellungsmöglichkeiten mittels Matrizenrechnung
(anhand eines Beispiels aus dem Bereich „Portfolio–
Selektion”)
– Skalarprodukt (Vektormultiplikation)
Verbale Darstellung:
Die Einzelvermögen, die in die einzelnen Wertpapiere investiert werden, dürfen das
insgesamt zur Verfügung stehende Budget nicht übersteigen.
(übliche) formale Darstellung:
x1 P1 + x2 P2 + : : : + xn Pn = W (0) ()
Dabei ist
n
X
xi Pi = W (0)
i=1
0
1
x1
B
C
x = @ ... A
xn
der Vektor der Stückzahlen, mit denen die einzelnen Wertpapiere ins Portfolio eingehen
und W (t) der Wert des Vermögens, das im Zeitpunkt t = 0; 1; : : : vorhanden ist
Vektor–Darstellung:
0
1
0 1
x1
P1
Sei x = @ ... A der Stückzahlenvektor und P = @ ... A der Preisvektor, dann:
xn
Pn
x1 x2 : : : xn
0
1
P1
B P2 C
B C
B .. C = W (0)
@ . A
Pn
oder
xT P = W (0)
– Vektor–Matrizen–Multiplikation:
Verbale Darstellung:
Varianz des Endvermögens, wobei sich das Endvermögen W (1) aus den Rückströmen
zweier verschiedener Papiere zusammensetzt, in die jeweils mit den Stückzahlen x1
und x2 investiert wurde: W (1) = x1 Z1 + x2 Z2 .
(übliche) formale Darstellung:
var[x1 Z1 + x2 Z2 ] = x21 var[Z1 ] + x22 var[Z2 ] + 2 x1 x2 cov[Z1 ; Z2 ]
16
oder
var[x1 Z1 + x2 Z2 ] =
2 X
2
X
xj cov[Zi ; Zj ] xi
i=1 j=1
oder Matrix–Darstellung:
var[x1 Z1 + x2 Z2 ] = x1 x2
oder
var[Z1 ]
cov[Z1 Z2 ]
cov[Z1 Z2 ]
var[Z2 ]
{z
}
|
C
x1
x2
var[x1 Z1 + x2 Z2 ] = xT C x
2.4
Di¤erentiation von Matrizen und Vektoren
– Eine lineare Funktion (lineare Abbildung)
Wir betrachten die folgende lineare Funktion g als Funktion des Vektors x:
0 1
0 1
a1
x1
g(x) = aT x mit a = @ ... A 2 Rn fest und x = @ ... A 2 Rn
an
xn
Dann gilt für die Ableitung nach x:
@ aT x
@ xT a
@ g(x)
=
=
= a
@x
@x
@x
Die Ableitung von g ist also der Spaltenvektor a 2 Rn .
Begründung: Zunächst muss man wissen, dass man unter der Ableitung nach dem
Vektor x den Spaltenvektor der partiellen Ableitungen versteht:
0 @
1
@ x1 g(x)
@
..
A
g(x) = @
.
@x
@
@ xn g(x)
Da für i 2 1 : : : n
@
@ xi
g(x) = ai
gilt, folgt die Behauptung.
Man beachte die Analogie zum eindimensionalen Fall:
Sei f eine lineare Funktion der reellen Zahl x:
f (x) = a x mit a 2 R f est und x 2 R
17
Dann gilt bekanntlich:
@
@ ax
f (x) =
= a:
@x
@x
– Eine quadratische Funktion (quadratische Abbildung)
Wir betrachten die folgende quadratische Funktion g als Funktion des Vektors x:
0 1
x1
g(x) = xT A x mit A 2 Rn n symm.fest und x = @ ... A 2 Rn
xn
Dann gilt für die Ableitung nach x:
@ g(x)
@ xT A x
=
= 2Ax
@(x)
@x
Die Ableitung von g ist also der Spaltenvektor 2 A x 2 Rn .
Begründung: Zunächst gilt:
g(x) =
n X
n
X
xj xk ajk
j=1 k=1
Für die Ableitung nach einer Komponente xi (i 2 1 : : : n) gilt:
n
n
X
X
@
aij xj = 2 aTi x
2 aij xj = 2
g(x) = 2 aii xi +
@ xi
j=1
j=1
j6=i
ai : i–te Zeile/Spalte von A.
Für die Ableitung nach dem Vektor x gilt deshalb:
0 @
1
@ x1 g(x)
@
..
A = 2Ax
g(x) = @
.
@x
@
g(x)
@ xn
Man beachte die Analogie zum eindimensionalen Fall:
Sei f eine quadratische Funktion der reellen Zahl x:
f (x) = a x2
mit a 2 R fest und x 2 R
Dann gilt bekanntlich:
@ a x2
@
f (x) =
= 2 ax :
@x
@x
18
2.5
Di¤erentiation von Matrizen und Vektoren (anhand
eines Beispiels aus dem Bereich „Portfolio–Selektion”)
– Verbale Darstellung:
Minimiere die Varianz des Endvermögens unter der Nebenbedingung, dass das Budget eingehalten wird. Die Stückzahlen x1 und x2 stellen dabei die Entscheidungsparameter dar.
– Matrizen–Darstellung und Lagrange–Ansatz:
min xT C x + (W (0)
x
xT P)
Wir leiten gemäßAbschnitt 2.4 nach dem Stückzahlenvektor x ab und setzen gleich null:
0=
@ T
x Cx
@x
@
@x
xT P = 2 C x
P
bzw.
Cx
2
P=0
– Wir machen die Probe und minimieren einzeln bezüglich der Parameter x1 und x2 :
M in x21 var[Z1 ] + x22 var[Z2 ] + 2 x1 x2 cov[Z1 ; Z2 ] + (W (0)
x ;x
1
2
@
= 0 = 2 x1 var[Z1 ] + 2 x2 cov[Z1 ; Z2 ]
@ x1
P1
@
= 0 = 2 x2 var[Z2 ] + 2 x1 cov[Z1 ; Z2 ]
@ x2
P2
x1 P1
x2 P2 )
bzw:
var(Z1 )
cov(Z1 ; Z2 )
cov(Z1 ; Z2 ) var(Z2 )
x1
x2
2
P1
P2
=
0
0
() C x
– Wichtige Regeln beim Di¤erenzieren:
@ xT C x
= 2Cx ;
@x
d.h. Di¤erentiation von quadratischen Formen wie die quadratische Funktion
@ a x2
= 2 a x,
@x
@ PT x
@ xT P
=
= P;
@x
@x
d.h. Di¤erentiation von quadratischen Formen wie die quadratische Funktion
@a x
= a
@x
19
2
P=0
2.6
Abschließ
ende Bemerkungen:
Au‡ösung nach einer Unbekannten, wenn sie in einer
Vektorgleichung enthalten ist
– Ausgangspunkt:
Die Unbekannte
soll aus folgender Vektorgleichung ermittelt werden:
Cx
2
P=0
– Au‡ösen nach :
2Cx =
( )
P
Das System ( ) besteht aus n Gleichungen, die alle simultan zu erfüllen sind. Daher
kann man, die Kenntnis von x vorausgesetzt, prinzipiell aus jeder dieser Gleichungen ermitteln. Man kann aber auch jede dieser Gleichungen mit einer beliebigen Zahl
(also auch xi durchmultiplizieren und anschließ
end alle Gleichungen addieren. D.h.:
Lösungsweg:
Die Vektorgleichung wird durch skalare Multiplikation von links mit dem Vektor x in
eine Gleichung transformiert werden, die nur aus Zahlen (Skalaren) besteht. Dann ist
eine einfache Division möglich.
Konkrete Umsetzung:
Rückgri¤ auf die Budgetbedingung xT P = W (0).
Wir multiziplieren die Gleichung ( ) von links mit xT :
T
2x
C x} =
| {z
(1 1)
T
x
| {zP}
(1 1)
a) die (vormalige) Vektorgleichung besteht nur noch aus Skalaren
b) xT P ist aus der Budgetbedingung bekannt. Es gilt nämlich
c) xT P = W (0) :
Daraus folgt:
2 xT C x =
W (0) ()
20
=
2 xT C x
W (0)
Herunterladen