Grundlagen der Wahrscheinlichkeitsrechnung

Werbung
Kapitel 1
Grundlagen der
Wahrscheinlichkeitsrechnung
1.1 Kombinatorik
Additionsprinzip (Summenregel).
(i
= 1, 2, . . . , n)
Es sei
A = A1 ∪ A2 ∪ · · · ∪ An ,
wo
Ai
paarweise disjunkte endliche Mengen sind. Dann ist
|A| = |A1 | + |A2 | + · · · + |An |.
Multiplikationsprinzip (Produktregel). Wählt man je ein Element aus den
Mengen
A1 , A2 , . . . , An so aus, daÿ die Auswahl der einzelnen Elemente einander
n-Tupel
nicht beeinuÿt, dann ist beim Auswahl die Anzahl aller möglichen
|A1 | · |A2 | · . . . · |An |.
Denition 1.1.1
Jede mögliche Anordnung von
n
verschiedenen Elementen,
in der alle Elemente verwendet werden, heiÿt Permutation dieser Elemente.
Satz 1.1.1
.
n!
Die Anzahl aller Permutationen von n verschiedenen Elementen ist
Denition 1.1.2
Es gebe
k
verschiedene Gruppen von insgesamt
so, daÿ in der i-ten Gruppe (i
n1 + n2 + · · · + nk ≤ n.
= 1, 2, . . . , k ) ni
n Elementen
ununterscheidbare Elemente sind,
Jede mögliche Anordnung von solchen
n
Elementen, in
der alle Elemente verwendet werden, heiÿt Permutation mit Wiederholung.
Satz 1.1.2
ist
Die Anzahl aller Permutationen mit Wiederholung von n Elementen
n!
.
n1 ! · n2 ! · . . . · nk !
Denition 1.1.3
Eine Auswahl von
k
Elementen aus
n verschiedenen Elemen-
ten heiÿt
1.
eine Variation von
n
Elementen zur Klasse
k,
wenn die Auswahl
mit Beachtung der Reihenfolge der Elemente so erfolgt, daÿ ein Element
nur höchstens einmal ausgewählt werden kann.
1
2.
eine Variation mit Wiederholung von n Elementen zur Klasse k,
wenn die Auswahl mit Beachtung der Reihenfolge der Elemente so erfolgt,
daÿ ein Element mehrmals ausgewählt werden kann.
3.
eine Kombination von n Elementen zur Klasse k, wenn die Auswahl
ohne Beachtung der Reihenfolge der Elemente so erfolgt, daÿ ein Element
nur höchstens einmal ausgewählt werden kann.
4.
eine Kombination mit Wiederholung von n Elementen zur Klasse
k,
wenn die Auswahl ohne Beachtung der Reihenfolge der Elemente so
erfolgt, daÿ ein Element mehrmals ausgewählt werden kann.
Die Anzahl aller
n!
,
Variationen von n Elementen zur Klasse k ist (n−k)!
Variationen mit Wiederholung von n Elementen zur Klasse k ist nk ,
Kombinationen von n Elementen zur Klasse k ist nk,
Kombinationen mit Wiederholung von n Elementen zur Klasse k ist n+k−1
.
k
Satz 1.1.3
1.
2.
3.
4.
Der häug benötigte Ausdruck
und mit der Formel
berechnet (n
n
k
wird als Binomialkoezient bezeichnet
n
n!
=
k
k! · (n − k)!
∈ N, k ∈ N, n ≥ k ).
Satz 1.1.4 (Binomischer Lehrsatz)
a, b
reelle Zahlen. Es ist
Es seien n eine positive ganze Zahl und
n n n 0
n n−1 1
n n−2 2
n 0 n X n n−i i
a b.
(a+b) =
a b +
a
b +
a
b +· · ·+
a b =
i
0
1
2
n
i=0
n
Das Pascal-Dreieck enthält den Binomialkoezienten nk an der
k -ten Stelle der n-ten Zeile, wo 0 ≤ k ≤ n; k, n ∈ N.
Satz 1.1.6 Im Pascal-Dreieck ist
• n0 = 1 und nn = 1, d.h. jede Zeile beginnt und endet mit der 1;
n
• nk = n−k
, d.h. das Pascal-Dreieck ist symmetrisch;
n−1
• nk = n−1
ist die Bildungsregel der inneren Elemente des Pascalk−1 +
k
Dreiecks;
Pn n
n
n
n
n
•
i=0 i = 0 + 1 + · · · + n = 2 , d.h. die Summe der Elemente in
der n-ten Zeile des Pascal-Dreiecks beträgt 2n .
Satz 1.1.5
2
1.2 Algebra der Ereignisse
Die Menge aller Ergebnisse eines Zufallsvorgangs (oder Zufallsexperimentes)
heiÿt Ereignisraum (Ω), dessen Elemente die sog. Elementarereignisse sind. Ein
Ereignis ist als eine Teilmenge von
Ω
deniert. Die Menge
das sichere Ereignis bezeichnet. Die leere Menge
∅
Ω
wird auch als
nennt man das unmögliche
Ereignis.
1.2.1
Operationen mit Ereignissen
Denition 1.2.1
A zieht das Ereignis B nach sich, wenn B immer
B immer ein falls das Ereignis A eintrit, so sagt
Bezeichnung: A ⊂ B .
Das Ereignis
eintrit falls Trit das Ereignis
man:
A
zieht
B
nach sich.
Denition 1.2.2
Zwei Ereignisse sind gleich, falls jede der zwei die andere nach
sich zieht.
Denition 1.2.3
A
Zu jedem Ereignis
A
gibt es ein entgegengesetztes Ereignis
(Gegenereignis), das genau dann eintritt, wenn
Denition 1.2.4
Die Summe der Ereignisse
A
nicht eintritt.
A, B ⊂ Ω
ist das Ereignis
das genau dann eintritt, wenn mindestens eins der zwei Ereignisse
A
A + B,
und B
eintritt.
Denition 1.2.5
Das Produkt der Ereignisse
A, B ⊂ Ω
B
A·B
A und
ist das Ereignis
(Verbund-Ereigniss), das genau dann eintritt, wenn die zwei Ereignisse
gleichzeitig eintreten.
Denition 1.2.6
Man nennt
A, B ⊂ Ω unvereinbare Ereignisse, wenn A·B = ∅,
d.h. sie können gleichzeitig nicht eintreten.
Denition 1.2.7
Ist keines der Ereignisse
A1 , A2 , . . .
das unmögliche Ereignis,
sind sie paarweise unvereinbar und ist ihre Summe das sichere Ereignis, so nennt
man
A1 , A2 , . . .
ein vollständiges Ereignissystem.
1.3 Begri der Wahrscheinlichkeit
Die Wahrscheinlichkeit eines Ereignisses
A
ist eine Zahl
P (A),
die zu
A
so
zugeordnet wird, daÿ diese Zuordnung die folgenden drei Kolmogorow-Axiome
erfüllt:
1.
0 ≤ P (A) ≤ 1,
d.h. Für jedes Ereignis
A
ist die Wahrscheinlichkeit eine
reelle Zahl zwischen 0 und 1,
2.
P (Ω) = 1,
d.h. das sichere Ereignis hat die Wahrscheinlichkeit 1.
3. Die Wahrscheinlichkeit einer Summe abzählbar vieler, paarweise unvereinbarer Ereignisse entspricht der Summe der Wahrscheinlichkeiten der
einzelnen Ereignisse, d.h.
P (A1 + A2 + . . . ) = P (A1 ) + P (A2 ) + . . . .
3
Satz 1.3.1
Die Wahrscheinlichkeit des unmöglichen Ereignisses gleicht 0.
A und das unmögliche Ereignis sind unvereinbar (AØ =
A + Ø = A. Deshalb ist
Beweis.Das Ereignis
Ø), weiter ist
P (A) = P (A + Ø) = P (A) + P (Ø),
woraus folgt
Satz 1.3.2
P (Ø) = 0.
Die Wahrscheinlichkeit des Gegenereignisses ist P (A) = 1 − P (A).
Beweis.Von
A+A=Ω
und
AA = Ø
folgt
1 = P (Ω) = P (A + A) = P (A) + P (A),
woraus
P (A)
ausgedrückt werden kann.
Wenn A ⊂ B , dann P (A) ≤ P (B).
P (A + B) = P (A) + P (B) − P (AB).
Satz 1.3.3 (Monotoniesatz)
Satz 1.3.4
Es sei
Ω = {ω1 , ω2 , . . . }. Bezeichne pi die Wahrscheinlichkeit
pi = P (ωi ). Das dritte Axiom ergibt:
X
pi = p1 + p2 + · · · = 1.
des
i-ten
Ele-
mentarereignisses, d.h.
i
Die Wahrscheinlichkeiten
lung des Ereignisraums
p1 , p 2 , . . .
nennt man die Wahrscheinlichkeitsvertei-
Ω.
1.4 Klassische (kombinatorische) Wahrscheinlichkeit
Ω nur endlich viele (n ∈ N+ ) Elementarereignisse, die mit
Wahrscheinlichkeit eintreten, so folgen aus p1 + p2 + · · · + pn = 1
Sind im Ereignisraum
der gleichen
die Gleichungen
1
.
n
A ⊆ Ω, die
p 1 = p2 = · · · = p n =
Als Konsequenz folgt, dass für Ereignisse
sich aus
k (0 ≤ k ≤ n)
Elementarereignissen zusammensetzen, die entsprechend vielfache Wahrscheinlichkeit gilt, d.h.
P (A) = k ·
1
k
= .
n
n
Die Wahrscheinlichkeit eines Ereignisses gleich der Zahl der für dieses Ereignis
günstigen Ergebnisse, dividiert durch die Zahl der insgesamt möglichen Ergebnisse:
P (A) =
k
=
n
Anzahl der günstigen Ergebnisse
Anzahl der insgesamt möglichen Ergebnisse
Sei die Anzahl einer Population
N.
In dieser Population sind
K
.
Exemplare
mit einem Merkmal gekennzeichnet. Mit welcher Wahrscheinlichkeit benden
4
sich
k
n Exemplaren? BeAnk , so bekommt man die folgenden
gekennzeichnete Exemplare in einer Stichprobe von
zeichnet man dieses Ereignis in der Frage mit
Formel.
Stichprobe mit Zurücklegen:
Pv (Ank )
=
n
k
n−k
K k (N − K)
Nn
=
k n−k
n
K
K
.
1−
k
N
N
(1.1)
K
N für die Wahrscheinlichkeit der Auswahl eines
einzigen gekennzeichneten Exemplares aus der Population ein, so gelangt man
Führt man die Bezeichnung
p=
zur Formel
Pv (Ank ) =
n k
n−k
p (1 − p)
.
k
(1.2)
Stichprobe ohne Zurücklegen:
Pvn (Ank )
K
k
=
N −K
n−k
N
n
.
(1.3)
1.5 Geometrische Wahrscheinlichkeit
Ist die Ergebnismenge überabzählbar, so kann
Ω
mit einer Teilmenge der Gera-
den, der Ebene oder des Raums so identiziert werden. Ist
Wahrscheinlichkeit von
A
A ⊆ Ω,
so kann die
als Quotient der geometrischen Maÿe von
A
und
Ω
gedeutet werden.
1.6 Bedingte Wahrscheinlichkeit, Unabhängigkeit
Unter einer bedingten Wahrscheinlichkeit versteht man die Wahrscheinlichkeit
A
für das Eintreten eines Ereignisses
ten eines anderen Ereignisses
B
unter der Voraussetzung, dass das Eintre-
bereits bekannt ist. Natürlich muss
B
eintreten
können, es darf also nicht das unmögliche Ereignis sein. Man schreibt dann
P (A | B) für Wahrscheinlichkeit
von A, vorausgesetzt B .
Denition 1.6.1
von
A
Die bedingte Wahrscheinlichkeit des Ereignisses
Voraussetzung von
B
P (B) 6= 0
B ,
A
kurz P
unter der
ist
P (A | B) =
wenn
unter der Voraussetzung
P (AB)
,
P (B)
(1.4)
ist.
Die Wahrscheinlichkeit hiervon berechnet sich zur gemeinsamen Wahrscheinlichkeit oder Verbundwahrscheinlichkeit mit
P (AB) = P (A | B) · P (B)
Bilden die Ereignisse A1 , A2 , . . . ein vollständiges Ereignissystem so, daÿ P (Ai ) > 0 (i = 1, 2, . . .),
und ist B ein beliebiges Ereignis, dann ist
Satz 1.6.1 (Gesetz der totalen Wahrscheinlichkeit)
P (B) =
X
P (B | Ai ) · P (Ai ).
i
5
(1.5)
A1 , A2 , . . . ist Ω. Man hat
!!
!
X
X
X
Ai
=P
BAi =
P (BAi ) =
Beweis.Die Summe der Ereignisse
P (B) = P (BΩ) = P
B
i
=
X
i
i
P (B | Ai ) · P (Ai ),
i
denn
(BAi )(BAj ) = BAi Aj = B Ø = Ø (i 6= j).
Satz 1.6.2 (Satz von Bayes) Bilden die Ereignisse A1 , A2 , . . . ein vollständiges Ereignissystem so, daÿ P (Ai ) > 0 (i = 1, 2, . . .), und ist B ein beliebiges
Ereignis mit positiver Wahrscheinlichkeit, dann ist
P (B | Ak ) · P (Ak )
P (Ak | B) = P
, (k = 1, 2, . . . ).
P (B | Ai ) · P (Ai )
(1.6)
i
Beweis.
P (Ak | B) =
P (BAk )
P (B | Ak ) · P (Ak )
P (Ak B)
=
=P
,
P (B)
P (B)
P (B | Ai ) · P (Ai )
i
wo im Nenner das Gesetz der totalen Wahrscheinlichkeit benutzt wurde.
Denition 1.6.2
Die zwei Ereignisse
A
und
B
sind unabhängig, wenn gilt
P (AB) = P (A) · P (B).
(d.h. Bei unabhängigen Ereignissen kann man die Wahrscheinlichkeiten multiplizieren.)
1.7 Zufallsvariablen und deren Eigenschaften
Denition 1.7.1
Die Funktion
Die Zufallsvariable
η
η: Ω → R
heiÿt Zufallsvariable.
ordnet also zu den Elementen des Ereignisraums reelle
Zahlen zu.
Denition 1.7.2
tion
Die Verteilungsfunktion einer Zufallsvariablen ist die Funk-
F : R → R,
F (x) = P (η < x).
Die Verteilungsfunktion F einer Zufallsvariablen η
ist monoton steigend, d.h. für jede a ≤ b ist F (a) ≤ F (b), weiter gelten
lim F (x) = 0 und lim F (x) = 1.
x→−∞
x→∞
Satz 1.7.1
•
•
Mit Hilfe der Verteilungsfunktion kann man die folgende Wahrscheinlichkeit
berechnen:
P (a ≤ η < b) = P (η < b) − P (η < a) = F (b) − F (a).
6
Denition 1.7.3
Die Zufallsvariable
η heiÿt eine diskrete Zufallsvariable, wenn
ihr Wertevorrat endlich oder eine unendliche Folge ist.
x1 , x2 , . . .
Seien
η . Die
PEreignisse {η = xi } sind paarP (a ≤ η < b) =
P (η = xi ), wo xi ∈ [a, b). Mit
die möglichen Werte von
weise unvereinbar, deshalb ist
i
Hilfe der Wahrscheinlichkeiten
P (η = xi )
läÿt sich also die Wahrscheinlichkeit
eines beliebigen Ereignisses berechnen. Darüber hinaus ist
Die Wahrscheinlichkeiten
ble
P (η = xi )
P
i
P (η = xi ) = 1.
nennt man die Verteilung der Zufallsvaria-
η.
Denition 1.7.4
Die Zufallsvariable
η
heiÿt eine stetige Zufallsvariable, wenn
ihre Verteilungsfunktion stetig ist.
Denition 1.7.5
Zufallsvariable
η
F 0 (x) = f (x)
Die Ableitung
der Verteilungsfunktion
F
der
heiÿt die Dichtefunktion (oder Dichte) der Zufallsvariable.
Die Dichtefunktion einer stetigen Zufallsvariable hat die folgenden
Eigenschaften.
• f (x) ≥ 0,
R∞
•
f (x) dx = 1.
Satz 1.7.2
−∞
•
Die Wahrscheinlichkeit P (a ≤ η < b) = F (b) − F (a) ist genau das bestimmte Integral der Dichtefunktion über dem Intervall [a, b]:
Zb
P (a ≤ η < b) =
f (x) dx.
a
Denition 1.7.6
Die Zufallsvariablen
beliebige reelle Zahlen
x, y
η
ξ heiÿen unabhängig, wenn für
{η < x} und {ξ < y} unabhängig
und
die Ereignisse
sind.
Denition 1.7.7
Die reelle Zahl
 P

 i xi pi ,
E(η) =
R∞

x · f (x) dx,

falls
η
diskret
falls
η
stetig,
−∞
heiÿt der Erwartungswert von
η,
falls die obigen Werte überhaupt existieren.
Satz 1.7.3 Nimmt die Zufallsvariable η nur den konstanten Wert A an, dann
ist E(η) = A.
Beweis.Die Zufallsvariable η ist diskret, denn sie nimmt nur den einen Wert
A an, und zwar dann mit der Wahrscheinlichkeit p = 1. So folgt E(η) = A·1 = A.
Ist E(η) der Erwartungswert der Zufallsvariable η, so hat die Zufallsvariable Aη + B (A, B ∈ R) auch einen Erwartungswert, und zwar
Satz 1.7.4
E(Aη + B) = A · E(η) + B.
7
xi mit den Wahrscheinlichkeiten pi
Aη + B die möglichen Werte Axi + B mit den
entsprechenden Wahrscheinlichkeiten pi an.
X
X
X
X
X
E(Aη+B) =
(Axi +B)pi =
Axi pi +
Bpi = A
xi pi +B
pi = A·E(η)+B.
Beweis.Nimmt
η
die möglichen Werte
an, so nimmt die Zufallsvariable
i
i
i
i
i
Existieren die Erwartungswerte E(η) und E(ξ), so existiert auch
, und zwar
Satz 1.7.5
E(η + ξ)
E(η + ξ) = E(η) + E(ξ).
Satz 1.7.6 Sind η und ξ solche unabhängige Zufallsvariablen, die die Erwartungswerte E(η) und E(ξ) haben, dann existiert E(ηξ) ebenfalls, und zwar ist
E(ηξ) = E(η) · E(ξ).
Denition 1.7.8
2
Die Varianz einer Zufallsvariable
2
E((η − E(η)) ) = E((η − µη ) ),
Denition 1.7.9
η
ist der Wert
D2 (η) =
falls er existiert.
Die Quadratwurzel
D(η) =
p
D2 (η)
der Varianz heiÿt Stan-
dardabweichung.
Satz 1.7.7
Besitzt die Zufallsvariable η eine Varianz, so ist
D2 (η) = E(η 2 ) − E 2 (η).
Beweis.
D2 (η) = E((η−µη )2 ) = E(η 2 −2µη η+µ2η ) = E(η 2 )−2µη E(η)+E(µ2η ) = E(η 2 )−µ2η .
Korollar. Die Varianz einer diskreten Zufallsvariable η läÿt sich berechnen als
D2 (η) =
X
x2i pi − µ2η .
i
Die Varianz einer stetigen Zufallsvariable
D2 (η) =
Z∞
η
läÿt sich berechnen als
x2 f (x)dx − µ2η .
−∞
Nimmt die Zufallsvariable η nur den konstanten Wert A an, dann
ist D2 (η) = 0.
Satz 1.7.8
Beweis.
D2 (η) = E(η 2 ) − E 2 (η) = E(A2 ) − E 2 (A) = A2 − A2 = 0.
Ist ση2 die Varianz der Zufallsvariable η und ist A ∈ R, dann existiert
2
2
ση+A
und ση+A
= ση2 ,
2
2
σAη
und σAη
= A2 ση2 .
Satz 1.7.9
•
•
8
Beweis.
•
2
ση+A
= D2 (η + A) = E((η + A)2 ) − E 2 (η + A) =
= E(η 2 + 2Aη + A2 ) − (E(η) + E(A))2 =
= E(η 2 ) + 2AE(η) + E(A2 ) − E 2 (η) − 2E(A)E(η) − E 2 (A) =
= E(η 2 ) − E 2 (η) = D2 (η) = ση2 .
2
• σAη
= D2 (Aη) = E((Aη)2 )−E 2 (Aη) = A2 E(η 2 )−A2 E 2 (η) = A2 D2 (η) =
A2 ση2 .
Denition 1.7.10
Die Kovarianz zweier Zufallsvariablen
COV(η, ξ) = E(ηξ) − E(η)E(ξ),
η
und
ξ
ist der Wert
falls er existiert.
2
Satz 1.7.10 Wenn die Varianz ση2 und σξ2 existieren, dann existiert ση+ξ
ebenfalls, und man hat den Zusammenhang
2
ση+ξ
= ση2 + σξ2 + 2 · COV(η, ξ).
Beweis.
D2 (η + ξ) = E((η + ξ)2 ) − E 2 (η + ξ) = E(η 2 + 2ηξ + ξ 2 ) − (E(η) + E(ξ))2 =
= E(η 2 ) − E 2 (η) + E(ξ 2 ) − E 2 (ξ) + 2E(ηξ) − 2E(η)E(ξ) =
= D2 (η) + D2 (ξ) + 2(E(ηξ) − E(η)E(ξ)).
Satz 1.7.11
.
COV(η, ξ) = E((η − µη )(ξ − µξ ))
Beweis.
E((η − µη )(ξ − µξ ))
= E(ηξ − ηµξ − ξµη + µη µξ )
= E(ηξ) − µξ E(η) − µη E(ξ) + µη µξ
= E(ηξ) − E(η)E(ξ).
Hat die Zufallsvariable η den Erwartungswert µη und
die Stanη−µ
dardabweichung ση , so hat die standardisierte Zufallsvariable ξ = σ
• µξ = 0,
• σξ = 1.
Satz 1.7.12
η
η
Beweis.
• µξ = E(ξ) = E(
η−µη
ση )
• σξ2 = D2 (ξ) = D2 (
=
η−µη
ση )
1
ση E(η
=
− µη ) =
1
2
ση2 D (η
− µη ) =
ξ=
−
1
ση µη
1
2
ση2 D (η)
=
=
ση2
ση2
µη
ση
−
µη
ση
= 0.
= 1.
η in die standardisierte Zufallsvaη−µη
bezeichnet man als Standardisierung der Zufallsvariable η .
ση
Die Transformation einer Zufallsvariable
riable
1
ση E(η)
9
1.8 Wahrscheinlichkeitsverteilungen
1.8.1
Diskrete Wahrscheinlichkeitsverteilungen
1. Verteilung der Indikatorvariable.
0 1
q p
κA :
.
E(κA ) = 0 · q + 1 · p = p, D2 (κA ) = 02 · q + 12 · p − p2 = p(1 − p) = pq .
2. Binomialverteilung. Eine diskrete Zufallsvariable
den Parametern
n
und
p,
η
heiÿt binomialverteilt mit
wenn ihre Werte die natürlichen Zahlen
0, 1, . . . , n
sind, die sie mit den Wahrscheinlichkeiten
n k
n k n−k
n−k
pk = P (η = k) =
p (1 − p)
=
p q
k
k
annimmt. Nehmen wir an, daÿ das Ereignis
A
,
(k = 0, 1, . . . , n)
p
n-mal
mit der Wahrscheinlichkeit
(Treerwahrscheinlichkeit) eintrit. Führen wir das Zufallsexperiment
η die Häugkeit des Eintreens des
ErA. Die Wahrscheinlichkeit, daÿ A genau k -mal eintrit, gleicht nk pk q n−k
(Anzahl der Versuche) durch. Bezeichne
eignisses
(siehe SZiehen mit Zurücklegen").
Erwartungswert und Varianz einer binomialverteilten Zufallsvariable
η
sind
E(η) = E(κ1 + . . . + κn ) = E(κ1 ) + . . . + E(κn ) = n · p,
D2 (η) = D2 (κ1 + . . . + κn ) = D2 (κ1 ) + . . . + D2 (κn ) = n · pq,
wo die identischen Einzelprozesse mit den Zufallsvariablen
κi
paarweise unab-
hängig sind.
3. Poisson-Verteilung. Eine diskrete Zufallsvariable
mit dem Parameter
λ,
η
heiÿt poissonverteilt
wenn ihr Wertevorrat die Menge der natürlichen Zahlen
ist, die sie mit den Wahrscheinlichkeiten
pk = P (η = k) =
λk −λ
e
k!
,
(k ∈ N)
animmt. Diese Zahlen bilden wirklich eine Verteilung, denn
∞
X
k=0
P (η = k) =
∞
X
λk
k=0
k!
e−λ = e−λ
∞
X
λk
k=0
k!
= e−λ · eλ = 1.
Erwartungswert und Varianz einer poissonverteilten Zufallsvariable
E(η) = λ
,
η
sind
D2 (η) = λ.
Der Poisson-Verteilung folgt im Allgemeinen die Anzahl der in einem (zeitlichen
bzw. räumlichen) Intervall plötzlich eintreenden Geschehnisse .
10
1.8.2
Stetige Wahrscheinlichkeitsverteilungen
l. Normalverteilung. Eine stetige Zufallsvariable
Parametern
µ
und
σ (σ > 0),
η
heiÿt normalverteilt mit den
wenn ihre Dichtefunktion ist:
2
1 (x−µ)
1
√ e− 2 · σ2 .
σ 2π
f (x) =
E(η) = µ
Erwartungswert und Varianz sind
und
D2 (η) = σ 2 ,
womit man eine
anschauliche Rolle den Parametern der Normalverteilung zuordnen kann. Häug
η = N (µ, σ).
z = N (0, 1) heiÿt
verwendet man das Symbol
Die Normalverteilung
Standardnormalverteilung, denn sie
kann von einer beliebigen Normalverteilung
gewonnen werden, d.h.
z=
η = N (µ, σ)
mit Standardisierung
η−µ
.
σ
Die Dichtefunktion bzw. die Verteilungsfunktion der Standardnormalverteilung
bezeichnet man mit
φ(x)
bzw. mit
Φ(x).
η heiÿt exponentialverµ ∈ R+ , wenn ihre Dichtefunktion ist:
µe−µx , falls x > 0;
f (x) =
0,
anderenfalls.
2. Exponentialverteilung. Eine stetige Zufallsvariable
teilt mit dem Parameter
Diese Funktion deniert tatsächlich eine Dichtefunktion, denn
∞
1 −µx
f (x) dx =
0 dx +
µe
dx = 0 + µ − e
=
µ
−∞
−∞
0
0
1
1
= µ lim − e−µx − µ −
= 0 − (−1) = 1.
x→∞
µ
µ
Z
∞
Z
0
Z
∞
−µx
Die Verteilungsfunktion ist
F (x) =
1 − e−µx ,
0,
falls
x > 0;
anderenfalls.
Erwartungswert bzw. Standardabweichung sind
E(η) =
1
µ bzw.
D(η) =
1
µ.
1.9 Spieltheorie
1.9.1
Matrixspiele mit einem Sattelpunkt in reinen Strategien
Es sei
Ak×n = [aij ] (i = 1, . . . , k ,j = 1, . . . , n)
die Auszahlungsmatrix (die
Spielmatrix) eines Zweipersonen-Nullsummenspiels.
Falls der Zeilenspieler
zen von
αi := minj aij
i spielt, muÿ er mit dem schlimmsten Fall, einem Nut-
rechnen. Der Zeilenspieler wird nun diejenige Strategie
spielen, die ihm ein maximales
αi
sichert, d.h. seinen Maximin-Wert erreicht
α := max αi = max min aij .
i
i
11
j
Falls der Spaltenspieler
βj := maxi aij
von
j
spielt, muÿ er mit dem schlimmsten Fall, einem Verlust
rechnen. Der Spaltenspieler wird nun diejenige Strategie
spielen, die ihm einen minimalen Verlust
βj
sichert, d.h. seinen Minimax-Wert
erreicht hingegen
β := min βj = min max aij .
j
Ist
α = β(=: v),
j
i
so besitzt das Spiel einen Sattelpunkt in reinen Strategien
(Paar aus Maximin- und Minimax-Strategien);
min aij
j
wird als Spielwert bezeichnet.
für jedes
max min aij
⇓
≤ max aik
max min aij
⇓
≤ min max aik
i
j
i
j
α
Denition 1.9.1
≤ aik
v
Das Paar
i
k
für jedes
k
i
k
⇓
≤ β
(i0 , j0 ))
heiÿt ein Sattelpunkt in reinen Strategien
im Zweipersonen-Nullsummenspiel mit der Auszahlungsmatrix
falls
ai0 j0
Ak×n = [aij ],
in seiner eigenen Zeile minimal und gleichzeitig in seiner Spalte ma-
ximal ist, d.h.
aij0 ≤ ai0 j0 ≤ ai0 j
für alle
i,j (i = 1, . . . , k ,j = 1, . . . , n). v = ai0 j0
wird als Spielwert bezeichnet.
Nicht jedes Matrixspiel besitzt einen Spielwert bei einer Spielweise in reinen
Strategien.
Satz 1.9.1 Das Paar (i0 , j0 )) ist ein Sattelpunkt in reinen Strategien im ZweipersonenNullsummenspiel mit der Auszahlungsmatrix Ak×n = [aij ] genau dann, wenn
max min aij = ai0 j0 = min max aij .
i
j
j
i
Hat ein Zweipersonen-Nullsummenspiel mehrere Sattelpunkte in
reinen Strategien, dann sind diese Sattelpunkte miteinander gleichwertig.
Satz 1.9.2
1.9.2
Allgemeine Untersuchung von
Betrachten wir die
2×2
2×2
Matrixspielen
Auszahlungsmatrix
A=
a11
a21
a12
a22
eines solchen Zweipersonen-Nullsummenspiels, das kein Sattelpunkt in reinen
Strategien hat.
Wählt der Zeilenspieler die erste Zeile mit Wahrscheinlichkeit
p,
und wählt
der Spaltenspieler unahängig vom Zeilenspieler die erste Spalte mit Wahrscheinlichkeit
q,
so ist der erwartete Nutzen des Zeilenspielers
E(p, q) = a11 pq + a12 p(1 − q) + a21 (1 − p)q + a22 (1 − p)(1 − q).
12
Ein Gleichgewicht ergibt sich, falls es solche gemischte Strategien der zwei Spieler mit den jeweiligen Wahrscheinlichkeiten
p0
und
q0
gibt, daÿ der Zusammen-
hang
E(p, q0 ) ≤ E(p0 , q0 ) ≤ E(p0 , q)
für beliebige
0≤p≤1
Denition 1.9.2
und
0≤q≤1
Das Zahlenpaar
besteht.
(p0 , q0 )
heiÿt ein Sattelpunkt in gemischten
Strategien im Zweipersonen-Nullsummenspiel mit der Auszahlungsmatrix
A,
falls
E(p, q0 ) ≤ E(p0 , q0 ) ≤ E(p0 , q)
ist für beliebige Wahrscheinlichkeiten
0≤p≤1
und
0 ≤ q ≤ 1. v = E(p0 , q0 )
v = 0.
wird als Spielwert bezeichnet. Das Spiel heiÿt gerecht falls
Satz 1.9.3 (Fundamentalsatz der Spieltheorie, János Neumann)
Matrixspiel besitzt einen Sattelpunkt in gemischten Strategien.
1.9.3
Jedes
Algebraische Lösungsmethode
Gibt es keinen Sattelpunkt in reinen Strategien im ZweipersonenNullsummenspiel mit der 2 × 2 Auszahlungsmatrix A, so ist
Satz 1.9.4
A = a11 + a22 − a12 − a21 6= 0.
Gibt es keinen Sattelpunkt in reinen Strategien im ZweipersonenNullsummenspiel mit der 2 × 2 Auszahlungsmatrix A, so sind
Satz 1.9.5
p0 = −
1.9.4
a22 − a21
B
a22 − a12
AD − BC
a11 a22 − a12 a21
C
=
, q0 = − =
,v =
=
.
A
A
A
A
A
A
Geometrische Methode
Siehe ungarisches Skript...
13
Kapitel 2
Lineare Algebra
2.1 Matrizen
Denition 2.1.1
ge
Rn×1
Die Matrizen in
wird einfacher als
Rn
Rn×1
nennt man Spaltenvektoren. Die Men-
bezeichnet.
Denition 2.1.2 Die Summe der zwei Matrizen Ak×n = [aij ]k×n und Bk×n =
[bij ]k×n ist diejenige Matrix Ck×n = [cij ]k×n , deren Komponente cij = aij + bij
(i = 1, . . . , k ,j = 1, . . . , n) sind. Man bezeichnet C = A + B.
Es können also nur Matrizen mit der gleichen Anzahl an Zeilen und der gleichen
Anzahl an Spalten addiert werden. Die Summe zweier
k × n-Matrizen berechnet
sich, indem man jeweils die Einträge der beiden Matrizen addiert.
Denition 2.1.3
Das Produkt der Matrix Ak×n = [aij ]k×n mit der reellen
α ist diejenige Matrix Ck×n = [cij ]k×n , deren Komponente cij = αaij
(i = 1, . . . , k ,j = 1, . . . , n) sind. Man bezeichnet C = αA.
Zahl
Eine Matrix wird mit einem Skalar (also: Zahl) multipliziert, indem alle Einträge
der Matrix mit dem Skalar multipliziert werden. Diese Skalarmultiplikation darf
nicht mit dem Skalarprodukt verwechselt werden.
Denition 2.1.4
[bij ]m×n
Das Produkt der zwei Matrizen
ist diejenige Matrix
Ck×n = [cij ]k×n ,
Ak×m = [aij ]k×m und Bm×n =
deren Komponente
cij = ai1 b1j + ai2 b2j + · · · + aim bmj =
m
X
ai` b`j
`=1
(i
= 1, . . . , k ,j = 1, . . . , n)
sind. Man bezeichnet
C = AB.
Zwei Matrizen werden multipliziert, indem die Produktsummenformel, ähnlich
dem Skalarprodukt, auf Paare aus einem Zeilenvektor der ersten und einem Spaltenvektor der zweiten Matrix angewandt wird (Zeilen-Spalten-Multiplikation).
Denition 2.1.5
Eine quadratische Matrix ist eine Matrix, bei der die Anzahl
der Zeilen mit der Anzahl der Spalten übereinstimmt.
14
In der linearen Algebra ist eine Diagonale einer quadratischen Matrix eine Linie,
die schräg durch das Koezientenschema geht. Die Hauptdiagonale verläuft von
oben links nach unten rechts, enthält also die Elemente
aii , i = 1, ..., n.
Die Ne-
bendiagonale von oben rechts nach unten links. Als Diagonalmatrix bezeichnet
man eine quadratische Matrix, bei der alle Elemente auÿerhalb der Hauptdiagonale Null sind. Die Einheitsmatrix (oder Identitätsmatrix)
E
ist eine qua-
dratische Matrix, deren Hauptdiagonale nur aus Einsen besteht, alle anderen
Komponente sind 0. Die Spalten der Einheitsmatrix sind Einheitsvektoren.
Denition 2.1.6
A ∈ Rn×n heiÿt eine reguläre (oder: invertier−1
bare, nichtsinguläre) Matrix falls zu A eine andere Matrix A
existiert, so
−1
−1
daÿ AA
= E gilt. Man bezeichnet die Matrix A als inverse Matrix (oder
einfach kurz Inverse) zu A.
Die Matrix
Die Matrizenmultiplikation in der Menge Rn×n ist nichtkommutativ; ist assoziativ. Die Matrixmultiplikation ist bezüglich der Matrixaddition distributiv. Es gibt eine Einheitsmatrix E mit der Eigenschaft, daÿ AE = EA = A
für jede Matrix A gilt. Nicht jede Matrix A hat eine Inverse A−1 , wofür
A−1 A = AA−1 = E gilt.
Satz 2.1.1
Denition 2.1.7
te) von
A
in
Unter der transponierten Matrix (oder einfach Transponier-
Rk×n
AT ∈ Rn×k , deren Kompoj -ten Spalte mit der Komponente von A in der j -ten
beliebige i = 1, . . . , n,j = 1, . . . , k übereinstimmt.
versteht man diejenige Matrix
nente in der i-ten Zeile und
Zeile und
i-ten
Spalte für
A wird sozusagen an ihrer Hauptdiagonale gespiegelt. Die Zeilen von
AT und umekehrt: die Zeilen von AT sind die Spalten
von A. Eine Matrix A heiÿt symmetrisch, wenn sie gleich ihrer transponierten
T
Matrix ist: A = A . Man hat die folgenden Regel:
T
AT
= A,
Die Matrix
A
sind die Spalten von
T
= AT + BT ,
T
= αAT ,
T
= BT A T ,
(A + B)
(αA)
(AB)
für Matrizen, wofür die Operationen in den Formeln sinvoll sind.
a, b ∈ Rn , dann ist das Matrixprodukt ab
T
T
nicht deniert, aber die beiden Produkte a b und ab
existieren. Das erste
Produkt (kanonische Skalarprodukt) ist eine 1 × 1-Matrix:
Hat man zwei Spaltenvektoren
aT b = a1 b1 + · · · + an bn ,
das zweite Produkt (dyadische Produkt oder Tensorprodukt)
trix in
R
T
ab
ist eine Ma-
n×n
2.2 Determinanten
Denition 2.2.1
Die Determinante einer quadratischen Matrix
die Zahl
det(A) =
X
(−1)I(i1 ,...,in ) a1i1 a2i2 · · · anin ,
i1 ,...,in
15
A ∈ Rn×n
ist
wo die Summe über alle Permutationen i1 , . . . , in der Zahlen
wird, und
I(i1 , . . . , in )
die jeweilige Permutation
i1 , . . . , in
Das Vorzeichen der Permutation
+1
, falls
i1 , . . . , in
1, . . . , n
berechnet
bezeichnet, wie viele Vertauschungen nötig waren, um
von
1, . . . , n
i1 , . . . , in
zu erzeugen.
ist die Zahl
eine gerade Permutation ist und
−1,
(−1)I(i1 ,...,in ) .
Sie ist
falls sie ungerade ist.
Ob eine Permutation gerade oder ungerade ist, erkennt man daran, wie viele
Vertauschungen nötig waren, um die jeweilige Permutation zu erzeugen (gerade
oder ungerade Anzahl).
Addiert man ein Vielfaches einer Zeile (oder Spalte) zu einer anderen Zeile (oder Spalte) in einer Matrix, so bleibt die Determinante dieser Matrix
unverändert.
Satz 2.2.1
Denition 2.2.2
Zu jeder Komponente aij (i, j = 1, . . . , n) einer quadratiA = [aij ] ∈ Rn×n gehört eine Untermatrix Aij vom Format
(n − 1) × (n − 1), die so gebildet wird, indem man die i-te Zeile und j -te Spalte der ursprünglichen Matrix herausstreicht. Die Determinante det(Aij ) heiÿt
Unterdeterminante zur Komponente aij . Versieht man die Unterdeterminan±
i+j
te mit dem Vorzeichen (−1)
, so bekommt man die Adjunkte det (Aij ) =
i+j
(−1) det(Aij ).
schen Matrix
Es sei A = [aij ] ∈ Rn×n eine
beliebige quadratische Matrix und 1 ≤ k ≤ n festgelegt. Es sind
Satz 2.2.2 (Laplacescher Entwicklungssatz)
det(A) = ak1 det± (Ak1 ) + ak2 det± (Ak2 ) + · · · + akn det± (Akn ),
det(A) = a1k det± (A1k ) + a2k det± (A2k ) + · · · + ank det± (Ank ).
Mit dem laplaceschen Entwicklungssatz kann man die Determinante einer
n×n-
Matrix nach einer Zeile oder Spalte entwickeln.
Denition 2.2.3
Die zur Matrix
C∈R
, die
T
bezeichnet adj(A) = C .
nierte derjenigen Matrix
besteht. Man
Satz 2.2.3
A ∈ Rn×n
n×n
adjungierte Matrix ist Transpo-
aus den Komponenten
cij = det± (Aij )
Ist det(A) 6= 0, so gilt
A−1 =
1
adj(A).
det(A)
2.3 Vektorraum der n-Tupel aus reellen Zahlen
Denition 2.3.1
Seien
λ 1 , . . . , λ k ∈ R.
Der Spaltenvektor
λ1 x1 + · · · + λk xk ∈ Rn
heiÿt eine Linearkombination der Spaltenvektoren
x1 , . . . , xk ∈ Rn .
Eine Linearkombination einiger Spaltenvektoren ist eine Summe von beliebigen
Vielfachen dieser Spaltenvektoren. Eine Linearkombination heiÿt trivial, falls
λ1 = · · · = λk = 0.
Die triviale Linearkombination erzeugt den Nullvektor.
16
2.4 Lineare Unabhängigkeit, Generatorsystem
Denition 2.4.1
Die Familie der festgelegten Spaltenvektoren
x1 , . . . , xk ∈ Rn
heiÿt linear unabhängig, falls sich der Nullvektor nur durch eine Linearkombination der Vektoren erzeugen lässt, in der alle Koezienten der Kombination
auf den Wert Null gesetzt werden, d.h.
α1 x1 + · · · + αk xk = 0 ⇐⇒ α1 = · · · = αk = 0.
Denition 2.4.2
Die Familie der festgelegten Spaltenvektoren
x1 , . . . , xk ∈ Rn
heiÿt linear abhängig, falls sich der Nullvektor durch eine Linearkombination der
Vektoren erzeugen lässt, worin nicht jeder Koezient der Kombination auf den
Wert Null gesetzt wird.
Man sollte im Fall linearer Abhängigkeit vor Augen halten, daÿ es in der Denition nicht verlangt wird, daÿ jeder Koezient der Kombination ungleich Null
sein muÿ.
Enthält eine Familie von Spaltenvektoren den Nullvektor, so ist sie
linear abhängig
Satz 2.4.1
Beweis.Sei
0, x2 , . . . , xk ∈ Rn
eine Familie von Spaltenvektoren. Die Line-
arkombination
0 = 1 · 0 + 0 · x2 + · · · + 0 · xk
erzeugt den Nullvektor und genügt auch der Denition der linearen Abhängigkeit.
Eine Familie von Spaltenvektoren ist linear abhängig genau dann,
wenn sich mindestens einer der beteiligten Spaltenvektoren durch die anderen
mit einer Linearkombination darstellen lässt.
Satz 2.4.2
Denition 2.4.3
heiÿt ein Erzeugendensystem, falls man zu einem beliebigen
Rn
x1 , . . . , xk ∈ Rn
Spaltenvektor x ∈
Die Familie der festgelegten Spaltenvektoren
entsprechende Koezienten
λ1 , . . . , λ k ∈ R
ndet, so daÿ
x = λ1 x1 + · · · + λk xk ,
d.h ein beliebiger Spaltenvektor ist darstellbar als eine Linearkombination der
festgelegten Spaltenvektoren.
2.5 Basis, Koordinaten
Denition 2.5.1
Rn ,
Die Familie von Vektoren
x1 , . . . , xk
bildet eine Basis von
falls sie linear unabhängig und gleichzeitig ein Erzeugendensystem ist.
Die Vektoren
Satz 2.5.1
Satz 2.5.2
x1 , . . . , xk
in der Denition nennt man Basisvektoren.
Jede Basis von Rn besteht aus n Vektoren.
Es sei x1 , . . . , xn ∈ Rn .
17
Sind x1 , . . . , xn linear unabhängig, so bilden sie eine Basis von Rn .
• Bilden x1 , . . . , xn ein Erzeugendensystem, so bilden sie eine Basis von Rn .
Satz 2.5.3 Bilden die Spaltenvektoren x1 , . . . , xn eine Basis von Rn , so läÿt
sich ein jeder Spaltenvektor x ∈ Rn eindeutig als eine Linearkombination der
Basisvektoren darstellen.
•
Beweis.Siehe ung. Skript...
Denition 2.5.2
biger Vektor. Die
x1 , . . . , xn Basisvektoren in Rn und x ∈ Rn ein belieKoezienten α1 , . . . , αn , die in der eindeutigen Darstellung
Seien
x = α1 x1 + · · · + αn xn
als Linearkombination aus der Basis auftreten, nennt man die Koordinaten des
Vektors bezüglich der Basis
x1 , . . . , xn .
2.6 Basistransformation
Der Übergang von einer gegebenen Basis zu einer neuen Basis heiÿt Basistransformation (Basiswechsel). Die neue Basis muss sich wenigstens um einen Vektor
von der alten Basis unterscheiden. Dadurch ändern sich im Allgemeinen die
Koordinaten der Vektoren.
Die elementare Basistransformation ist ein tabellarisches Rechenverfahren.
Bilden die Spaltenvektoren
eine Basis von Rn und seien die Vektoren a ∈ Rn und x ∈ Rn
in dieser Basis als Linearkombination dargestellt:
Satz 2.6.1 (Elementare Basistransformation)
b1 , . . . , bi , . . . , bn
a = α1 b1 + · · · + αi bi + · · · + αn bn ,
x = β1 b1 + · · · + βi bi + · · · + βn bn .
Ist αi 6= 0, so bilden die Vektoren b1 , . .β. , bi−1 , a, bi+1 , . . . , bn ebenfalls eine
Basis. Benutzt man die Bezeichnung δ = α , so ist in dieser Basis
i
i
x = (β1 −δα1 )b1 +· · ·+(βi−1 −δαi−1 )bi−1 +δa+(βi+1 −δαi+1 )bi+1 +· · ·+(βn −δαn )bn .
Beweis.Siehe ung. Skript...
Bei der Durchführung einer elementaren Basistransformation wird also ein
geeigneter Basisvektor
bi
durch einen anderen Vektor
Schritt wird ein Zentralelement (z -Element)
einzutauschenden Vektors
z -Element
a
αi 6= 0
a
austauscht. Im ersten
aus den Koordinaten des
bestimmt. (Die Spalte bzw. die Zeile, in der das
steht, wird üblicherweise Austauschspalte bzw. Austauschzeile ge-
nannt.) Beim Tausch werden die älten"Koordinaten eines beliebigen anderen
Vektors
x
nach der Formel des Satzes verändert.
18
2.7 Rang von Matrizen
Der
Rang der Menge einer endlichen Anzahl von Vektoren ist deniert als die
maximale Anzahl der linear unabhängigen Vektoren in der Vektormenge.
Denition 2.7.1
Der Rang
r(A)
einer Matrix
A ∈ Rk×n
gleicht dem Rang
der Menge ihrer Spaltenvektoren.
2.8 Lineare Gleichungsysteme
aij
Seien die reellen Zahlen
a11 x1
a21 x1
+
+
und
bi , (i = 1, . . . , k , j = 1, . . . , n)
a12 x2
a22 x2
+ ...
+ ...
+
+
a1n xn
a2n xn
=
=

b1 


b2 
.
.
.
ak1 x1
+ ak2 x2
+ ...
+ akn xn
gegeben.
= bk




x1 , x2 , . . . , xn sind die Unbekannten (oder Variablen). Die Zahlen aij , bi , (i = 1, . . . , k , j = 1, . . . , n) nennt man Koezienten.
Wenn man für die Unbekannten x1 , x2 , . . . , xn die reellen Zahlen t1 , t2 , . . . , tn
einsetzt und man k Gleichungen bekommt, dann nennt man
heiÿt lineares Gleichungssystem.
{ x1 = t1 , x2 = t2 , . . . , xn = tn }
eine Lösung des Gleichungssystems.
Führt man die Spaltenvektoren



a11
a12
 a21 
 a22



a1 =  .  , a2 =  .
 .. 
 ..
ak1
ak2




a1n
b1
 a2n 
 b2 






 , . . . , an =  ..  , b =  .. 
 . 
 . 

akn
bk

ein, so nimmt das Gleichungssystem die folgende Form an:
a1 x1 + a2 x2 + · · · + an xn = b.
So bedeutet die Lösung eines Gleichungssystems das Finden aller Linearkombinationen der gegebenen Vektoren
a1 , . . . , an ,
die den Vektor
b
ergeben.
Führt man den Koezientenmatrix

a11
 a21

A= .
 ..
ak1
a12
a22
...
...
.
.
.
..
ak2
...
.

a1n
a2n 


.
.

.
akn
ein, so nimmt das Gleichungssystem die folgende Form an:
Ax = b,
wo
>
x = [x1 , x2 , . . . , xn ]
der Vektor der Unbekannten ist.
Die drei obigen Formen eines Gleichungssystems sind miteinander äquivalent.
Ist
x=0
Ist
b = 0,
so nennt man das Gleichungssystem homogen. Oensichtlich ist
eine Lösung eines beliebigen homogenen Gleichungssystems.
b 6= 0,
so nennt man das Gleichungssystem inhomogen.
19
2.8.1
Lösbarkeit von linearen Gleichungsystemen
Wird an die Koezientenmatrix
Spalte mit der rechten Seite
tenmatrix
b
A
eines Gleichungssystems eine zusätzliche
angefügt, so entsteht die erweiterte Koezien-

a11

a
 21
Ab = A | b =  .
 ..
ak1
a12
a22
...
...
a1n
a2n
.
.
.
..
.
.
.
ak2
...
.
akn

b1
b2 

.

bk
Das lineare Gleichungssystem Ax = b ist genau dann lösbar, wenn
der Rang der Koezientenmatrix A gleich dem Rang der erweiterten Koezientenmatrix Ab ist, d.h.
Satz 2.8.1
r(A) = r(Ab ).
2.8.2
Anzahl der Lösungen von linearen Gleichungsystemen
Sei n die Anzahl der Unbekannten des linearen Gleichungssystems
. Ist das Gleichungssystem lösbar (d.h. r(A) = r(Ab )), dann hat es
bei r(A) = n genau eine Lösung, also die Lösung ist eindeutig;
bei r(A) < n unendlich viele Lösungen, die sich mit s = n − r(A) Stück
frei wählbaren Parametern charakterisieren lassen.
Satz 2.8.2
Ax = b
•
•
2.8.3
Beschreibung der Lösungen von linearen Gleichungssystemen
Siehe ung Skript.
2.8.4
Lösungsmethoden von linearen Gleichungssystemen
Lösung durch elementare Basistransformation
Wir betrachten das lineare Gleichungssystem in der Form
x1 a1 + x2 a2 + · · · + xn an = b,
wo
a1 , . . . , an , b ∈ Rk
ist. Das Finden einer Lösung entspricht dem Finden
einer Linearkombination der Vektoren
a1 , . . . , an , die den Vektor b ergibt. Dazu
ai Vektoren
k
Standardbasis e1 , . . . , ek von R ein. Die
tauschen wir mit Hilfe der elementaren Basistransformation soviele
wie nur möglich von
a1 , . . . , an in die
b ändern sich während des Eintauschvorgangs ständig.
Koordinaten des Vektors
Am Ende des Eintauschvorgangs werden die Lösungen bestimmt.
Siehe ung. Skript für eine eingehendere Beschreibung.
20
Die Cramer'sche Regel
Ausgangspunkt für die Cramer'sche Regel ist stets ein lineares Gleichungssystem
Ax = b mit genausovielen Gleichungen wie Unbekannten, d.h. die Koezientenmatrix A ist quadratisch. Solch ein Gleichungssystem ist genau dann eindeutig
lösbar, wenn die Determinante der Koezientenmatrix von Null verschieden ist.
Sei
Di
A
b der rechten Seite
die Determinante derjenigen Matrix, die aus der Koezientenmatrix
entsteht, indem man die i-te Spalte durch den Spaltenvektor
des Gleichungssystems ersetzt.
Ist D = det(A) 6= 0 für das Gleichungs, so ist es eindeutig lösbar, und die Lösung
Satz 2.8.3 (Cramer'sche Regel)
system Ax
ist
= b
mit A
∈ Rn×n
D1
D2
Dn
x1 =
, x2 =
, . . . , xn =
.
D
D
D
2.9 Die Inverse einer Matrix
Satz 2.9.1
Die Matrix A ∈ Rn×n hat genau dann eine Inverse, wenn r(A) = n.
Beweis.Siehe ung. Skript.
Satz 2.9.2
Die Matrix A ∈ Rn×n ist genau dann invertierbar,wenn det(A) 6= 0.
21
Kapitel 3
Lineare Optimierung (oder:
Lineare Programmierung)
3.1 Die graphische Methode
Siehe ung. Skript.
3.2 Simplex-Verfahren
Seien
aij ∈ R, bi ∈ R, cj ∈ R (i = 1, 2, . . . , k ; j = 1, 2, . . . , n) beliebig festgelegte
Zahlen. Betrachten wir das Ungleichungssystem
a11 x1
a21 x1
+
+
a12 x2
a22 x2
+ ...
+ ...
+
+
a1n xn
a2n xn
≤
≤

b1 


b2 
.
.
.
ak1 x1
+ ak2 x2
+ ...
+ akn xn
≤ bk
,




das einen endlichen Bereich (oder die leere Menge) im Vektorraum der
n-dimensionalen
Spaltenvektoren bestimmt.
Eine kürzere Schreibweise ist
Ax ≤ b,
b = [b1 , b2 , . . . , bk ]> die Koezientenmatrix bzw. der Vektor
>
auf der rechten Seite sind. Der Vektor x = [x1 , x2 , . . . , xn ] beinhaltet die Unbekannten. Eine zulässige Lösung des Ungleichungssystems Ax ≤ b ist ein Vektor
x mit nichtnegativen Einträgen, der die linearen Bedingungen (Ungleichungen)
erfüllt. Das Ziel ist, unter allen zulässigen Vektoren x einen zu nden, der das
wo
A = [aij ]
bzw.
Skalarprodukt
f (x) = c> x = c1 x1 + c2 x2 + · · · + cn xn
maximiert, wo
sätzlich
b ≥ 0,
>
c = [c1 , . . . , cn ]
∈ Rn
ein festgelegter Vektor ist. Ist noch zu-
so spricht man über eine LP-Aufgabe in Normalform.
22
Herunterladen