Kapitel 1 Grundlagen der Wahrscheinlichkeitsrechnung 1.1 Kombinatorik Additionsprinzip (Summenregel). (i = 1, 2, . . . , n) Es sei A = A1 ∪ A2 ∪ · · · ∪ An , wo Ai paarweise disjunkte endliche Mengen sind. Dann ist |A| = |A1 | + |A2 | + · · · + |An |. Multiplikationsprinzip (Produktregel). Wählt man je ein Element aus den Mengen A1 , A2 , . . . , An so aus, daÿ die Auswahl der einzelnen Elemente einander n-Tupel nicht beeinuÿt, dann ist beim Auswahl die Anzahl aller möglichen |A1 | · |A2 | · . . . · |An |. Denition 1.1.1 Jede mögliche Anordnung von n verschiedenen Elementen, in der alle Elemente verwendet werden, heiÿt Permutation dieser Elemente. Satz 1.1.1 . n! Die Anzahl aller Permutationen von n verschiedenen Elementen ist Denition 1.1.2 Es gebe k verschiedene Gruppen von insgesamt so, daÿ in der i-ten Gruppe (i n1 + n2 + · · · + nk ≤ n. = 1, 2, . . . , k ) ni n Elementen ununterscheidbare Elemente sind, Jede mögliche Anordnung von solchen n Elementen, in der alle Elemente verwendet werden, heiÿt Permutation mit Wiederholung. Satz 1.1.2 ist Die Anzahl aller Permutationen mit Wiederholung von n Elementen n! . n1 ! · n2 ! · . . . · nk ! Denition 1.1.3 Eine Auswahl von k Elementen aus n verschiedenen Elemen- ten heiÿt 1. eine Variation von n Elementen zur Klasse k, wenn die Auswahl mit Beachtung der Reihenfolge der Elemente so erfolgt, daÿ ein Element nur höchstens einmal ausgewählt werden kann. 1 2. eine Variation mit Wiederholung von n Elementen zur Klasse k, wenn die Auswahl mit Beachtung der Reihenfolge der Elemente so erfolgt, daÿ ein Element mehrmals ausgewählt werden kann. 3. eine Kombination von n Elementen zur Klasse k, wenn die Auswahl ohne Beachtung der Reihenfolge der Elemente so erfolgt, daÿ ein Element nur höchstens einmal ausgewählt werden kann. 4. eine Kombination mit Wiederholung von n Elementen zur Klasse k, wenn die Auswahl ohne Beachtung der Reihenfolge der Elemente so erfolgt, daÿ ein Element mehrmals ausgewählt werden kann. Die Anzahl aller n! , Variationen von n Elementen zur Klasse k ist (n−k)! Variationen mit Wiederholung von n Elementen zur Klasse k ist nk , Kombinationen von n Elementen zur Klasse k ist nk, Kombinationen mit Wiederholung von n Elementen zur Klasse k ist n+k−1 . k Satz 1.1.3 1. 2. 3. 4. Der häug benötigte Ausdruck und mit der Formel berechnet (n n k wird als Binomialkoezient bezeichnet n n! = k k! · (n − k)! ∈ N, k ∈ N, n ≥ k ). Satz 1.1.4 (Binomischer Lehrsatz) a, b reelle Zahlen. Es ist Es seien n eine positive ganze Zahl und n n n 0 n n−1 1 n n−2 2 n 0 n X n n−i i a b. (a+b) = a b + a b + a b +· · ·+ a b = i 0 1 2 n i=0 n Das Pascal-Dreieck enthält den Binomialkoezienten nk an der k -ten Stelle der n-ten Zeile, wo 0 ≤ k ≤ n; k, n ∈ N. Satz 1.1.6 Im Pascal-Dreieck ist • n0 = 1 und nn = 1, d.h. jede Zeile beginnt und endet mit der 1; n • nk = n−k , d.h. das Pascal-Dreieck ist symmetrisch; n−1 • nk = n−1 ist die Bildungsregel der inneren Elemente des Pascalk−1 + k Dreiecks; Pn n n n n n • i=0 i = 0 + 1 + · · · + n = 2 , d.h. die Summe der Elemente in der n-ten Zeile des Pascal-Dreiecks beträgt 2n . Satz 1.1.5 2 1.2 Algebra der Ereignisse Die Menge aller Ergebnisse eines Zufallsvorgangs (oder Zufallsexperimentes) heiÿt Ereignisraum (Ω), dessen Elemente die sog. Elementarereignisse sind. Ein Ereignis ist als eine Teilmenge von Ω deniert. Die Menge das sichere Ereignis bezeichnet. Die leere Menge ∅ Ω wird auch als nennt man das unmögliche Ereignis. 1.2.1 Operationen mit Ereignissen Denition 1.2.1 A zieht das Ereignis B nach sich, wenn B immer B immer ein falls das Ereignis A eintrit, so sagt Bezeichnung: A ⊂ B . Das Ereignis eintrit falls Trit das Ereignis man: A zieht B nach sich. Denition 1.2.2 Zwei Ereignisse sind gleich, falls jede der zwei die andere nach sich zieht. Denition 1.2.3 A Zu jedem Ereignis A gibt es ein entgegengesetztes Ereignis (Gegenereignis), das genau dann eintritt, wenn Denition 1.2.4 Die Summe der Ereignisse A nicht eintritt. A, B ⊂ Ω ist das Ereignis das genau dann eintritt, wenn mindestens eins der zwei Ereignisse A A + B, und B eintritt. Denition 1.2.5 Das Produkt der Ereignisse A, B ⊂ Ω B A·B A und ist das Ereignis (Verbund-Ereigniss), das genau dann eintritt, wenn die zwei Ereignisse gleichzeitig eintreten. Denition 1.2.6 Man nennt A, B ⊂ Ω unvereinbare Ereignisse, wenn A·B = ∅, d.h. sie können gleichzeitig nicht eintreten. Denition 1.2.7 Ist keines der Ereignisse A1 , A2 , . . . das unmögliche Ereignis, sind sie paarweise unvereinbar und ist ihre Summe das sichere Ereignis, so nennt man A1 , A2 , . . . ein vollständiges Ereignissystem. 1.3 Begri der Wahrscheinlichkeit Die Wahrscheinlichkeit eines Ereignisses A ist eine Zahl P (A), die zu A so zugeordnet wird, daÿ diese Zuordnung die folgenden drei Kolmogorow-Axiome erfüllt: 1. 0 ≤ P (A) ≤ 1, d.h. Für jedes Ereignis A ist die Wahrscheinlichkeit eine reelle Zahl zwischen 0 und 1, 2. P (Ω) = 1, d.h. das sichere Ereignis hat die Wahrscheinlichkeit 1. 3. Die Wahrscheinlichkeit einer Summe abzählbar vieler, paarweise unvereinbarer Ereignisse entspricht der Summe der Wahrscheinlichkeiten der einzelnen Ereignisse, d.h. P (A1 + A2 + . . . ) = P (A1 ) + P (A2 ) + . . . . 3 Satz 1.3.1 Die Wahrscheinlichkeit des unmöglichen Ereignisses gleicht 0. A und das unmögliche Ereignis sind unvereinbar (AØ = A + Ø = A. Deshalb ist Beweis.Das Ereignis Ø), weiter ist P (A) = P (A + Ø) = P (A) + P (Ø), woraus folgt Satz 1.3.2 P (Ø) = 0. Die Wahrscheinlichkeit des Gegenereignisses ist P (A) = 1 − P (A). Beweis.Von A+A=Ω und AA = Ø folgt 1 = P (Ω) = P (A + A) = P (A) + P (A), woraus P (A) ausgedrückt werden kann. Wenn A ⊂ B , dann P (A) ≤ P (B). P (A + B) = P (A) + P (B) − P (AB). Satz 1.3.3 (Monotoniesatz) Satz 1.3.4 Es sei Ω = {ω1 , ω2 , . . . }. Bezeichne pi die Wahrscheinlichkeit pi = P (ωi ). Das dritte Axiom ergibt: X pi = p1 + p2 + · · · = 1. des i-ten Ele- mentarereignisses, d.h. i Die Wahrscheinlichkeiten lung des Ereignisraums p1 , p 2 , . . . nennt man die Wahrscheinlichkeitsvertei- Ω. 1.4 Klassische (kombinatorische) Wahrscheinlichkeit Ω nur endlich viele (n ∈ N+ ) Elementarereignisse, die mit Wahrscheinlichkeit eintreten, so folgen aus p1 + p2 + · · · + pn = 1 Sind im Ereignisraum der gleichen die Gleichungen 1 . n A ⊆ Ω, die p 1 = p2 = · · · = p n = Als Konsequenz folgt, dass für Ereignisse sich aus k (0 ≤ k ≤ n) Elementarereignissen zusammensetzen, die entsprechend vielfache Wahrscheinlichkeit gilt, d.h. P (A) = k · 1 k = . n n Die Wahrscheinlichkeit eines Ereignisses gleich der Zahl der für dieses Ereignis günstigen Ergebnisse, dividiert durch die Zahl der insgesamt möglichen Ergebnisse: P (A) = k = n Anzahl der günstigen Ergebnisse Anzahl der insgesamt möglichen Ergebnisse Sei die Anzahl einer Population N. In dieser Population sind K . Exemplare mit einem Merkmal gekennzeichnet. Mit welcher Wahrscheinlichkeit benden 4 sich k n Exemplaren? BeAnk , so bekommt man die folgenden gekennzeichnete Exemplare in einer Stichprobe von zeichnet man dieses Ereignis in der Frage mit Formel. Stichprobe mit Zurücklegen: Pv (Ank ) = n k n−k K k (N − K) Nn = k n−k n K K . 1− k N N (1.1) K N für die Wahrscheinlichkeit der Auswahl eines einzigen gekennzeichneten Exemplares aus der Population ein, so gelangt man Führt man die Bezeichnung p= zur Formel Pv (Ank ) = n k n−k p (1 − p) . k (1.2) Stichprobe ohne Zurücklegen: Pvn (Ank ) K k = N −K n−k N n . (1.3) 1.5 Geometrische Wahrscheinlichkeit Ist die Ergebnismenge überabzählbar, so kann Ω mit einer Teilmenge der Gera- den, der Ebene oder des Raums so identiziert werden. Ist Wahrscheinlichkeit von A A ⊆ Ω, so kann die als Quotient der geometrischen Maÿe von A und Ω gedeutet werden. 1.6 Bedingte Wahrscheinlichkeit, Unabhängigkeit Unter einer bedingten Wahrscheinlichkeit versteht man die Wahrscheinlichkeit A für das Eintreten eines Ereignisses ten eines anderen Ereignisses B unter der Voraussetzung, dass das Eintre- bereits bekannt ist. Natürlich muss B eintreten können, es darf also nicht das unmögliche Ereignis sein. Man schreibt dann P (A | B) für Wahrscheinlichkeit von A, vorausgesetzt B . Denition 1.6.1 von A Die bedingte Wahrscheinlichkeit des Ereignisses Voraussetzung von B P (B) 6= 0 B , A kurz P unter der ist P (A | B) = wenn unter der Voraussetzung P (AB) , P (B) (1.4) ist. Die Wahrscheinlichkeit hiervon berechnet sich zur gemeinsamen Wahrscheinlichkeit oder Verbundwahrscheinlichkeit mit P (AB) = P (A | B) · P (B) Bilden die Ereignisse A1 , A2 , . . . ein vollständiges Ereignissystem so, daÿ P (Ai ) > 0 (i = 1, 2, . . .), und ist B ein beliebiges Ereignis, dann ist Satz 1.6.1 (Gesetz der totalen Wahrscheinlichkeit) P (B) = X P (B | Ai ) · P (Ai ). i 5 (1.5) A1 , A2 , . . . ist Ω. Man hat !! ! X X X Ai =P BAi = P (BAi ) = Beweis.Die Summe der Ereignisse P (B) = P (BΩ) = P B i = X i i P (B | Ai ) · P (Ai ), i denn (BAi )(BAj ) = BAi Aj = B Ø = Ø (i 6= j). Satz 1.6.2 (Satz von Bayes) Bilden die Ereignisse A1 , A2 , . . . ein vollständiges Ereignissystem so, daÿ P (Ai ) > 0 (i = 1, 2, . . .), und ist B ein beliebiges Ereignis mit positiver Wahrscheinlichkeit, dann ist P (B | Ak ) · P (Ak ) P (Ak | B) = P , (k = 1, 2, . . . ). P (B | Ai ) · P (Ai ) (1.6) i Beweis. P (Ak | B) = P (BAk ) P (B | Ak ) · P (Ak ) P (Ak B) = =P , P (B) P (B) P (B | Ai ) · P (Ai ) i wo im Nenner das Gesetz der totalen Wahrscheinlichkeit benutzt wurde. Denition 1.6.2 Die zwei Ereignisse A und B sind unabhängig, wenn gilt P (AB) = P (A) · P (B). (d.h. Bei unabhängigen Ereignissen kann man die Wahrscheinlichkeiten multiplizieren.) 1.7 Zufallsvariablen und deren Eigenschaften Denition 1.7.1 Die Funktion Die Zufallsvariable η η: Ω → R heiÿt Zufallsvariable. ordnet also zu den Elementen des Ereignisraums reelle Zahlen zu. Denition 1.7.2 tion Die Verteilungsfunktion einer Zufallsvariablen ist die Funk- F : R → R, F (x) = P (η < x). Die Verteilungsfunktion F einer Zufallsvariablen η ist monoton steigend, d.h. für jede a ≤ b ist F (a) ≤ F (b), weiter gelten lim F (x) = 0 und lim F (x) = 1. x→−∞ x→∞ Satz 1.7.1 • • Mit Hilfe der Verteilungsfunktion kann man die folgende Wahrscheinlichkeit berechnen: P (a ≤ η < b) = P (η < b) − P (η < a) = F (b) − F (a). 6 Denition 1.7.3 Die Zufallsvariable η heiÿt eine diskrete Zufallsvariable, wenn ihr Wertevorrat endlich oder eine unendliche Folge ist. x1 , x2 , . . . Seien η . Die PEreignisse {η = xi } sind paarP (a ≤ η < b) = P (η = xi ), wo xi ∈ [a, b). Mit die möglichen Werte von weise unvereinbar, deshalb ist i Hilfe der Wahrscheinlichkeiten P (η = xi ) läÿt sich also die Wahrscheinlichkeit eines beliebigen Ereignisses berechnen. Darüber hinaus ist Die Wahrscheinlichkeiten ble P (η = xi ) P i P (η = xi ) = 1. nennt man die Verteilung der Zufallsvaria- η. Denition 1.7.4 Die Zufallsvariable η heiÿt eine stetige Zufallsvariable, wenn ihre Verteilungsfunktion stetig ist. Denition 1.7.5 Zufallsvariable η F 0 (x) = f (x) Die Ableitung der Verteilungsfunktion F der heiÿt die Dichtefunktion (oder Dichte) der Zufallsvariable. Die Dichtefunktion einer stetigen Zufallsvariable hat die folgenden Eigenschaften. • f (x) ≥ 0, R∞ • f (x) dx = 1. Satz 1.7.2 −∞ • Die Wahrscheinlichkeit P (a ≤ η < b) = F (b) − F (a) ist genau das bestimmte Integral der Dichtefunktion über dem Intervall [a, b]: Zb P (a ≤ η < b) = f (x) dx. a Denition 1.7.6 Die Zufallsvariablen beliebige reelle Zahlen x, y η ξ heiÿen unabhängig, wenn für {η < x} und {ξ < y} unabhängig und die Ereignisse sind. Denition 1.7.7 Die reelle Zahl P i xi pi , E(η) = R∞ x · f (x) dx, falls η diskret falls η stetig, −∞ heiÿt der Erwartungswert von η, falls die obigen Werte überhaupt existieren. Satz 1.7.3 Nimmt die Zufallsvariable η nur den konstanten Wert A an, dann ist E(η) = A. Beweis.Die Zufallsvariable η ist diskret, denn sie nimmt nur den einen Wert A an, und zwar dann mit der Wahrscheinlichkeit p = 1. So folgt E(η) = A·1 = A. Ist E(η) der Erwartungswert der Zufallsvariable η, so hat die Zufallsvariable Aη + B (A, B ∈ R) auch einen Erwartungswert, und zwar Satz 1.7.4 E(Aη + B) = A · E(η) + B. 7 xi mit den Wahrscheinlichkeiten pi Aη + B die möglichen Werte Axi + B mit den entsprechenden Wahrscheinlichkeiten pi an. X X X X X E(Aη+B) = (Axi +B)pi = Axi pi + Bpi = A xi pi +B pi = A·E(η)+B. Beweis.Nimmt η die möglichen Werte an, so nimmt die Zufallsvariable i i i i i Existieren die Erwartungswerte E(η) und E(ξ), so existiert auch , und zwar Satz 1.7.5 E(η + ξ) E(η + ξ) = E(η) + E(ξ). Satz 1.7.6 Sind η und ξ solche unabhängige Zufallsvariablen, die die Erwartungswerte E(η) und E(ξ) haben, dann existiert E(ηξ) ebenfalls, und zwar ist E(ηξ) = E(η) · E(ξ). Denition 1.7.8 2 Die Varianz einer Zufallsvariable 2 E((η − E(η)) ) = E((η − µη ) ), Denition 1.7.9 η ist der Wert D2 (η) = falls er existiert. Die Quadratwurzel D(η) = p D2 (η) der Varianz heiÿt Stan- dardabweichung. Satz 1.7.7 Besitzt die Zufallsvariable η eine Varianz, so ist D2 (η) = E(η 2 ) − E 2 (η). Beweis. D2 (η) = E((η−µη )2 ) = E(η 2 −2µη η+µ2η ) = E(η 2 )−2µη E(η)+E(µ2η ) = E(η 2 )−µ2η . Korollar. Die Varianz einer diskreten Zufallsvariable η läÿt sich berechnen als D2 (η) = X x2i pi − µ2η . i Die Varianz einer stetigen Zufallsvariable D2 (η) = Z∞ η läÿt sich berechnen als x2 f (x)dx − µ2η . −∞ Nimmt die Zufallsvariable η nur den konstanten Wert A an, dann ist D2 (η) = 0. Satz 1.7.8 Beweis. D2 (η) = E(η 2 ) − E 2 (η) = E(A2 ) − E 2 (A) = A2 − A2 = 0. Ist ση2 die Varianz der Zufallsvariable η und ist A ∈ R, dann existiert 2 2 ση+A und ση+A = ση2 , 2 2 σAη und σAη = A2 ση2 . Satz 1.7.9 • • 8 Beweis. • 2 ση+A = D2 (η + A) = E((η + A)2 ) − E 2 (η + A) = = E(η 2 + 2Aη + A2 ) − (E(η) + E(A))2 = = E(η 2 ) + 2AE(η) + E(A2 ) − E 2 (η) − 2E(A)E(η) − E 2 (A) = = E(η 2 ) − E 2 (η) = D2 (η) = ση2 . 2 • σAη = D2 (Aη) = E((Aη)2 )−E 2 (Aη) = A2 E(η 2 )−A2 E 2 (η) = A2 D2 (η) = A2 ση2 . Denition 1.7.10 Die Kovarianz zweier Zufallsvariablen COV(η, ξ) = E(ηξ) − E(η)E(ξ), η und ξ ist der Wert falls er existiert. 2 Satz 1.7.10 Wenn die Varianz ση2 und σξ2 existieren, dann existiert ση+ξ ebenfalls, und man hat den Zusammenhang 2 ση+ξ = ση2 + σξ2 + 2 · COV(η, ξ). Beweis. D2 (η + ξ) = E((η + ξ)2 ) − E 2 (η + ξ) = E(η 2 + 2ηξ + ξ 2 ) − (E(η) + E(ξ))2 = = E(η 2 ) − E 2 (η) + E(ξ 2 ) − E 2 (ξ) + 2E(ηξ) − 2E(η)E(ξ) = = D2 (η) + D2 (ξ) + 2(E(ηξ) − E(η)E(ξ)). Satz 1.7.11 . COV(η, ξ) = E((η − µη )(ξ − µξ )) Beweis. E((η − µη )(ξ − µξ )) = E(ηξ − ηµξ − ξµη + µη µξ ) = E(ηξ) − µξ E(η) − µη E(ξ) + µη µξ = E(ηξ) − E(η)E(ξ). Hat die Zufallsvariable η den Erwartungswert µη und die Stanη−µ dardabweichung ση , so hat die standardisierte Zufallsvariable ξ = σ • µξ = 0, • σξ = 1. Satz 1.7.12 η η Beweis. • µξ = E(ξ) = E( η−µη ση ) • σξ2 = D2 (ξ) = D2 ( = η−µη ση ) 1 ση E(η = − µη ) = 1 2 ση2 D (η − µη ) = ξ= − 1 ση µη 1 2 ση2 D (η) = = ση2 ση2 µη ση − µη ση = 0. = 1. η in die standardisierte Zufallsvaη−µη bezeichnet man als Standardisierung der Zufallsvariable η . ση Die Transformation einer Zufallsvariable riable 1 ση E(η) 9 1.8 Wahrscheinlichkeitsverteilungen 1.8.1 Diskrete Wahrscheinlichkeitsverteilungen 1. Verteilung der Indikatorvariable. 0 1 q p κA : . E(κA ) = 0 · q + 1 · p = p, D2 (κA ) = 02 · q + 12 · p − p2 = p(1 − p) = pq . 2. Binomialverteilung. Eine diskrete Zufallsvariable den Parametern n und p, η heiÿt binomialverteilt mit wenn ihre Werte die natürlichen Zahlen 0, 1, . . . , n sind, die sie mit den Wahrscheinlichkeiten n k n k n−k n−k pk = P (η = k) = p (1 − p) = p q k k annimmt. Nehmen wir an, daÿ das Ereignis A , (k = 0, 1, . . . , n) p n-mal mit der Wahrscheinlichkeit (Treerwahrscheinlichkeit) eintrit. Führen wir das Zufallsexperiment η die Häugkeit des Eintreens des ErA. Die Wahrscheinlichkeit, daÿ A genau k -mal eintrit, gleicht nk pk q n−k (Anzahl der Versuche) durch. Bezeichne eignisses (siehe SZiehen mit Zurücklegen"). Erwartungswert und Varianz einer binomialverteilten Zufallsvariable η sind E(η) = E(κ1 + . . . + κn ) = E(κ1 ) + . . . + E(κn ) = n · p, D2 (η) = D2 (κ1 + . . . + κn ) = D2 (κ1 ) + . . . + D2 (κn ) = n · pq, wo die identischen Einzelprozesse mit den Zufallsvariablen κi paarweise unab- hängig sind. 3. Poisson-Verteilung. Eine diskrete Zufallsvariable mit dem Parameter λ, η heiÿt poissonverteilt wenn ihr Wertevorrat die Menge der natürlichen Zahlen ist, die sie mit den Wahrscheinlichkeiten pk = P (η = k) = λk −λ e k! , (k ∈ N) animmt. Diese Zahlen bilden wirklich eine Verteilung, denn ∞ X k=0 P (η = k) = ∞ X λk k=0 k! e−λ = e−λ ∞ X λk k=0 k! = e−λ · eλ = 1. Erwartungswert und Varianz einer poissonverteilten Zufallsvariable E(η) = λ , η sind D2 (η) = λ. Der Poisson-Verteilung folgt im Allgemeinen die Anzahl der in einem (zeitlichen bzw. räumlichen) Intervall plötzlich eintreenden Geschehnisse . 10 1.8.2 Stetige Wahrscheinlichkeitsverteilungen l. Normalverteilung. Eine stetige Zufallsvariable Parametern µ und σ (σ > 0), η heiÿt normalverteilt mit den wenn ihre Dichtefunktion ist: 2 1 (x−µ) 1 √ e− 2 · σ2 . σ 2π f (x) = E(η) = µ Erwartungswert und Varianz sind und D2 (η) = σ 2 , womit man eine anschauliche Rolle den Parametern der Normalverteilung zuordnen kann. Häug η = N (µ, σ). z = N (0, 1) heiÿt verwendet man das Symbol Die Normalverteilung Standardnormalverteilung, denn sie kann von einer beliebigen Normalverteilung gewonnen werden, d.h. z= η = N (µ, σ) mit Standardisierung η−µ . σ Die Dichtefunktion bzw. die Verteilungsfunktion der Standardnormalverteilung bezeichnet man mit φ(x) bzw. mit Φ(x). η heiÿt exponentialverµ ∈ R+ , wenn ihre Dichtefunktion ist: µe−µx , falls x > 0; f (x) = 0, anderenfalls. 2. Exponentialverteilung. Eine stetige Zufallsvariable teilt mit dem Parameter Diese Funktion deniert tatsächlich eine Dichtefunktion, denn ∞ 1 −µx f (x) dx = 0 dx + µe dx = 0 + µ − e = µ −∞ −∞ 0 0 1 1 = µ lim − e−µx − µ − = 0 − (−1) = 1. x→∞ µ µ Z ∞ Z 0 Z ∞ −µx Die Verteilungsfunktion ist F (x) = 1 − e−µx , 0, falls x > 0; anderenfalls. Erwartungswert bzw. Standardabweichung sind E(η) = 1 µ bzw. D(η) = 1 µ. 1.9 Spieltheorie 1.9.1 Matrixspiele mit einem Sattelpunkt in reinen Strategien Es sei Ak×n = [aij ] (i = 1, . . . , k ,j = 1, . . . , n) die Auszahlungsmatrix (die Spielmatrix) eines Zweipersonen-Nullsummenspiels. Falls der Zeilenspieler zen von αi := minj aij i spielt, muÿ er mit dem schlimmsten Fall, einem Nut- rechnen. Der Zeilenspieler wird nun diejenige Strategie spielen, die ihm ein maximales αi sichert, d.h. seinen Maximin-Wert erreicht α := max αi = max min aij . i i 11 j Falls der Spaltenspieler βj := maxi aij von j spielt, muÿ er mit dem schlimmsten Fall, einem Verlust rechnen. Der Spaltenspieler wird nun diejenige Strategie spielen, die ihm einen minimalen Verlust βj sichert, d.h. seinen Minimax-Wert erreicht hingegen β := min βj = min max aij . j Ist α = β(=: v), j i so besitzt das Spiel einen Sattelpunkt in reinen Strategien (Paar aus Maximin- und Minimax-Strategien); min aij j wird als Spielwert bezeichnet. für jedes max min aij ⇓ ≤ max aik max min aij ⇓ ≤ min max aik i j i j α Denition 1.9.1 ≤ aik v Das Paar i k für jedes k i k ⇓ ≤ β (i0 , j0 )) heiÿt ein Sattelpunkt in reinen Strategien im Zweipersonen-Nullsummenspiel mit der Auszahlungsmatrix falls ai0 j0 Ak×n = [aij ], in seiner eigenen Zeile minimal und gleichzeitig in seiner Spalte ma- ximal ist, d.h. aij0 ≤ ai0 j0 ≤ ai0 j für alle i,j (i = 1, . . . , k ,j = 1, . . . , n). v = ai0 j0 wird als Spielwert bezeichnet. Nicht jedes Matrixspiel besitzt einen Spielwert bei einer Spielweise in reinen Strategien. Satz 1.9.1 Das Paar (i0 , j0 )) ist ein Sattelpunkt in reinen Strategien im ZweipersonenNullsummenspiel mit der Auszahlungsmatrix Ak×n = [aij ] genau dann, wenn max min aij = ai0 j0 = min max aij . i j j i Hat ein Zweipersonen-Nullsummenspiel mehrere Sattelpunkte in reinen Strategien, dann sind diese Sattelpunkte miteinander gleichwertig. Satz 1.9.2 1.9.2 Allgemeine Untersuchung von Betrachten wir die 2×2 2×2 Matrixspielen Auszahlungsmatrix A= a11 a21 a12 a22 eines solchen Zweipersonen-Nullsummenspiels, das kein Sattelpunkt in reinen Strategien hat. Wählt der Zeilenspieler die erste Zeile mit Wahrscheinlichkeit p, und wählt der Spaltenspieler unahängig vom Zeilenspieler die erste Spalte mit Wahrscheinlichkeit q, so ist der erwartete Nutzen des Zeilenspielers E(p, q) = a11 pq + a12 p(1 − q) + a21 (1 − p)q + a22 (1 − p)(1 − q). 12 Ein Gleichgewicht ergibt sich, falls es solche gemischte Strategien der zwei Spieler mit den jeweiligen Wahrscheinlichkeiten p0 und q0 gibt, daÿ der Zusammen- hang E(p, q0 ) ≤ E(p0 , q0 ) ≤ E(p0 , q) für beliebige 0≤p≤1 Denition 1.9.2 und 0≤q≤1 Das Zahlenpaar besteht. (p0 , q0 ) heiÿt ein Sattelpunkt in gemischten Strategien im Zweipersonen-Nullsummenspiel mit der Auszahlungsmatrix A, falls E(p, q0 ) ≤ E(p0 , q0 ) ≤ E(p0 , q) ist für beliebige Wahrscheinlichkeiten 0≤p≤1 und 0 ≤ q ≤ 1. v = E(p0 , q0 ) v = 0. wird als Spielwert bezeichnet. Das Spiel heiÿt gerecht falls Satz 1.9.3 (Fundamentalsatz der Spieltheorie, János Neumann) Matrixspiel besitzt einen Sattelpunkt in gemischten Strategien. 1.9.3 Jedes Algebraische Lösungsmethode Gibt es keinen Sattelpunkt in reinen Strategien im ZweipersonenNullsummenspiel mit der 2 × 2 Auszahlungsmatrix A, so ist Satz 1.9.4 A = a11 + a22 − a12 − a21 6= 0. Gibt es keinen Sattelpunkt in reinen Strategien im ZweipersonenNullsummenspiel mit der 2 × 2 Auszahlungsmatrix A, so sind Satz 1.9.5 p0 = − 1.9.4 a22 − a21 B a22 − a12 AD − BC a11 a22 − a12 a21 C = , q0 = − = ,v = = . A A A A A A Geometrische Methode Siehe ungarisches Skript... 13 Kapitel 2 Lineare Algebra 2.1 Matrizen Denition 2.1.1 ge Rn×1 Die Matrizen in wird einfacher als Rn Rn×1 nennt man Spaltenvektoren. Die Men- bezeichnet. Denition 2.1.2 Die Summe der zwei Matrizen Ak×n = [aij ]k×n und Bk×n = [bij ]k×n ist diejenige Matrix Ck×n = [cij ]k×n , deren Komponente cij = aij + bij (i = 1, . . . , k ,j = 1, . . . , n) sind. Man bezeichnet C = A + B. Es können also nur Matrizen mit der gleichen Anzahl an Zeilen und der gleichen Anzahl an Spalten addiert werden. Die Summe zweier k × n-Matrizen berechnet sich, indem man jeweils die Einträge der beiden Matrizen addiert. Denition 2.1.3 Das Produkt der Matrix Ak×n = [aij ]k×n mit der reellen α ist diejenige Matrix Ck×n = [cij ]k×n , deren Komponente cij = αaij (i = 1, . . . , k ,j = 1, . . . , n) sind. Man bezeichnet C = αA. Zahl Eine Matrix wird mit einem Skalar (also: Zahl) multipliziert, indem alle Einträge der Matrix mit dem Skalar multipliziert werden. Diese Skalarmultiplikation darf nicht mit dem Skalarprodukt verwechselt werden. Denition 2.1.4 [bij ]m×n Das Produkt der zwei Matrizen ist diejenige Matrix Ck×n = [cij ]k×n , Ak×m = [aij ]k×m und Bm×n = deren Komponente cij = ai1 b1j + ai2 b2j + · · · + aim bmj = m X ai` b`j `=1 (i = 1, . . . , k ,j = 1, . . . , n) sind. Man bezeichnet C = AB. Zwei Matrizen werden multipliziert, indem die Produktsummenformel, ähnlich dem Skalarprodukt, auf Paare aus einem Zeilenvektor der ersten und einem Spaltenvektor der zweiten Matrix angewandt wird (Zeilen-Spalten-Multiplikation). Denition 2.1.5 Eine quadratische Matrix ist eine Matrix, bei der die Anzahl der Zeilen mit der Anzahl der Spalten übereinstimmt. 14 In der linearen Algebra ist eine Diagonale einer quadratischen Matrix eine Linie, die schräg durch das Koezientenschema geht. Die Hauptdiagonale verläuft von oben links nach unten rechts, enthält also die Elemente aii , i = 1, ..., n. Die Ne- bendiagonale von oben rechts nach unten links. Als Diagonalmatrix bezeichnet man eine quadratische Matrix, bei der alle Elemente auÿerhalb der Hauptdiagonale Null sind. Die Einheitsmatrix (oder Identitätsmatrix) E ist eine qua- dratische Matrix, deren Hauptdiagonale nur aus Einsen besteht, alle anderen Komponente sind 0. Die Spalten der Einheitsmatrix sind Einheitsvektoren. Denition 2.1.6 A ∈ Rn×n heiÿt eine reguläre (oder: invertier−1 bare, nichtsinguläre) Matrix falls zu A eine andere Matrix A existiert, so −1 −1 daÿ AA = E gilt. Man bezeichnet die Matrix A als inverse Matrix (oder einfach kurz Inverse) zu A. Die Matrix Die Matrizenmultiplikation in der Menge Rn×n ist nichtkommutativ; ist assoziativ. Die Matrixmultiplikation ist bezüglich der Matrixaddition distributiv. Es gibt eine Einheitsmatrix E mit der Eigenschaft, daÿ AE = EA = A für jede Matrix A gilt. Nicht jede Matrix A hat eine Inverse A−1 , wofür A−1 A = AA−1 = E gilt. Satz 2.1.1 Denition 2.1.7 te) von A in Unter der transponierten Matrix (oder einfach Transponier- Rk×n AT ∈ Rn×k , deren Kompoj -ten Spalte mit der Komponente von A in der j -ten beliebige i = 1, . . . , n,j = 1, . . . , k übereinstimmt. versteht man diejenige Matrix nente in der i-ten Zeile und Zeile und i-ten Spalte für A wird sozusagen an ihrer Hauptdiagonale gespiegelt. Die Zeilen von AT und umekehrt: die Zeilen von AT sind die Spalten von A. Eine Matrix A heiÿt symmetrisch, wenn sie gleich ihrer transponierten T Matrix ist: A = A . Man hat die folgenden Regel: T AT = A, Die Matrix A sind die Spalten von T = AT + BT , T = αAT , T = BT A T , (A + B) (αA) (AB) für Matrizen, wofür die Operationen in den Formeln sinvoll sind. a, b ∈ Rn , dann ist das Matrixprodukt ab T T nicht deniert, aber die beiden Produkte a b und ab existieren. Das erste Produkt (kanonische Skalarprodukt) ist eine 1 × 1-Matrix: Hat man zwei Spaltenvektoren aT b = a1 b1 + · · · + an bn , das zweite Produkt (dyadische Produkt oder Tensorprodukt) trix in R T ab ist eine Ma- n×n 2.2 Determinanten Denition 2.2.1 Die Determinante einer quadratischen Matrix die Zahl det(A) = X (−1)I(i1 ,...,in ) a1i1 a2i2 · · · anin , i1 ,...,in 15 A ∈ Rn×n ist wo die Summe über alle Permutationen i1 , . . . , in der Zahlen wird, und I(i1 , . . . , in ) die jeweilige Permutation i1 , . . . , in Das Vorzeichen der Permutation +1 , falls i1 , . . . , in 1, . . . , n berechnet bezeichnet, wie viele Vertauschungen nötig waren, um von 1, . . . , n i1 , . . . , in zu erzeugen. ist die Zahl eine gerade Permutation ist und −1, (−1)I(i1 ,...,in ) . Sie ist falls sie ungerade ist. Ob eine Permutation gerade oder ungerade ist, erkennt man daran, wie viele Vertauschungen nötig waren, um die jeweilige Permutation zu erzeugen (gerade oder ungerade Anzahl). Addiert man ein Vielfaches einer Zeile (oder Spalte) zu einer anderen Zeile (oder Spalte) in einer Matrix, so bleibt die Determinante dieser Matrix unverändert. Satz 2.2.1 Denition 2.2.2 Zu jeder Komponente aij (i, j = 1, . . . , n) einer quadratiA = [aij ] ∈ Rn×n gehört eine Untermatrix Aij vom Format (n − 1) × (n − 1), die so gebildet wird, indem man die i-te Zeile und j -te Spalte der ursprünglichen Matrix herausstreicht. Die Determinante det(Aij ) heiÿt Unterdeterminante zur Komponente aij . Versieht man die Unterdeterminan± i+j te mit dem Vorzeichen (−1) , so bekommt man die Adjunkte det (Aij ) = i+j (−1) det(Aij ). schen Matrix Es sei A = [aij ] ∈ Rn×n eine beliebige quadratische Matrix und 1 ≤ k ≤ n festgelegt. Es sind Satz 2.2.2 (Laplacescher Entwicklungssatz) det(A) = ak1 det± (Ak1 ) + ak2 det± (Ak2 ) + · · · + akn det± (Akn ), det(A) = a1k det± (A1k ) + a2k det± (A2k ) + · · · + ank det± (Ank ). Mit dem laplaceschen Entwicklungssatz kann man die Determinante einer n×n- Matrix nach einer Zeile oder Spalte entwickeln. Denition 2.2.3 Die zur Matrix C∈R , die T bezeichnet adj(A) = C . nierte derjenigen Matrix besteht. Man Satz 2.2.3 A ∈ Rn×n n×n adjungierte Matrix ist Transpo- aus den Komponenten cij = det± (Aij ) Ist det(A) 6= 0, so gilt A−1 = 1 adj(A). det(A) 2.3 Vektorraum der n-Tupel aus reellen Zahlen Denition 2.3.1 Seien λ 1 , . . . , λ k ∈ R. Der Spaltenvektor λ1 x1 + · · · + λk xk ∈ Rn heiÿt eine Linearkombination der Spaltenvektoren x1 , . . . , xk ∈ Rn . Eine Linearkombination einiger Spaltenvektoren ist eine Summe von beliebigen Vielfachen dieser Spaltenvektoren. Eine Linearkombination heiÿt trivial, falls λ1 = · · · = λk = 0. Die triviale Linearkombination erzeugt den Nullvektor. 16 2.4 Lineare Unabhängigkeit, Generatorsystem Denition 2.4.1 Die Familie der festgelegten Spaltenvektoren x1 , . . . , xk ∈ Rn heiÿt linear unabhängig, falls sich der Nullvektor nur durch eine Linearkombination der Vektoren erzeugen lässt, in der alle Koezienten der Kombination auf den Wert Null gesetzt werden, d.h. α1 x1 + · · · + αk xk = 0 ⇐⇒ α1 = · · · = αk = 0. Denition 2.4.2 Die Familie der festgelegten Spaltenvektoren x1 , . . . , xk ∈ Rn heiÿt linear abhängig, falls sich der Nullvektor durch eine Linearkombination der Vektoren erzeugen lässt, worin nicht jeder Koezient der Kombination auf den Wert Null gesetzt wird. Man sollte im Fall linearer Abhängigkeit vor Augen halten, daÿ es in der Denition nicht verlangt wird, daÿ jeder Koezient der Kombination ungleich Null sein muÿ. Enthält eine Familie von Spaltenvektoren den Nullvektor, so ist sie linear abhängig Satz 2.4.1 Beweis.Sei 0, x2 , . . . , xk ∈ Rn eine Familie von Spaltenvektoren. Die Line- arkombination 0 = 1 · 0 + 0 · x2 + · · · + 0 · xk erzeugt den Nullvektor und genügt auch der Denition der linearen Abhängigkeit. Eine Familie von Spaltenvektoren ist linear abhängig genau dann, wenn sich mindestens einer der beteiligten Spaltenvektoren durch die anderen mit einer Linearkombination darstellen lässt. Satz 2.4.2 Denition 2.4.3 heiÿt ein Erzeugendensystem, falls man zu einem beliebigen Rn x1 , . . . , xk ∈ Rn Spaltenvektor x ∈ Die Familie der festgelegten Spaltenvektoren entsprechende Koezienten λ1 , . . . , λ k ∈ R ndet, so daÿ x = λ1 x1 + · · · + λk xk , d.h ein beliebiger Spaltenvektor ist darstellbar als eine Linearkombination der festgelegten Spaltenvektoren. 2.5 Basis, Koordinaten Denition 2.5.1 Rn , Die Familie von Vektoren x1 , . . . , xk bildet eine Basis von falls sie linear unabhängig und gleichzeitig ein Erzeugendensystem ist. Die Vektoren Satz 2.5.1 Satz 2.5.2 x1 , . . . , xk in der Denition nennt man Basisvektoren. Jede Basis von Rn besteht aus n Vektoren. Es sei x1 , . . . , xn ∈ Rn . 17 Sind x1 , . . . , xn linear unabhängig, so bilden sie eine Basis von Rn . • Bilden x1 , . . . , xn ein Erzeugendensystem, so bilden sie eine Basis von Rn . Satz 2.5.3 Bilden die Spaltenvektoren x1 , . . . , xn eine Basis von Rn , so läÿt sich ein jeder Spaltenvektor x ∈ Rn eindeutig als eine Linearkombination der Basisvektoren darstellen. • Beweis.Siehe ung. Skript... Denition 2.5.2 biger Vektor. Die x1 , . . . , xn Basisvektoren in Rn und x ∈ Rn ein belieKoezienten α1 , . . . , αn , die in der eindeutigen Darstellung Seien x = α1 x1 + · · · + αn xn als Linearkombination aus der Basis auftreten, nennt man die Koordinaten des Vektors bezüglich der Basis x1 , . . . , xn . 2.6 Basistransformation Der Übergang von einer gegebenen Basis zu einer neuen Basis heiÿt Basistransformation (Basiswechsel). Die neue Basis muss sich wenigstens um einen Vektor von der alten Basis unterscheiden. Dadurch ändern sich im Allgemeinen die Koordinaten der Vektoren. Die elementare Basistransformation ist ein tabellarisches Rechenverfahren. Bilden die Spaltenvektoren eine Basis von Rn und seien die Vektoren a ∈ Rn und x ∈ Rn in dieser Basis als Linearkombination dargestellt: Satz 2.6.1 (Elementare Basistransformation) b1 , . . . , bi , . . . , bn a = α1 b1 + · · · + αi bi + · · · + αn bn , x = β1 b1 + · · · + βi bi + · · · + βn bn . Ist αi 6= 0, so bilden die Vektoren b1 , . .β. , bi−1 , a, bi+1 , . . . , bn ebenfalls eine Basis. Benutzt man die Bezeichnung δ = α , so ist in dieser Basis i i x = (β1 −δα1 )b1 +· · ·+(βi−1 −δαi−1 )bi−1 +δa+(βi+1 −δαi+1 )bi+1 +· · ·+(βn −δαn )bn . Beweis.Siehe ung. Skript... Bei der Durchführung einer elementaren Basistransformation wird also ein geeigneter Basisvektor bi durch einen anderen Vektor Schritt wird ein Zentralelement (z -Element) einzutauschenden Vektors z -Element a αi 6= 0 a austauscht. Im ersten aus den Koordinaten des bestimmt. (Die Spalte bzw. die Zeile, in der das steht, wird üblicherweise Austauschspalte bzw. Austauschzeile ge- nannt.) Beim Tausch werden die älten"Koordinaten eines beliebigen anderen Vektors x nach der Formel des Satzes verändert. 18 2.7 Rang von Matrizen Der Rang der Menge einer endlichen Anzahl von Vektoren ist deniert als die maximale Anzahl der linear unabhängigen Vektoren in der Vektormenge. Denition 2.7.1 Der Rang r(A) einer Matrix A ∈ Rk×n gleicht dem Rang der Menge ihrer Spaltenvektoren. 2.8 Lineare Gleichungsysteme aij Seien die reellen Zahlen a11 x1 a21 x1 + + und bi , (i = 1, . . . , k , j = 1, . . . , n) a12 x2 a22 x2 + ... + ... + + a1n xn a2n xn = = b1 b2 . . . ak1 x1 + ak2 x2 + ... + akn xn gegeben. = bk x1 , x2 , . . . , xn sind die Unbekannten (oder Variablen). Die Zahlen aij , bi , (i = 1, . . . , k , j = 1, . . . , n) nennt man Koezienten. Wenn man für die Unbekannten x1 , x2 , . . . , xn die reellen Zahlen t1 , t2 , . . . , tn einsetzt und man k Gleichungen bekommt, dann nennt man heiÿt lineares Gleichungssystem. { x1 = t1 , x2 = t2 , . . . , xn = tn } eine Lösung des Gleichungssystems. Führt man die Spaltenvektoren a11 a12 a21 a22 a1 = . , a2 = . .. .. ak1 ak2 a1n b1 a2n b2 , . . . , an = .. , b = .. . . akn bk ein, so nimmt das Gleichungssystem die folgende Form an: a1 x1 + a2 x2 + · · · + an xn = b. So bedeutet die Lösung eines Gleichungssystems das Finden aller Linearkombinationen der gegebenen Vektoren a1 , . . . , an , die den Vektor b ergeben. Führt man den Koezientenmatrix a11 a21 A= . .. ak1 a12 a22 ... ... . . . .. ak2 ... . a1n a2n . . . akn ein, so nimmt das Gleichungssystem die folgende Form an: Ax = b, wo > x = [x1 , x2 , . . . , xn ] der Vektor der Unbekannten ist. Die drei obigen Formen eines Gleichungssystems sind miteinander äquivalent. Ist x=0 Ist b = 0, so nennt man das Gleichungssystem homogen. Oensichtlich ist eine Lösung eines beliebigen homogenen Gleichungssystems. b 6= 0, so nennt man das Gleichungssystem inhomogen. 19 2.8.1 Lösbarkeit von linearen Gleichungsystemen Wird an die Koezientenmatrix Spalte mit der rechten Seite tenmatrix b A eines Gleichungssystems eine zusätzliche angefügt, so entsteht die erweiterte Koezien- a11 a 21 Ab = A | b = . .. ak1 a12 a22 ... ... a1n a2n . . . .. . . . ak2 ... . akn b1 b2 . bk Das lineare Gleichungssystem Ax = b ist genau dann lösbar, wenn der Rang der Koezientenmatrix A gleich dem Rang der erweiterten Koezientenmatrix Ab ist, d.h. Satz 2.8.1 r(A) = r(Ab ). 2.8.2 Anzahl der Lösungen von linearen Gleichungsystemen Sei n die Anzahl der Unbekannten des linearen Gleichungssystems . Ist das Gleichungssystem lösbar (d.h. r(A) = r(Ab )), dann hat es bei r(A) = n genau eine Lösung, also die Lösung ist eindeutig; bei r(A) < n unendlich viele Lösungen, die sich mit s = n − r(A) Stück frei wählbaren Parametern charakterisieren lassen. Satz 2.8.2 Ax = b • • 2.8.3 Beschreibung der Lösungen von linearen Gleichungssystemen Siehe ung Skript. 2.8.4 Lösungsmethoden von linearen Gleichungssystemen Lösung durch elementare Basistransformation Wir betrachten das lineare Gleichungssystem in der Form x1 a1 + x2 a2 + · · · + xn an = b, wo a1 , . . . , an , b ∈ Rk ist. Das Finden einer Lösung entspricht dem Finden einer Linearkombination der Vektoren a1 , . . . , an , die den Vektor b ergibt. Dazu ai Vektoren k Standardbasis e1 , . . . , ek von R ein. Die tauschen wir mit Hilfe der elementaren Basistransformation soviele wie nur möglich von a1 , . . . , an in die b ändern sich während des Eintauschvorgangs ständig. Koordinaten des Vektors Am Ende des Eintauschvorgangs werden die Lösungen bestimmt. Siehe ung. Skript für eine eingehendere Beschreibung. 20 Die Cramer'sche Regel Ausgangspunkt für die Cramer'sche Regel ist stets ein lineares Gleichungssystem Ax = b mit genausovielen Gleichungen wie Unbekannten, d.h. die Koezientenmatrix A ist quadratisch. Solch ein Gleichungssystem ist genau dann eindeutig lösbar, wenn die Determinante der Koezientenmatrix von Null verschieden ist. Sei Di A b der rechten Seite die Determinante derjenigen Matrix, die aus der Koezientenmatrix entsteht, indem man die i-te Spalte durch den Spaltenvektor des Gleichungssystems ersetzt. Ist D = det(A) 6= 0 für das Gleichungs, so ist es eindeutig lösbar, und die Lösung Satz 2.8.3 (Cramer'sche Regel) system Ax ist = b mit A ∈ Rn×n D1 D2 Dn x1 = , x2 = , . . . , xn = . D D D 2.9 Die Inverse einer Matrix Satz 2.9.1 Die Matrix A ∈ Rn×n hat genau dann eine Inverse, wenn r(A) = n. Beweis.Siehe ung. Skript. Satz 2.9.2 Die Matrix A ∈ Rn×n ist genau dann invertierbar,wenn det(A) 6= 0. 21 Kapitel 3 Lineare Optimierung (oder: Lineare Programmierung) 3.1 Die graphische Methode Siehe ung. Skript. 3.2 Simplex-Verfahren Seien aij ∈ R, bi ∈ R, cj ∈ R (i = 1, 2, . . . , k ; j = 1, 2, . . . , n) beliebig festgelegte Zahlen. Betrachten wir das Ungleichungssystem a11 x1 a21 x1 + + a12 x2 a22 x2 + ... + ... + + a1n xn a2n xn ≤ ≤ b1 b2 . . . ak1 x1 + ak2 x2 + ... + akn xn ≤ bk , das einen endlichen Bereich (oder die leere Menge) im Vektorraum der n-dimensionalen Spaltenvektoren bestimmt. Eine kürzere Schreibweise ist Ax ≤ b, b = [b1 , b2 , . . . , bk ]> die Koezientenmatrix bzw. der Vektor > auf der rechten Seite sind. Der Vektor x = [x1 , x2 , . . . , xn ] beinhaltet die Unbekannten. Eine zulässige Lösung des Ungleichungssystems Ax ≤ b ist ein Vektor x mit nichtnegativen Einträgen, der die linearen Bedingungen (Ungleichungen) erfüllt. Das Ziel ist, unter allen zulässigen Vektoren x einen zu nden, der das wo A = [aij ] bzw. Skalarprodukt f (x) = c> x = c1 x1 + c2 x2 + · · · + cn xn maximiert, wo sätzlich b ≥ 0, > c = [c1 , . . . , cn ] ∈ Rn ein festgelegter Vektor ist. Ist noch zu- so spricht man über eine LP-Aufgabe in Normalform. 22