5.6. Lineare Abhängigkeit, Basis und Dimension 5.6 119 Lineare Abhängigkeit, Basis und Dimension Seien v1 , . . . , vn Vektoren aus einem Vektorraum V über einem Körper K. Die Menge aller Linearkombinationen von v1 , . . . , vn , nämlich ( n ) X lin(v1 , . . . , vn ) := αk vk αk ∈ K k=1 bildet einen linearen Unterraum von V . Und zwar ist es der kleinste Unterraum von V , der die vorgegebenen Vektoren enthält. Man nennt ihn den von v1 , . . . , vn erzeugten Unterraum oder auch die lineare Hülle oder den Spann dieser Vektoren. Denn sind u, v ∈ lin(v1 , . . . , vn ) der Form u = α1 v1 + · · · + αn vn und v = β1 v1 + · · · + βn vn , so folgt u + v = (α1 + β1 )v1 + · · · + (αn + βn )vn und λ · u = (λα1 )v1 + · · · + (λαn )vn . Also sind auch u + v und λ · u (für alle λ ∈ K) wieder von der behaupteten Form. 5.6.1 Beispiele (a) Die eben diskutierte Gerade gv = {λv | λ ∈ R} ⊂ R2 wird von dem fest gewählten Vektor v ∈ R2 erzeugt. 1 0 (b) Die Vektoren e1 = 0 und e2 = 1 erzeugen die x-y-Ebene in R3 . 0 0 (c) Hier ist ein Beispiel einer weiteren Ebene in R3 erzeugt von zwei Vektoren: 0 −1 0 −1 E = lin 1 , 0 = α 1 + β 0 α, β ∈ R . 0 1 0 1 Also ist −β E= α α, β ∈ R . β 5.6.2 Definition Eine Menge von Vektoren {v1 , . . . , vn } ⊂ V (n ∈ N) heisst linear abhängig, falls es Zahlen α1 , . . . , αn ∈ K gibt, die nicht alle gleichzeitig Null sind, so dass gilt: α1 v1 + · · · + αn vn = 0 . Andernfalls heisst die Menge von Vektoren linear unabhängig. Eine andere Möglichkeit, den Begriff zu formulieren ist folgende: 5.6.3 Bemerkung Eine Menge, die nur aus einem Vektor v besteht, ist genau dann linear abhängig, wenn v der Nullvektor ist. Eine Menge {v, w} aus zwei Vektoren ist genau dann linear abhängig, wenn w = αv für ein α ∈ K oder wenn v = 0 ist. Und für n > 2 schliesslich gilt: die Menge {v1 , . . . , vn } ist genau dann linear abhängig, wenn sich einer der vj als Linearkombination der anderen vi (i 6= j) schreiben lässt. 120 Kapitel 5. Lineare Algebra 5.6.4 Beispiel Zwei Vektoren in R3 sind genau dann linear abhängig, wenn sie auf einer Gerade liegen. Drei Vektoren in R3 sind genau dann linear abhängig, wenn sie in einer gemeinsamen Ebene liegen. 1 i 2 Im komplexen Vektorraum C sind die Vektoren v = und w = i −1 linear abhängig, denn w = i · v. 5.6.5 Definition Eine (endliche oder unendliche) Teilmenge M eines Vektorraums V wird als Erzeugendensystem von V bezeichnet, falls sich jedes Element von V als Linearkombination einer passenden Auswahl endlich vieler Vektoren aus M schreiben lässt, das heisst ( n ) X V = lin(M) := αk vk | αk ∈ K, vk ∈ M, n ∈ N . k=1 Unter einer Basis von V versteht man eine geordnete Menge B von Elementen von V , die ein Erzeugendensystem von V bilden und zusätzlich linear unabhängig sind. (Falls B aus unendlich vielen Elementen besteht, soll das heissen, dass jede endliche Teilmenge von B linear unabhängig ist.) Eine Basis ist also ein minimal gewähltes Erzeugendensystem. 1 0 5.6.6 Beispiele (a) Die Vektoren e1 := und e2 := bilden eine Basis 0 1 des R2 . Denn sie sind linear unabhängig und spannen den ganzen Raum auf: x = x · e1 + y · e2 ∈ lin(e1 , e2 ) für alle x, y ∈ R. y Allgemeiner bezeichnet man mit ej (für 1 ≤ j ≤ n) den Vektor in Rn , der an der j-ten Stelle den Eintrag 1 und sonst nur Einträge Null hat. Diese Vektoren sind die sogenannten kanonischen Basisvektoren und (e1 , . . . , en ) ist die Standardbasis des Rn . (b) Die eben definierten Vektoren ej können wir auch als Elemente des komplexen Vektorraums Cn auffassen. Darin bilden sie wiederum eine Basis. −1 2 bilden ebenfalls eine Basis des R2 . und v2 = (c) Die Vektoren v1 = 1 1 Da v1 und v2 nicht dieselbe Gerade aufspannen, sind sie linear unabhängig. x Ausserdem spannen sie den gesamten Vektorraum auf. Denn ist v = , so y führt der Ansatz v = α1 v1 + α2 v2 auf das folgende lineare Gleichungssystem für α1 und α2 : −1 2α1 − α2 2 −1 α1 2 x = = . + α2 = α1 1 α1 + α2 1 1 α2 1 y Dies System hat die eindeutige Lösung α1 = x+y , α2 = 2y−x . Also lässt sich 3 3 2 jeder Vektor v ∈ R als Linearkombination von v1 und v2 schreiben. 5.6. Lineare Abhängigkeit, Basis und Dimension 121 (d) Sei n ∈ N fest gewählt. Die Menge der reellen Polynome von Höchstgrad n, nämlich Pn := {an xn + an−1 xn−1 + · · · + a1 x + a0 | ak ∈ R} ist ein linearer Unterraum des Vektorraums aller reellen Polynome, und (1, x, x2 , . . . , xn ) ist eine Basis für Pn . (e) Wir können die Menge der komplexen Zahlen als reellen Vektorraum auffassen, indem wir bei der Skalarmultiplikation nur die Multiplikation mit reellen Zahlen zulassen. In diesem reellen Vektorraum sind die Zahlen 1 und i linear unabhängig und bilden eine Basis für C über R. 5.6.7 Hauptsatz Wir bezeichnen den Grundkörper der Skalare, also entweder R oder C wieder mit K. Sei V ein endlich erzeugter K-Vektorraum, das heisst, es gebe eine endliche Teilmenge von Vektoren, die ganz V erzeugen. Dann hat V eine Basis und jede der Basen von V besteht aus gleichvielen Elementen. Diese Anzahl an Elementen einer jeden Basis nennen wir die Dimension von V über K. Man kann zeigen, dass auch Vektorräume, die nicht endlich erzeugt sind, immer eine Basis haben. Allerdings besteht diese Basis dann aus unendlich vielen Elementen. Der Raum der Polynome hat eine abzählbare, unendliche Basis, nämlich (xn | n ∈ N0 ). Jede Basis des Funktionenraums F ([a, b], R) besteht sogar immer aus überabzählbar vielen Elementen. Deshalb ist es schwierig, eine Basis explizit anzugeben. Der Begriff der Basis ist für solche überabzählbar-dimensionalen Räume nicht besonders praktisch. Wir werden uns jetzt im folgenden stets auf endlichdimensionale Vektorräume beschränken. 5.6.8 Beispiele Für einige Vektorräume haben wir bereits Basen angegeben. Also können wir die Dimensionen ablesen, nämlich: dim({0}) = 0, dimR (Rn ) = n, dimR (Pn ) = n + 1, (für alle n ∈ N). Der Vektorraum der reellen m × n-Matrizen hat die Dimension m · n über R. Weiter gilt dimC (Cn ) = n. Ausserdem ist die Dimension jeder Ebene im R3 gleich 2, wie es der Anschauung entspricht. Die Dimension kann davon abhängen, über welchem Grundkörper wir den Vektorraum betrachten. Zum Beispiel ist die Dimension von C, aufgefasst als komplexer Vektorraum, gleich 1. Dagegen ist Dimension von C über R gleich 2, denn wie eben bemerkt haben, bilden die Zahlen 1 und i eine Basis über R. Zum Beweis des Hauptsatzes: Die Existenz einer Basis ist nicht schwierig einzusehen. Ist nämlich M = (v1 , . . . , vn ) irgendein endliches Erzeugendensystem für V , so können wir schrittweise linear abhängige Vektoren darin streichen, bis eine Basis übrigbleibt. Genauer gehen wir so vor: Ist die Menge M linear abhängig, so gibt es darin einen Vektor, etwa vj , der bereits in der linearen Hülle der anderen Vektoren aus M enthalten ist. Also ändert sich die lineare Hülle nicht, wenn wir vj aus M streichen. Sind die verbliebenen Vektoren linear unabhängig, so sind wir fertig. Ist das noch nicht der Fall, dann wiederholen wir das Streichen von Vektoren, bis wir schliesslich bei einer Basis angelangt sind. Damit haben wir eigentlich gezeigt, dass jedes Erzeugendensystem eine Basis von V enthält. Der schwierige Teil des Hauptsatzes ist die Aussage, dass alle Basen gleich viele Elemente haben. Wir wollen dies durch einen Widerspruchsbeweis zeigen. Nehmen 122 Kapitel 5. Lineare Algebra wir also an, es gebe zwei Basen A = (v1 , . . . , vn ) und B = (w1 , . . . , wm ) und es sei n < m. Jetzt werden wir schrittweise die Vektoren in A durch Vektoren aus B ersetzen, ohne dass sich dabei jeweils die lineare Hülle ändert. Nach n Schritten werden noch Vektoren aus B übrigbleiben, die sich dann als linear abhängig von (w1 , . . . , wn ) herausstellen, und damit ist der Widerspruch erreicht. 1. Schritt: Wir schreiben w1 als Linearkombination der vj in der Form w1 = α1 v1 + · · · + αn vn . Da B linear unabhängig und daher w1 6= 0, gibt es einen Index j mit αj 6= 0. Nach eventueller Umsortierung der vj können wir annehmen, dass α1 6= 0. Dann folgt: v1 = 1 (w1 − α2 v2 − · · · − αn vn ) ∈ lin(w1 , v2 , . . . , vn ) . α1 Also erzeugt A′ := (w1 , v2 , . . . , vn ) den ganzen Vektorraum V . 2. Schritt: Jetzt schreiben wir w2 als Linearkombination von w1 und v2 , . . . , vn in der Form: w2 = β1 w1 + β2 v2 · · · + βn vn . Da w1 und w2 linear unabhängig sind, gibt es einen Index j ≥ 2 mit βj 6= 0. Nach eventueller Umnumerierung von v2 , . . . , vn können wir annehmen, dass β2 6= 0. Dann folgt: 1 v2 = (w2 − β1 w1 − β3 v3 · · · − βn vn ) ∈ lin(w1 , w2 , v3 . . . , vn ) . β2 Also erzeugt A′′ := (w1 , w2 , v3 . . . , vn ) ebenfalls den ganzen Vektorraum V . Entsprechend fahren wir fort. Nach n Schritten sind alle vj ausgetauscht, und es folgt, dass die Menge A(n) = (w1 , . . . , wn ) wiederum den ganzen Vektorraum V erzeugt. Das bedeutet, dass die noch verbleibenden Vektoren wn+1 , . . . , wm aus der Basis B als Linearkombinationen der Vektoren (w1 , . . . , wn ) geschrieben werden können. Das ist aber ein Widerspruch zur linearen Unabhängigkeit von B. q.e.d. 5.6.9 Folgerung (a) Jede linear unabhängige Teilmenge eines endlich erzeugten Vektorraums kann zu einer Basis ergänzt werden. (b) Ist dim V = n, so bildet jede Teilmenge aus n linear unabhängigen Vektoren eine Basis. (c) Ist W ein linearer Unterraum eines endlichdimensionalen Vektorraums V , so ist auch W endlich erzeugt und es gilt dim W ≤ dim V . Gleichheit tritt nur genau dann ein, wenn W = V ist. 5.6. Lineare Abhängigkeit, Basis und Dimension 123 Beweis. (a) Sei B die linear unabhängige Teilmenge und A eine Basis von V . Dann können wir, wie im Beweis des Hauptsatzes gezeigt, in der Basis A schrittweise Elemente durch Vektoren aus B ersetzen, ohne dabei die lineare Hülle zu ändern. Sind alle Vektoren aus B eingefügt, erhalten wir die gewünschte Basis, die B enthält. (b) Dies ergibt sich direkt aus (a). (c) Ist dim V = n, so besteht in V und damit auch in W jede linear unabhängige Teilmenge aus höchstens n Elementen. Eine maximale linear unabhängige Teilmenge von W muss aber bereits ein Erzeugendensystem für W sein. Also hat W eine Basis, die wir nach (a) zu einer Basis von V ergänzen können. Daraus folgt die Behauptung. q.e.d. Wenden wir diese Folgerungen nun auf Lösungsmengen homogener Gleichungssysteme an. Sei A eine m × n-Matrix mit Einträgen im Körper K (K = R oder K = C) und sei L := {x ∈ Kn | Ax = 0}. Dann ist L ein linearer Unterraum von Kn und daher gilt dim(L) ≤ n. Die Dimension von L gibt an, wieviele freie Parameter in der allgemeinen Lösung auftreten, und ist unabhängig davon, welche Beschreibung der Lösungsmenge man gewählt hat. Das bedeutet auch, dass der Rang der Matrix A wohldefiniert ist. Wir können nämlich festsetzen Rang(A) = n − dim L. 2x + y − z = 0 hat die Lösungs5.6.10 Beispiele (1) Das Gleichungssystem 3x − y = 0 α menge L = 3α α ∈ R . Diese Menge wird erzeugt von dem Vektor 5α 1 3 ∈ R3 . Also ist hier dimR L = 1 und Rang(A) = 2. 5 2x + y − z = 0 hat die Lösungsmenge (2) Das Gleichungssystem −4x − 2y + 2z = 0 α L= β α, β ∈ R. In diesem Fall gilt dimR L = 2 und Rang(A) = 2α + β 1 0 1, die Vektoren v = 0 und w = 1 bilden eine Basis von L. 2 1 (3) Hier ein Gleichungssystem mit komplexen Koeffizienten: 2x + iy − z = 0 ix − y + 2z = 0 (1 − 2i)α Die Lösungsmenge in C3 ist L = (4 + i)α α ∈ C und wird erzeugt α 1 − 2i von dem Spaltenvektor 4 + i . Also gilt hier dimC L = 1. 1 124 Kapitel 5. Lineare Algebra Hier ist noch eine andere Art, den Rang einer Matrix zu interpretieren: 5.6.11 Bemerkung Sei A eine m × n-Matrix, und fassen wir die Zeilen von A als Vektoren in Rn auf, die darin den Unterraum U erzeugen. Dann ist dim(U) = Rang(A). Beweis. Bei den elementaren Zeilenumformungen, die man macht, um die Matrix A auf Zeilenstufenform zu bringen, bleibt die lineare Hülle der Zeilen jeweils unverändert. Ist aber A in Zeilenstufenform, dann tragen die Nullzeilen nichts zur linearen Hülle bei, und die insgesamt r Nichtnullzeilen erzeugen offenbar einen linearen Unterraum der Dimension r. q.e.d. 2 3 4 5.6.12 Beispiel Die Matrix A = 0 1 −2 hat den Rang 2, denn die ent4 7 6 sprechende Zeilenstufenform enthält genau eineNullzeile. Die Zeilen der Matrix A, 2 0 4 aufgefasst als Vektoren u = 3 , v = 1 , w = 7 , erzeugen in R3 eine 4 −2 6 Ebene, denn der Vektor w = 2u + v ist von u, v linear abhängig. Daraus ergibt sich für quadratische Matrizen die folgende Beobachtung: 5.6.13 Folgerung Eine n × n-Matrix A hat genau dann den Rang n, wenn die Zeilen von A, aufgefasst als Vektoren in Rn , linear unabhängig sind. Dies ist auch äquivalent dazu, dass die Spalten von A, aufgefasst als Vektoren im Rn , linear unabhängig sind. Beweis. Wie eben bemerkt, ist der Rang von A genau dann gleich n, wenn die Zeilen bereits den ganzen Rn aufspannen, also eine Basis des Rn bilden. Ein Satz aus n Vektoren in Rn ist aber genau dann eine Basis, wenn die n Vektoren linear unabhängig sind. Nun haben wir bereits früher gesehen, dass der Rang von A genau dann gleich n ist, wenn die Determinante von A nicht verschwindet. Ausserdem stimmt die Determinante von A mit der Determinante der transponierten Matrix At , bei die Zeilen als Spalten geschrieben werden, überein. Deshalb gilt auch die entsprechende Aussage über die Spalten von A. q.e.d. Man kann also mithilfe der Determinante feststellen, ob ein vorgelegter Satz aus n Vektoren im Rn linear unabhängig ist und damit eine Basis bildet. 5.6.14 Beispiel Die Vektoren 1 3 −1 u = 2 , v = −2 , w = 0 −1 4 −3 bilden eine Basis des Raumes R3 , denn die Determinante der aus diesen drei Spalten gebildeten Matrix A ist det(A) = 18. 5.7. Exkurs: Stochastische Matrizen 5.7 125 Exkurs: Stochastische Matrizen Nehmen wir an, wir beobachten ein System, das eine endliche Anzahl n von Zuständen annehmen kann und im Lauf der Zeit unter dem Einfluss von Zufall seinen Zustand ändert. Man spricht dann von einem stochastischen Vorgang oder auch einem Markov-Prozess. Unter der Übergangsmatrix dieses Vorgangs versteht man die Matrix A = (pij ) , wobei pij die Wahrscheinlichkeit dafür angibt, dass das System vom Zustand i in den Zustand j wechselt. 5.7.1 Beispiel Die Entwicklung des Wetters unterliegt zu einem gewissen Grad dem Zufall, und die Veränderung von heute auf morgen lässt sich als stochastischer Vorgang auffassen. Wenn wir drei Zustände unterscheiden, nämlich (1) sonnig, (2) bewölkt, und (3) regnerisch, dann ist die Übergangsmatrix eine 3 × 3-Matrix. Der Eintrag p11 gibt die Wahrscheinlichkeit dafür an, dass es sonnig bleibt, der Eintrag p12 gibt die Wahrscheinlichkeit dafür an, dass die Sonne hinter Wolken verschwindet, usw. Die Übergangsmatrix eines stochastischen Prozesses enthält nur Einträge, die zwischen 0 und 1 liegen, weil es sich dabei um Wahrscheinlichkeiten handelt. Ausserdem addieren sich die Einträge jeder Zeile zu 1. Denn die Einträge in der Zeile mit der Nummer i sind jeweils die Wahrscheinlichkeiten dafür, dass der Zustand i in einen der Zustände 1, 2, . . . , n übergeht. Also ist pi1 + pi2 + . . . + pin = 1 für alle i. Diese Beobachtung führt zum folgenden Begriff. 5.7.2 Definition Eine quadratische Matrix A = (aij ) vom Typ n × n heisst stochastisch, wenn sämtliche Einträge grösser oder gleich Null sind und für alle i gilt: P n j=1 aij = 1. Die Matrix A heisst doppelt stochastisch, wenn zusätzlich auch alle Spaltensummen gleich 1 sind. 8 1 1 1 Zum Beispiel ist die Matrix A = 10 2 5 3 stochastisch. 3 5 2 5.7.3 Satz 1. Sind A, B Übergangsmatrizen zweier stochastischer Vorgänge im System S, so ist AB die Übergangsmatrix des zusammengesetzten Vorgangs. 2. Sind A, B stochastische n × n-Matrizen, so ist auch das Produkt AB eine stochastische Matrix. Beweis. Nehmen wir an, der erste Vorgang wird durch die Matrix A = (aij ) und der zweite Vorgang durch die Matrix B = (bij ) beschrieben. Ein Wechsel vom Zustand i in zwei Schritten in den Zustand j kann auf n verschiedene Arten erfolgen, nämlich von i nach 1 und dann nach j, oder von i nach 2 und dann nach j usw. Die Wahrscheinlichkeit für den Wechsel von i via k nach j beträgt aik bkj . Summiert man all diese Wahrscheinlichkeiten auf, erhält man die Wahrscheinlichkeit cij dafür, dass in 126 Kapitel 5. Lineare Algebra P zwei Schritten ein Wechsel von i nach j stattfindet, das heisst: cij = nk=1 aik bkj . Die Übergangsmatrix C = (cij ) des zusammengesetzten Vorgangs stimmt also überein mit dem Produkt der Matrizen AB. q.e.d. Nehmen wir jetzt an, die Wahrscheinlichkeiten für die Zustandsänderungen seien zeitlich stabil und wir beobachten einen Vorgang in k Schritten. Die entsprechende Übergangsmatrix ist dann gerade die k-te Potenz der stochastischen Matrix A des Einzelvorgangs. Der Grenzwert limk→∞ Ak beschreibt also (wenn er existiert) die Entwicklung des Prozesses, wenn man die Zeit t gegen unendlich gehen lässt. 5.7.4 Beispiel Nehmen wir an, eine Nachricht der Form ”ja” oder ”nein” werde durch einen Kurier weitergegeben, aber nicht hundertprozentig zuverlässig. Mit Wahrscheinlichkeit p werde die Nachricht ”ja” in ein ”nein” verfälscht, und mit Wahrscheinlichkeit q werde die Nachricht ”nein” in ein ”ja”verfälscht. Dann lautet 1−p p die Übergangsmatrix der Nachrichtenübermittlung: A = . Dabei q 1−q sind 0 < p, q < 1. Hier gilt: q p k p+q p+q lim A = . p q k→∞ p+q p+q Also ist die Wahrscheinlichkeit dafür, dass nach einer sehr langen Kette von Inq formanten schliesslich ein ”ja” übermittelt wird, gleich p+q , und zwar unabhängig davon, um welche Nachricht es sich ursprünglich handelte. Ist p = q, so erhalten wir 1 1 k lim A = 21 12 . k→∞ 2 2 Das bedeutet also, dass schliesslich nach Weitergabe durch viele Zwischenkuriere die Chance auf eine korrekte Übermittlung der Ausgangsnachricht noch 50% beträgt. Für dies und auch für das folgende Beispiel ist es nützlich zu wissen, dass unter bestimmten Voraussetzungen auch für Matrizen ein binomischer Lehrsatz gilt. 5.7.5 Satz Sind A, B quadratische Matrizen vom Typ n×n derart, dass AB = BA, dann ist für alle n ∈ N n X n k n−k n A B . (A + B) = k k=0 Dabei ist nach Definition A0 = E = B 0 . Beweis. Durch vollständige Induktion ganz ähnlich wie im Fall von Zahlen. Allerdings ist hier entscheidend, dass A und B miteinander kommutieren. Wenn das nicht der Fall ist, stimmt auch die binomische Formel nicht. q.e.d. 5.7. Exkurs: Stochastische Matrizen 127 5.7.6 Beispiel Nehmen wir jetzt an, ein Versuchstier werde mit n Türen konfrontiert, hinter denen sich jeweils Futter befindet. Bei jeder Fütterung hat das Tier die Möglichkeit, eine der Türen auszuwählen. Das Tier habe nur ein kurzes Gedächtnis und wähle mit Wahrscheinlichkeit a dieselbe Tür wie bei der vorigen Fütterung und 1−a mit Wahrscheinlichkeit b = n−1 jeweils irgendeine der anderen Türen. Dann lautet a b ... b b a ... b . Dabei sind 0 < a < 1 und die n × n-Übergangsmatrix dazu: A = .. ... . b b ... a a + (n − 1)b = 1. Hier gilt: 1 1 . . . n1 n n . . . n1 n1 k . lim A = . .. .. k→∞ . 1 n 1 n ... 1 n Beweis. Wir bezeichnen mit F diejenige n × n-Matrix, deren sämtliche Einträge gleich 1 sind. Dann ist nach dem binomischen Lehrsatz (weil EF = F E): k X k (a − b)k−j bj F j . A = ((a − b)E + bF ) = j j=0 k k Durch vollständige Induktion kann man ausserdem zeigen: F j = nj−1 F für alle j ∈ N. Also folgt k 1 X k k k (a − b)k−j bj nj )F = A = (a − b) E + ( n j=1 j 1 1 1 ((a − b + nb)k − (a − b)k )F = (a − b)k (E − F ) + F . n n n 1 k k q.e.d. Weil |a − b| < 1, ist limk→∞ (a − b) = 0, und daher limk→∞ A = n F . (a − b)k E + Auf lange Sicht wird also jede Tür mit derselben Wahrscheinlichkeit ausgewählt. 5.7.7 Beispiel Hier ist ein einfaches Modell eines Waldbestandes. Nehmen wir an, der Wald bestehe aus drei Baumarten, die alle etwa die gleiche Lebensdauer haben. Die Erneuerung des Waldes durch das Nachwachsen einer neuen Generation sei der stochastische Vorgang, den wir beschreiben wollen. Der Eintrag pij der Übergangsmatrix P gebe an, mit welcher Wahrscheinlichkeit die Baumart i durch Baumart j ersetzt wird. Wir gehen wieder davon aus, dass diese Übergangswahrscheinlichkeiten sich nicht ändern. Ausserdem halten wir in einem Zeilenvektor (ak , bk , ck ) fest, welchen prozentualen Anteil am Gesamtbestand die drei Baumarten in der k-ten Generation haben. Multipliziert man diesen Zeilenvektor von rechts mit der Übergangsmatrix, erhält man die prozentualen Anteile der Baumarten in der (k + 1)-ten Generation: (ak+1 , bk+1 , ck+1) = (ak , bk , ck )P . 128 Kapitel 5. Lineare Algebra Denn das Produkt des Zeilenvektors mit der ersten Spalte von P lautet ak p11 + bk p21 + ck p31 . Die hier vorkommenden Einträge von P geben Wahrscheinlichkeiten dafür an, dass jeweils der erste Baumtyp nachwächst. Wenn wir nun annehmen, dass sich der Bestand anteilsmässig genau so entwickelt, wie es die Wahrscheinlichkeiten vorhersagen, dann ist ak p11 + bk p21 + ck p31 = ak+1 . Entsprechendes können wir über das Produkt mit der zweiten und dritten Spalte von P sagen. Durch Iteration erhalten wir schliesslich: (ak , bk , ck ) = (a0 , b0 , c0 )P k für alle k. . Wir stellen nun die Frage, ob es eine Verteilung (a0 , b0 , c0 ) gibt, die über die Generationen hinweg stabil bleibt. Gesucht ist also ein Vektor (x, y, z) (mit x, y, z > 0 und x + y + z = 1), so dass (x, y, z)P = (x, y, z). Um einen solchen Vektor zu finden (wenn er denn existiert), ist ein lineares Gleichungssystem zu lösen. Ist etwa 1 4 5 1 1 konkret P = 10 3 3 4 , so ist 157 (35, 71, 51) ein solcher stabiler Vektor. Das 2 7 1 bedeutet also, dass in dem entsprechenden Wald eine Aufteilung der Baumarten in circa (22,3%,45,2%,32,5%) ein stabiles Ökosystem darstellt.