Aplikace matematiky Miroslav Šisler Über die Konvergenz eines gewissen Iterationsverfahrens für zyklische Matrizen Aplikace matematiky, Vol. 18 (1973), No. 2, 89--98 Persistent URL: http://dml.cz/dmlcz/103455 Terms of use: © Institute of Mathematics AS CR, 1973 Institute of Mathematics of the Academy of Sciences of the Czech Republic provides access to digitized documents strictly for personal use. Each copy of any part of this document must contain these Terms of use. This paper has been digitized, optimized for electronic delivery and stamped with digital signature within the project DML-CZ: The Czech Digital Mathematics Library http://project.dml.cz SVAZEK 18 (1973) APLIKACE MATEMATIKY ČÍSLO 2 ÜBER DIE KONVERGENZ EINES GEWISSEN ITERATIONSVERFAHRENS FÜR ZYKLISCHE MATRIZEN M I R O S L A V SISLER (Eingegangen a m 8. April 1972) Die Arbeit befasst sich mit einigen Eigenschaften eines in der Arbeit [3] unter­ suchten Iterationsverfahrens für die Lösung eines linearen Gleichungssystems Ax = b. Das Iterationsverfahren wird folgenderweise definiert: Es sei A = D — P — R eine gewisse Zerlegung der Matrix A, wo D eine verall­ gemeinerte Diagonalmatrix ist und P, R die zugehörigen verallgemeinerten Dreiecks­ matrizen sind. Die Matrix A drückt man ferner in der Form A = M — N aus, wo Ni = D — coP, N = (1 — co) P + R ist und co ein reeller Parameter ist. Die Iterations­ vorschrift für die betrachtete Methode ist von der Form (1) (D - coP) x v + 1 = [(1 - co) P + R] x v + b . Falls man L = D~lP, U = D~XR setzt, geht die Formel (1) in die Form (£ - coL) x v + 1 = [(1 -co)L+ U] x v + D~xb , über, d. h. in die F'orm (2) wo b' = D~ib (3) x v + 1 = T(co)xv + b' , und T(co) = (E - coL)~l [(1 - co)L+ ü] ist. Für co = 1 geht offensichtlich das durch die Beziehungen (2) und (3) definierte Verfahren in das übliche Gauss-Seidelsche Verfahren über; für co = 0 in das JacobiVerfahren über. Ähnlicherweise wie in der Arbeit [3] setzt man voraus, dass die Matrix ß = T(0) = = L + U einen linearen Operator darstellt, welcher den Vektorraum R in R abbildet, und dass dieser Vektorraum durch die direkte Summe der Unterräume v l 5 . . . , vm 89 gebildet wird. Ferner setzt man wieder voraus, dass die Matrizen L, U die Bedingungen (4) Lv, c v l V , , Uv * <= V£- k? i = 1, ..., m erfüllen, wo h, k positive ganze Zahlen sind, h + k = T, (P ^ m) und wo /?, k, p teilerfremd sind (dabei ist v£ = 0 für i < 1 und i > m). B e m e r k u n g 1. Wir geben jetzt ein eifaches Beispiel an, in dem die höher angeführten Bedingungen (4) erfüllt sind. Die n x n Matrix ß soll die Form Ч,k l 2,k+í л n-k+ 1 ,n *n,n-h+\ haben (mit zwei Nebendiagonalen). Es ist also ß = L + U, wo •1,* a l 2,k+ 1 U h + 1,2 l o 0 n-k+ 1 ,л Den Vektorraum R„ zerlegt man in die direkte Summe der Unterräume v 3 , ..., v,,, wo V; aus Vektoren von der Form vj = (0, ..., 0, xh 0, ..., 0) besteht. Dann gelten offensichtlich die Bedingungen (4). Die Zahlen h, k bedeuten hier die „Entfernungen" der beiden Nebendiagonalen von der Hauptdiagonale. In der Arbeit [3] wurde ein Satz bewiesen (Satz 1 der Arbeit [3]), welcher unter den höher angeführten Voraussetzungen über die Matrizen ß, JL, U den Zusammenhang der Eigenwerte X der Matrix T(co) mit den Eigenwerten \i der Matrix ß ausdrückt. Es handelt sich um die folgende Behauptung: Falls p ein Eigenwert der Matrix (5) ß ist, dann ist jede der Я" = ^"(1 -co Gleichunj + Åtûf genügende X Zahl ein Eigenwert der Matrix 7"(cd)', falls im Gegensatz co 4= 1 oder gleichzeitig co = 1 und X + 0 ist und X der Eigenwert der Matrix T(co) ist, dann ist jede der Gleichung (5) genügende Zahl \i der Eigenwert der Matrix ß . In der Arbeit [3] wurde ausführlich der wichtige Fall untersucht, wenn p = 2 und h = k = 1 ist und wenn die Matrix ß 2 nur reelle nichtnegative Eigenwerte hat. 90 Satz 4 in der Arbeit [3] gibt das Intervall für die Werte des Parameters co an, für die der Spektralradius Q(T(CO)) der Matrix T(co) kleiner als 1 ist (d. h. die Werte co, für die das untersuchte Verfahren konvergiert) und es wurde hier auch der Optimalparameter cob angegeben, für den der Wert Q(T(CO)) minimal ist. Diese Arbeit befasst sich mit einem allgemeineren Fall, wenn p ^ 2 ist. Man befasst sich mit der Frage, für welche Parameterwerte co unseres Iterationsverfahren konvergiert, d. h. wann Q(T(OJ)) < 1 ist. Im ganzen Artikel wird vorausgesetzt, dass Q(B) < 1 ist (d. h. dass das Verfahren für co = 0 konvergiert). 1. Fs sei Q(B) der Spektralradius der Matrix ß. Dann ist O(T(0)) = Q(B) und O(T(1)) = Qp/ip-k\B), sodass Q(T(1)) < O(ß) < 1 gilt. B e m e r k u n g 2. Satz 1 vergleicht also die Konvergenzgeschwindigkeit des GaussSeidelschen und des Jacobi-Verfahrens im Falle einer zyklischen Matrix ß. Das Gauss-Seidelsche Verfahren konvergiert in diesem Falle schneller als das JacobiVerfahren. Beweis. Da T(0) = ß ist, ist auch O(T(0)) = O(ß). Falls man in (5) co = 1 legt, bekommt man die Beziehung Xp = (6) fipXk. Nach Satz 1 der Arbeit [3] und aus (6) folgt sofort, dass im Falle, wenn \i ein Eigenwert der Matrix ß ist, die Nullstellen der Gleichung (6) die Eigenwerte der Matrix T(l) darstellen. Die Gleichung (6) besitzt aber die k-fache Nullstelle X = 0 und ferner sind ihre Nullstellen die (p — k)-ten Wurzeln der Zahl pP. Es ist offensichtlich O(T(1)) = QpKp~k)(B) < O(ß) = e(T(0)), wodurch der Satz 1 bewiesen ist. 2. Es sei o '(>-ü<»<;(> + C'"(B) «"'(»V 2\ 2\ Dann gilt Q(T(CO)) < 1. Beweis. Die Gleichung (5) schreibt man in der Form (8) Xp - pp £ (k\ Xk-Jtok-J(\ - co); = 0 (jip bezeichnet irgendeinen Eigenwert der Matrix ß P ). Nach der bekannten Gerschgoring-Abschätzung liegen alle Nullstellen der Gleichung (8) in dem Einheitskreise, wenn (9) |ii,^i Qn'-qi-co^i gilt. 91 a) Es sei cO > 1. Dann kann man (9) folgenderweise schreiben: H"io (k) °>k~\°> - i)y < i . Hp (°> + "> - i)* < i oder (ű < -i л i + i 2V \ßi\"kJ b) Es sei 0 < co < 1. Dann kann man (9) folgenderweise schreiben: Hp t (k) ojk~\l - <°y < { > N * (<*> + 1 - o>y < i , was für jedes CO mit 0 < co < 1 gilt. c) Es sei cO < 0. Dann bekommt man aus (9) schrittweise die Ungleichungen k N p I ( - o > ) * - j ( i - ©y < i , H p (-cO + i - LOy < 1, «,>-Yi P/ 2 V |/>.] ". d) Mit dem Fall cO = 0 und cO = 1 befasst sich der Satz 1. Aus den Fällen a), b), c) und d) bekommt man insgesamt, dass bei gegebenem Eigenwert /it der Matrix ß alle Nullstellen der Gleichung (5) in dem Einheitskreise liegen, wenn co dem Intervalle w i - ^ - ) < 2\ zugehört. Da O(ß) = max ,,k H ) ( a < 1 - ( i 2V ] + Hplk. \ßt\ ist, gilt für alle cO aus dem Intervalle (7) O(T(cO)) < \, i=l,.,.,n was wir beweisen sollten. 3. Es sei cO ^ 0. Dann gilt immer Q(T(CO)) g: O(ß). Beweis. Man beweist, dass für gegebene fit die Gleichung (5) wenigstens eine solche Nullstelle X besitzt, dass \X\ §: \fit\ ist, sodass Q(T(CO)) >. O(ß) ist. Es gelte im Gegenteil für alle Nullstellen Xs der Gleichung (5) die Ungleichung \XS\ < |/i;|. Die Gleichung (5) schreibt man in der Form X" - |i~ £ (k\ ti (aj{\ - co)k~J = 0 . 92 Das Absolutglied dieser Gleichung ist der Ausdruck — /xp(l — cof. Da 1-/4(1 - cof\ = Fl |A,| < H P s=l gilt, bekommen wir schrittweise (co < 0) \ßi\"(l -a>Y£\iit\> (1 - < » ) ' < . 1 , was ein Widerspruch ist, da 1 — co _ 1 ist. Dadurch ist der Satz 3 bewiesen. Aus den Sätzen 3 und 1 ist klar, dass der Minimalspektralradius Q(T(CO)) immer kleiner als die Zahl Q(B) ist (er ist sogar kleiner oder gleich der Zahl QpKp~k)(B)) und dass der Optimalparameter (d.h. der Parameterwert, für den Q(T(CO)) minimal ist) also nicht im Intervalle co ^ 0 liegen kann. Deshalb ist auch der negative Teil des Intervalles (7) aus Satz 2 vom Gesichtspunkte der Optimierung der Methode uninteressant. Weiter beschränken wir uns daher auf die obere Grenze des Intervalles der Werte co, für die Q(T(CO)) < 1 ist. Es gilt der folgende Satz: 4. Es sei co = 1 + l/(e p/fc (ß)). Dann gilt o(T(co)) = 1. Beweis. Man beweist, dass für co ^ 1 4- l/|//f|p/*. i = 1, ..., n die Gleichung (5) (wo \i = ixi ist) wenigstens eine solche Nullstelle X besitzt, dass |/l| — 1 gilt. Man setze im Gegenteil voraus, dass für alle Nullstellen Xs der Gleichung (5) \XS\ < 1 gilt. Die Gleichung (5) schreibt man in der Form k *•" - /<; E (k) x> ^ O - o)f-J = 0 . Das Absolutglied dieser Gleichung ist der Ausdruck — /xf(l — cof und es gilt dabei, dass i-tfo -»)f-nw<i s= 0 ist, da |/is| < 1 für alle s gilt. Man bekommt nun schrittweise (mit Rücksicht auf die Ungleichung co > 1) HP(rD-1)fc<1, „ < ! + - ] _ was aber einen Widerspruch bedeutet. Für |^ f | = O(ß) dann bekommt man die Behauptung des Satzes 4. Aus den Sätzen 2 und 4 folgt, dass für die obere Grenze Q des Intervalles der Parameterwerte co, für die Q(T(CO)) < 1 gilt, die Ungleichungen 1 / 2V i + - ^ - ^ ß < i ßp/k(B)J ~ ~ + Q"'k(B) gelten. 93 Im folgenden Satze 5 werden wir uns mit dem Fall befassen, wenn Q = = ^(1 + lJQp/k(B) ist, d. h. wenn die obere Grenze des Intervalles (7) scharf ist (der Vollständigkeithalber geben wir auch die Fälle an, für die auch die untere Grenze scharf ist). Wir werden dabei voraussetzen, dass alle Eigenwerte JXP der Matrix Bp reell sind. Dann gilt der Folgende Satz: max pFt = QP(B) (d. h. falls 5. a) Es seien p und k ungerade Zahlen. Falls 0 < i=l,...,n der im Absolutbetrag maximale Eigenwert der Matrix Bp positiv ist), hat die Matrix T(co) für co2 = i(l + l/(Op//c(ß)) den Eigenwert X = — 1 und es ist also Q(T(CO2)) ^ 1. Falls 0 > min pP = —QP(B) ist (d. h. falls der im Absolutbetrag t=l,...,n maximale Eigenwert der Matrix Bp negativ ist), hat die Matrix T(co) für co1 = = {-(l - ll(Qp/k(B)) den Eigenwert X = ~1 und es ist also Q(T(COI)) ^ 1. min pp = b) Es sei p eine ungerade und k eine gerade Zahl. Falls 0 > ~QP(B) i=l,...,n ist, hat die Matrix T(co) für co± = | ( l — lj(Qp/k(B)) und auch für co2 = = \(i + l/(Op/fc(ß)) den Eigenwert X = — 1 und es ist also O(T(cox)) ^ 1, Q(T(CO2)) ^ 1. c) Es sei p eine gerade und k eine ungerade Zahl. Falls 0 < max jip = QP(B) i= 1 ,...,n ist, hat die Matrix T(co) für co^ = ^(1 — lj(Qp/k(B)) den Eigenwert X = — 1 und es ist also Q^cOi)) ^ 1. Falls 0 > min \i\ = — QP(B) ist, hat die Matrix T(co) für i=l,...,n <£2 = 1(1 + ll(@P/k(fy) den Eigenwert X = — 1 und es ist also Q(J(CO2)) ^ 1. Beweis. Es seien p, k ungerade Zahlen, 0 < max \i\ = QP(B), CO2 = i = i ( l + \j(Qp/k(B)). Wenn man in der Gleichung Xp - QP(B) (1 - co2 + Xco2)k = 0 X = — 1 setzt, bekommt man schrittweise W -1 - Q"(B) ( \2 2Q'lk(B) —) = 0, 2 2Q"\B)) - 1 + oHB) - X - = 0, was eine gültige Beziehung ist. Ganz analogisch verläuft der Beweis auch in den übrigen Fällen. B e m e r k u n g 3. Der Fall, wenn beide Zahlen p und k gerade sind, kommt nicht in Betracht, da die Zahlen p, k, h nach Vorraussetzung teilerfremd sind. 94 B e m e r k u n g 4. Eine anschauliche Vorstellung über die reellen Nullstellen der Gleichung (5) im Falle, wenn der Eigenwert fiP der Matrix Bp reell und von Null verschrieden ist, bekommt man, wenn man die Gleichung (5) in der Form = (1 ~ CO + AC0f schreibt. Die graphische Darstellung der Funktion mt(X) = Xp\[iv ist eine Parabel p-ten Grades mit dem Scheitelpunkt im Koordinatenursprung und die graphische Darstellung der Funktion gto(A) = (1 — co + Xcof ist eine Parabel k-ten Grades, die durch den Punkt [1, 1] geht und den Scheitelpunkt im Punkte [(co — l)/co, 0] Abb. 2. Abb. 1. hat (es ist dabei (co — l)/co > 1 für co < 0, (co — l)/co < 0 für 0 < co < 1 und 0 < (co — l)/co < 1 für co > 1). Der Anstieg der Tangente der Funktion gJ(A) im Punkte [1, 1] ist dem Exponenten k gleich. Die Schnittpunkte beider Graphen der Funktionen m{ und g^ entsprechen dann den reellen Nullstellen der Gleichung (5). In Abb. 1 ist die Situation darstellt, wenn p ungerade und k gerade ist, JIP < 0 und 1 < co ist. In Abb. 2 sehen wir den Fall, wenn p gerade und k ungerade ist, \xv > 0 und 0 < co < 1 ist. Zum Schluss führen wir noch den folgenden Satz an: 6. Es sei p gerade, k = 1, 0 < max fit = O(ß) und es gelte co — 1 + P + (p — l)/O (ß). Dann liegt keiner von den Eigenwerten der Matrix T(co) im Einheitskreise. Beweis. Mit Rücksicht auf die kleinere praktische Bedeutung dieses Satzes deuten wir seinen Beweis nur kurz an. Man setze voraus, dass im Einheitskreise 95 eine Nullstelle X = x + iy existiert, wo x2 + y2 = r 2 < 1 ist. Aus (5) folgt, dass x und y die Gleichungen (8) (o) xP ~ fyxP~2y2 + (l) x P _ V " - + (" 1 ) W2 (^ P - iiptox + IIP(CO - 1) = 0 , (9) (jV-'y - ( j W v + ( j W v - ... + (--T2-1 ( ^ W"1 - jt£POJy = 0 erfüllen. Da man leicht zeigen kann, dass die Gleichung (5) im Einheitskreise keine reelle Nullstelle besitzen kann, ist y + 0 und angesichts der Beziehung y2 = r2 — x2 bekommt man nach einer Umformung und Addition der Gleichungen (8) und (9) die Gleichung -HO)—v-*•)((;)-(;)) + (10) + x"-4{r2 - x2)2(fP\ - (P\\ - ... + {-\)<>l2(r2 - x2)"'2 (P\ + n'(o> - l) = 0 und nach einer weiteren Umformung die Gleichung ^^—OTX'J-CX/.JF + /ip(co - 1) = 0 . Es ist also (12) P f(-iyxp-2ir2i2p-2ifP ~y + V\ + fip(co - 1) = 0 in Hinsicht auf die kombinatorische Beziehungen JT/^j-cm p/2-i j)J \ c-:r) 2P_2i/P-(i ("hier setzt man für i = 0 ^ 96 " _ | + i)\ 1} j J\2(i+j) í = ) = ( ' j +1 0 ) 1 ) 2 ) 3 ; *) = 0.) _ Man setze in (12) x = ur. Es genügt dann zu beweisen, dass die Gleichung (13) f ( - 1 ) - - u — 2 — ( ' - (' ;= i \ + ^ i —1 - - - f e ~ -) = 0 rp / für — 1 < u < 1 und co ^ 1 + (p — l)jjip keine reellen Nullstellen besitzt. Dazu genügt zu beweisen, dass für — 1 < u < 1 die linke Seite der Gleichung (13) negativ ist. Da aber iip(w — i)jrp > p — 1 gilt, genügt es zu beweisen, dass die linke Seite der Gleichung E(-l) 1 '- 1 up-2i 2p~2i (P ~ (* + ]A - (p - 1) = 0 (14) für — 1 < u < 1 negativ ist. In Hinsicht auf die Gültigkeit der kombinatorischen Beziehung Z(-l) 1 " 1 2"~2' (P ~ ^ + ^ = p - 1 (15) ist nun klar, dass die Gleichung (14) reelle Nullstellen u = 1 und u = — 1 hat. Wenn man die Gleichung (14) mit den Wurzelfaktor u2 — 1 < 0 dividiert, bekommt man angesichts (15) nach der Substitution z = 2u die Gleichung 2 (.«> «„- .-(- )+ ,-(2= (-*) -(-'))+ 0 . / 3 \ l / \ 2 / / - 2 - ( - ) + ... + (-.r-» ( ( / /2 V V o 4)/2 ))-. Die linke Seite dieser Gleichung ist aber positiv für alle reellen Zahlen z. Das kann man folgenderweise beweisen: Es gilt vor allem, dass f4(z) = l fp+2(z) ) = 1 > 0 ist. Ferner stellt man fest, dass ^ fp(z) ist, da man den Ausdruck fp+2(z) fp+2(z)-/p(z) = ~ fP(z) angesichts (16) in der Form - [ K P - 2 ) ]] y ( _ I ) U P - 2 - 4 0 fi(p - 2 ~ 2l)\ 2 > 0 schreiben kann (hier bezeichnet [{-(p — 2)] den ganzen Teil der Zahl {-(p — 2). Man bekommt endlich einen Widerspruch mit der Voraussetzung, dass die Gleichungen (8) und (9) im Einheitskreise eine Nullstelle besitzen. Dadurch ist der Satz 6 bewisen. 97 Literaturverzeichnis [1] Kjellberg, G.: On the successive over-relaxation method for cyclic Operators. Numerische Math., 3, 1961, 8 7 - 9 1 . [2] Varga, R. S.: Matrix Iterative Analysis. Prentice-Hall, INC, 1962. [3] Šisler, M.: Über ein Iterationsverfahren für zyklische Matrizen. Aplikace matematiky, 17, 225-233, 1972. Souhrn O KONVERGENCI JEDNÉ ITERAČNÍ METODY PRO CYKLICKÉ MATICE MIROSLAV ŠISLER V práci je zkoumána konvergence jisté iterační metody pro řešení soustavy lineár­ ních rovnic Ax = b. Iterační metoda je definována vzorcem * v + i = T(co)xv + y. Zde T(co) = (£ — OJL)'1 [(1 — OJ) L + U], b' = D~lí>, kde co značí reálný parametr, matice L, U jsou definovány vztahy L = D~lP, U = D^R a 4 = D - P - R je jistý rozklad matice A (přitom je D blokově diagonální matice, P a R jsou odpoví­ dající blokově trojúhelníkové matice). Je zřejmé, že metoda přechází pro co = 0 v Jacobiho metodu a pro co = 1 v Gauss-Seidelovu metodu. Předpokládá se, že matice B = 7(0) = L + U je lineárním operátorem zobrazujícím vektorový prostor R do R, že R je direktním součtem podprostorů v l 5 ..., vm a že matice L, U splňují podmínky Lv£ <= v i + h , Uvt a v ř _ k , i = 1, ...,m, kde //, k jsou celá kladná čísla, h + k = p, přičemž čísla h, k, p nemají netriviálního dělitele. V práci je zkoumána otázka, pro které hodnoty parametru co metoda konverguje jak v obecném případě, kdy vlastní čísla matice Bp jsou komplexní, tak i ve speciálním případě reálných vlastních čísel matice Bp, Anschrift des Verfassers: Dr. Miroslav Šisler, CSc, Matematický Žitná 25, 115 67 Praha 1. 98 ústav ČSAV v Praze,