, 22 min read
Prädiktor-Korrektor-Verfahren und Verallgemeinerungen
- 1. Pädiktor-Korrektor-Verfahren und lineare Differenzengleichungen
- 2. Newton Iteration und Prädiktor-Korrektor-Verfahren
- 3. Gegenüberstellung von $\beta_\kappa/\alpha_\kappa$ für 3 Verfahren
- 4. Anzahl der Newton Iterationen und Konsistenzordnung
Implizite lineare Mehrschrittverfahren benötigen zur Lösung der dabei auftretenden Gleichungssysteme ein Iterationsverfahren. Dies ist entweder die Picard Iteration oder eine der vielen Spielarten der Newton Iteration. Die erste Iterationsart ist leicht zu programmieren und erfordert wenig zusätzlichen Aufwand, ist aber nicht für steife Differentialgleichungen geeignet, da andernfalls hier eine erhebliche Einschränkung der Schrittweite in Kauf zu nehmen wäre. Bei dem Newton Iterationsverfahren liegen die Verhältnisse umgekehrt. Die Schrittweite muß aus Konvergenzgründen des Iterationsverfahrens i.d.R. nicht notwendig stark reduziert werden, allerdings ist der programmiermässige und rechenzeitmässige Aufwand höher. Der Startwert für die Iteration, entweder Picard- oder Newton Iteration, wird häufig durch ein explizites Verfahren geliefert, dem sogenannten Prädiktor. Vorgeschlagen wird auch (insbesondere bei Benutzung einer der zahlreichen Varianten der Newton Iteration) den zuletzt akzeptierten Näherungswert für die Integration, als Startwert für die Iteration zu verwenden. Gelegentlich wird nur dann von Prädiktor-Korrektor-Verfahren gesprochen, wenn mit Hilfe des Picardschen Iterationsverfahren iteriert wird. Im Zusammenhang wird allerdings stets deutlich, welche Iterationsart nun gemeint ist. Hier wird, wie vielerorts üblich, keinerlei Unterschied in der Benennung vorgenommen.
Im ersten Abschnitt wird die Schreibweise von Prädiktor-Korrektor-Verfahren behandelt. Es zeigt sich hierbei, daß es unter gewissen Umständen günstiger ist, die Implizitheit der Korrektorformeln zu beseitigen und somit zu einer expliziten Darstellung der berechneten Näherungslösungen der Differentialgleichungen zu kommen. Anschliessend werden die bei der Picard Iteration wichtigen Konstanten $\gamma$ von mehreren Verfahren einander gegenübergestellt. Verglichen werden hier die BDF, Adams-Verfahren und die zyklischen Formeln von Tendler. Schließlich wird der Startfehler-Satz von Liniger formuliert und bewiesen. Dieser Satz verallgemeinert einen bekannten Satz über Prädiktor-Korrektor-Verfahren, wenn nur die Picard Iteration zur Anwendung gelangt, auf den entsprechenden Satz, wenn die Newton-Raphson Iteration und die Newton-Kantorovich Iteration benutzt wird. Es zeigt sich hierbei, daß bei Picard Iteration, Newton Iteration und Newton-Kantorovich Iteration eine einzige Iteration vollkommen ausreicht um die Konsistenzordnung des Korrektors zu bewahren, wenn sich die Konsistenzordnungen von Prädiktor und Korrektor nur um eine Ordnung unterscheiden. Hiermit wird dann eine sehr gängige Rechenpraxis theoretisch abgesichert.
1. Pädiktor-Korrektor-Verfahren und lineare Differenzengleichungen
1. Bei fester Iterationsanzahl $i$ lassen sich Prädiktor-Korrektor-Verfahren als lineare Differenzengleichungen betrachten und analysieren. Stellt man das resultierende Gesamtverfahren in der Form dar
so wird folgendes deutlich:
- Die Konvergenzvoraussetzung $\mathopen|h\gamma J\mathclose| < 1$ wird zu einer Stabilitätsbedingung;
- Es genügt ein Programm, welches bei gegebenen Matrizen $A_i$ und $B_i$, den Widlund-Winkel und weitere für die Stabilität wichtige Eigenschaften berechnet;
- Die Berechnung des charakteristischen Polynoms mit Hilfe eines Formelmanipulationssystems, wie z.B. REDUCE, siehe Anthony C. Hearn + Rainer Schöpf (2025), wird vereinheitlicht, obwohl natürlich dieses Polynom wegen (2), von geringerem Interesse für sich alleine ist.
2. Für das implizite Euler-Verfahren $y_{n+1}=y_n+hf_{n+1}$ als Korrektor und dem expliziten Euler-Verfahren $y_{n+1}=y_n+hf_n$ als Prädiktor ergibt sich für das $P(EC)^iE$-Verfahren
Mit den Vektoren
ergeben sich für die Matrizen $A_0$, $A_1$, $B_0$ und $B_1$ die Einträge
3. Zum Beispiel erhält man für das $P(EC)(EC)E$-Verfahren mit den beiden Euler-Formeln das dreistufigen Verfahren
und mit den Vektoren
ergeben sich die Matrizen $A_0$, $A_1$, $B_0$ und $B_1$ wie folgt
4. Für das $P(EC)^i$-Verfahren, also Auslassung der letzten Funktionsauswertung und Benutzung des zuletzt verfügbaren Funktionswertes im neuen zusammengesetzten Verfahren, ergibt sich ganz analog
Mit der Schreibweise der Vektoren $z_{n+1}$, $z_n$, $F_{n+1}$ und $F_n$ wie oben, also
bleiben natürlich die Matrizen $A_0$ und $A_1$ unverändert. Lediglich $B_0$ verändert sich und es ergibt sich
5. Konkret für das $P(EC)(EC)$-Verfahren mit den beiden Euler-Formeln erhält man
Mit den üblichen Vektoren
ergeben sich dann die Matrizen $A_0$, $A_1$, $B_0$ und $B_1$ zu
wobei sich selbstverständlich nur die Matrix $B_0$ geändert hat.
6. Die Verallgemeinerung auf mehrstufige Verfahren, bei denen in jeder Stufe eine feste Anzahl an Korrektoriterationen durchgeführt werden, ist nun offensichtlich. Es ist genauso möglich implizite Runge-Kutta Verfahren oder blockimplizite Verfahren mitzubehandeln, wenn die nichtlinearen Gleichungen mit einer festen Anzahl an Iterationen gelöst werden.
Als Beispiel werde das folgende blockimplizite Verfahren behandelt. Der Einfachheit werde lediglich die explizite Euler-Formel als Verfahren zur Besorgung einer Anfangsnäherung benutzt. Man erhält dann
Der Prinzipientreue wegen, wurde in der obigen vierten Stufe $f_{2n+1}^0$ verwendet, ebenso gut wäre es möglich gewesen in diesem Falle schon gleich den Wert $f_{2n+1}^1$ zu benutzen, der ja anschliessend ehedem berechnet werden muß und zwar auf jeden Fall bei $y_{2n+1}^1$. Gleiches gilt für $f_{2n+1}^1$ in der letzten Stufe.
7. Die Annahme, daß die Anzahl der Iterationen schon gleich zu Anfang der Integration festliegt, tritt sehr häufig auf. Beispielsweise verwendet das Programm DE/STEP von Shampine/Gordon (1984) stets den $PECE$-Modus. In dem Programm TENDLER kann der Benutzer frei wählen, welchen Iterationsmodus er wünscht.
Lawrence F. Shampine, Marilyn K. Gordon.
Ihm steht es hier frei, gleich zu Anfang der Integration die Anzahl der
Iterationen zu fixieren, oder aber diese Entscheidung dem Programm selber
zu überlassen.
Im letzteren Falle werden die Anzahl der Iterationen adaptiv aufgrund eines
Konvergenzkriteriums festgelegt.
Dieser Entscheidungsspielraum gilt hier sogar gleichermaßen für die
Newton-Kantorovich Iteration als auch für die Picard Iteration.
Natürlich kann auch nachträglich zu jeder Zeit die Iterationsart vom
Benutzer beliebig geändert werden.
Anwendung findet dies, wenn man zuerst die einem völlig unbekannte
Differentialgleichung mit der sichersten Einstellung (i.d.R. mnifloat)
numerisch löst.
Weiß man dann anschliessend aufgrund der generierten Statistiken wesentlich
mehr über die Art der Differentialgleichung, so wählt man anschliessend
den besonders günstigen Modus von vorneherein aus.
In diesem zweiten Lauf kann man auch die Genauigkeitsanforderung
unter Umständen wesentlich restriktiver setzen und erhält dann dennoch bei
gleichen Rechenzeiten ein genaueres Resultat.
Aber selbstverständlich ist es viel bequemer alle diese Entscheidungen dem
Programm TENDLER selbst zu überlassen.
2. Newton Iteration und Prädiktor-Korrektor-Verfahren
1. Prädiktor-Korrektor-Verfahren, bei denen die Auflösung der Implizitheit durch das Newton-Verfahren geschieht, lassen sich ebenfalls als zusammengesetzte lineare Mehrschrittverfahren schreiben und zwar in gänzlich analoger Form wie schon geschehen. Markantester Unterschied ist nun lediglich, daß die Koeffizienten des Verfahrens Matrizen sind, anstatt Skalare, wie sonst.
Das resultierende Matrixpolynom ist letztlich ein Matrixpolynom mit Koeffizienten, die jeweils Blockmatrizen sind. Dies ist nicht gänzlich überraschend, da dies auch der Fall ist, wenn man die Dimension der Differentialgleichung mit in der Schreibweise berücksichtigt. Anders ist nun jedoch, daß nicht jede Komponente gleich behandelt wird. Analoges gilt bei ROW-Verfahren und bei Verfahren mit Ableitungen.
2. Jeder Iterationsschritt mit dem Newton-Verfahren, bzw. mit einer Variante dieses Iterationsverfahrens, ist von der Form:
wegen $z^\nu=hf(y^\nu)$. Nur nebenläufig sei daran erinnert, daß das Verfahren nur so zu Untersuchungszwecken geschrieben wird, programmiert wird es in dieser Gestalt selbstverständlich nicht.
3. In dem Programm TENDLER sind alle Stufen des Verfahrens zweiter Ordnung, nichts anderes als die BDF2 und es wird die explizite Mittelpunktsregel als Prädiktorformel benutzt. Ausführlich ausgeschrieben lautet ein Newton-Kantorovich-$P(EC)(EC)$-Verfahren mithin:
Würde man mit dem Picardschen Iterationsverfahren rechnen, so hätte man wie üblich lediglich $W=I$ zu setzen. Beim $P(EC)(EC)E$-Verfahren hätte man in der ersten Zeile statt $z^1_n$ einfach $z^2_n=z_n$ zu schreiben.
Schreibt man dann das $P(EC)(EC)$-Verfahren als Matrix-Differenzengleichung, so erhält man %für $y^\nu_i$ dann die Matrixdifferenzengleichung
mit den Matrizen $A_0$, $A_1$, $A_2$ und $B_0$, $B_1$, $B_2$ wie folgend \begingroup
und
Die Matrizen $A_0,A_1,A_2,B_2$ hängen von $W$ ab. Es handelt sich in diesem Sinne nicht mehr notwendig um eine Differenzengleichung mit konstanten Koeffizienten.
4. Allgemeiner gilt für die letzten beiden Matrizen $A_\kappa$ und $B_\kappa$ bei einem $P(EC)(EC)$-Verfahren die Darstellung
an der man natürlich auch den allgemeineren Falle, sofort abliest.
3. Gegenüberstellung von $\beta_\kappa/\alpha_\kappa$ für 3 Verfahren
Es folgt eine Gegenüberstellung der Werte $\gamma={\beta_\kappa/\alpha_\kappa}$ für die drei linearen Verfahren Adams-Moulton, BDF und Tendler.
Für das zyklische Verfahren wird dabei der größte Wert $\gamma$ innerhalb des Zykluses angegeben, da dieser ja maßgeblich die Konvergenz der Picard Iteration bestimmt. Dennoch unterscheiden sich bei den Formeln von Joel Marvin Tendler die Werte $\gamma$ innerhalb eines Zykluses nicht angebenswert.
Für die Adams-Moulton-Verfahren ist
mit
Jedes Adams-Moulton-Verfahren ist ein $k$-Schrittverfahren, jedoch der Konvergenzordnung $p=k+1$, außer bei dem impliziten Euler-Verfahren, welches man i.d.R. auch unter den Adams-Moulton-Verfahren untergeordnet findet, welches jedoch als Einschrittverfahren (wie die Trapezregel) nicht die Konvergenzordnung $1+1=2$ hat.
4. Anzahl der Newton Iterationen und Konsistenzordnung
1. Bei Picard-Prädiktor-Korrektor-Verfahren benutzt man das Picardsche Iterationsverfahren zur Lösung der dabei anfallenden Gleichungen. Es zeigt sich dabei, daß die Konsistenzordnung $p_{\max}$ und damit einhergehend die Konvergenzordnung der so gebildeten zusammengesetzten Verfahren, aus einmal Prädiktor als Startwert der Iteration und zum zweiten dem Korrektor, einer Schranke nach oben unterliegt und zwar
Dies gilt sowohl für das $P(EC)^i$- als auch für das $P(EC)^iE$-Verfahren. Hierbei bezeichnet $\hat p$ die Konsistenzordnung des Prädiktors und $p$ ist die Konsistenzordnung des Korrektors. Ein direkter Beweis obiger Behauptung ergäbe sich u.a. mit Hilfe der Begriffe der Totalannullation und der annullierten Dominanz.
Eine völlig analoge Aussage, anstatt für die Picard Iteration, nun für die Newton Iteration und Varianten des Newton-Verfahrens, macht der Startfehler-Satz von Liniger, Liniger (1971), Werner Liniger (1927–2017).
Der Startfehlersatz von Liniger zeigt an, wie sich Fehler in den Startwerten der Iteration ausbreiten.
Mit Newton-Raphson-Verfahren sei gemeint, daß in jedem Iterationsschritt die Iterationsmatrix neu berechnet wird.
Mit Newton-Kantorovich-Verfahren sei bezeichnet dasjenige Iterationsverfahren zur Lösung von Gleichungssystemen, bei welchem die Iterationsmatrix nur ganz zu Anfang der Iteration berechnet wird. Es sei daran erinnert, daß in dem Programm TENDLER und in vielen weiteren Programmen noch weiter gegangen wird. Die Iterationsmatrix wird nicht nur über mehrere Iterationsschritte konstant gelassen, sondern sogar über mehrere Integrationsschritte und dies selbst dann, wenn sich die Schrittweite schon mehrfach geändert hat. Die Schrittweite ist ein wichtiger Bestandteil der Iterationsmatrix. Es gilt nun jedoch der folgende sehr bedeutsame Sachverhalt.
2. Satz: (Startfehler-Satz von Liniger) Voraussetzung: Es bezeichne $i$ die Anzahl der Iterationen und $\hat p$ sei die Konsistenzordnung des Startwertes, also die des Prädiktors, und $p$ sei die Ordnung des Korrektors. Die Schrittweite $h$ sei genügend klein, wie klein, wird beim Beweis angegeben.
Behauptung: Die Konsistenzordnung $p_{\max}$ eines impliziten linearen Mehrschrittverfahrens verhält sich in Abhängigkeit der Anzahl der Iterationen und der Prädiktorkonsistenz, wie folgt:
- Für die Picard Iteration: $p_{\max}=\min(\hat p+i,p)$.
- Für die Newton-Kantorovich Iteration: $p_{\max}=\min(\hat p+(\hat p+1)i,p)$.
- Für die Newton-Raphson Iteration: $p_{\max}=\min\bigl((\hat p+1)2^i-1,p\bigr)$.
3. Dieses Ergebniss zeigt, daß falls die Ordnung des Prädiktors höchstens um eins niedriger ist als die Ordnung des Korrektors, immer eine einzige Iteration vollkommen ausreicht um die Ordnung des Korrektors zu bewahren. Bei den Newton Iterationsarten kann die Startordnung sogar erheblich unter der des Korrektors liegen. Beim Newton-Kantorovich Iterationsverfahren nimmt die Ordnung linear mit der Anzahl der Iterationen zu, und beim Newton-Raphson Iterationsverfahren nimmt die Ordnung sogar quadratisch zu. Diese Ergebnisse sind natürlich aus anderem Zusammenhang sämtlich bekannt:
- Die Picard Iteration konvergiert linear,
- das Newton-Kantorovich Iterationsverfahren konvergiert ebenfalls linear, aber asymptotisch schneller und
- das Newton-Raphson Iterationsverfahren konvergiert quadratisch und damit asymptotisch am schnellsten bei größtem Rechenaufwand im Vergleich mit den beiden anderen Verfahren.
Dies alles natürlich unter der Voraussetzung geeignet guter Startwerte für die Iteration und der eindeutigen Lösbarkeit des Gleichungssystems. Sind diese Grundvoraussetzungen nicht erfüllt, so braucht beispielsweise das Newton-Raphson Iterationsverfahren weder zu konvergieren noch gar schon quadratisch zu konvergieren. Genau zur Sicherstellung dieser Grundvoraussetzungen dient die Einschränkung an $\mathopen|h\mathclose|$.
4. Zur Vorbereitung des Beweises des obigen Satzes seien folgende Bezeichnungen und Abkürzungen zur Vereinfachung eingeführt. Zur Lösung des autonomen Differentialgleichungssystems $\dot y=f(y)$ werde verwendet das implizite lineare Mehrschrittverfahren
Wegen $\alpha_\kappa, \beta_\kappa\ne 0$ ist das (i.d.R. nichtlineare) Gleichungssystem
in jedem Zeitschritt zu lösen, mit
Das Newton-Raphson Iterationsverfahren zur Lösung von $y=\phi(y)$ lautet
mit $\phi_y=h\gamma J$, und $J=f_y$ ist die Jacobimatrix der Funktion $f$. Das Newton-Kantorovich Iterationsverfahren lautet
Schließlich die Picard Iteration lautet in der obigen Schreibweise
Bezeichnet $\varepsilon^\nu$ die Abweichung der $\nu$-ten Iterierten $y^\nu$ von der exakten Lösung $y^*$ der Gleichung $y=\phi(y)$, also
so folgt unmittelbar
Man beachte, daß $y^{*}$ die exakte Lösung der angegebenen Gleichung $y=\phi(y)$ ist und nicht notwendig auch die exakte Lösung der Differentialgleichung. Existenz und Eindeutigkeit von $y^{*}$ mit $y^*=\phi(y^{*})$ ist für genügend kleine Schrittweite $h$ stets garantiert, aufgrund des Banachschen Fixpunktsatzes, Stefan Banach (1892–1945). Dieser Sachverhalt, als auch der nachfolgende Beweis ist, wenn man so will bei dieser Art der Begründung, nicht unabhängig von der Steifheit, sondern ein asymptotisches Resultat, gilt also nur bei ausreichend kleiner Schrittweite $h$.
Zur Abkürzung seien ferner
die Abbruchordnung des Newton-Raphson Iterationsverfahrens und die Abbruchordnung des Newton-Kantorovich Iterationsverfahrens. Dabei sei die Abweichung des Startwertes $y^0$ der Iteration vom exakten Startwert $y^*$ von der Ordnung ${\cal O}(h^g)$, mit einem $g\in\mathbb{N}$.
Beweis: (Startfehlersatzes von Liniger)
Zu (1): Die Picard Iteration lässt sich durch Taylorentwicklung um $y^*$ auch schreiben zu
Wegen $y^*=\phi(y^{*})$ folgt damit
und aufgrund dieser einfachen Rekurrenzgleichung für $\varepsilon^\nu$ daher offensichtlich $\varepsilon^{\nu+1} = {\cal O}(h^{g+\nu+1})$, falls $\varepsilon^\nu = {\cal O}(h^{g+\nu})$. Wegen $\phi_y(\cdot) = {\cal O}(h)$ liefert damit jede Iteration eine $h$-Potenz mehr dazu.
Der Anfangsfehler war ja voraussetzungsmässig von der Ordnung ${\cal O}(h^g)$. Die Schrittweite $h$ muß so klein gewählt werden, daß die obige Rekurrenzgleichung für $\varepsilon^\nu$ kontrahierend ist. In einer Norm muß also gelten $\left|\phi_y(\xi)\right| < 1$.
$\underline{\phi_y(\xi)}$ bezeichnet hier die Jacobimatrix von $\phi$, allerdings wird jede Zeile an möglicherweise verschiedenen Stellen ausgewertet.
Brook Taylor (1685–1731).
Zu (3): Nach dem Satz von Taylor erhält man durch Entwickeln von $\phi$ und $\phi_y$ um $y^{*}$ [$y^* = \phi(y^{*})$] die Beziehungen
Dabei besteht jede Komponente des Vektors $\phi_{yy}(\xi)\varepsilon^\nu\varepsilon^\nu$ aus der quadratischen Form
wobei jede Komponente des Vektors eine “andere” Hessematrix $H_i(\xi_i)$ besitzt, möglicherweise ausgewertet an verschiedenen $\xi_i$, siehe Ortega/Rheinboldt (1970).
Ludwig Otto Hesse (1811–1874), Werner Carl Rheinbold (1928–2024), James McDonough Ortega (*1932).
Für $\phi_{yy}(\zeta)$ gilt entspechendes.
Natürlich ist $\phi_y=h\gamma f_y$ und $\phi_{yy}=h\gamma f_{yy}$, also beide Ausdrücke sind von der Ordnung ${\cal O}(h)$,
Nach kurzer Rechnung erhält man durch konsequentes Einsetzen der beiden Taylorentwicklungen $(T)$ in die Rechenvorschrift $(N)$ der Newton-Raphson Iteration und durch Umformung unter Benutzung von $(D)$ und $y^* = \phi(y^*)$ erhält man
Die obige eingliedrige Rekurrenzgleichung $(*)$ ist nun die Basis für den folgenden Induktionsbeweis.
Die Induktionsverankerung mit $\nu=0$: Für die nullte Iteration ist $R(0)=(g+1)2^0-1=g$. Dies stimmt mit der vorausgesetzten Ordnung des Anfangsfehlers $y^0-y^*= {\cal O}(h^g)$ überein.
Der Induktionsschluß von $\nu$ auf $\nu+1$: Es gelte nun $\varepsilon^\nu = {\cal O}(h^{R(\nu)})$ mit
Die Matrix vor $\varepsilon^{\nu+1}$ in $(*)$ ist $I+{\cal O}(h)$, wegen $\phi_y={\cal O}(h)$, $\phi_{yy}={\cal O}(h)$, $R(\nu) \ge 1$ und damit auch die Inverse dieser Matrix.
Die Invertierbarkeit lässt sich stets durch ein genügend kleines $h$ erzwingen. Für die Inverse beachte man die Neumannsche Reihe. Denkt man sich vor die rechte Seite von $(*)$ den Term $\left[I+{\cal O}(h)\right]^{-1} = \left[I+{\cal O}(h)\right]$, so erkennt man, daß maßgeblich nur $I$ ist. Damit erhält man für $\varepsilon^{\nu+1}$ die Ordnung $\varepsilon^{\nu+1}={\cal O}(h^s)$, mit
wegen der Beziehung $(*)$. Somit gilt auch $\varepsilon^{\nu+1}={\cal O}(h^{R(\nu+1)})$.
Zu (2): Wiederum durch Einsetzen der Taylorentwicklungen $(T)$ in die Iterationsvorschrift $(K)$ des Newton-Kantorovich Iterationsverfahrens und durch Benutzen von $(D)$ und $y^* = \phi(y^*)$, erhält man schließlich eine eingliedrige, implizite Rekurrenzgleichung für $\varepsilon^\nu$ zu
Diese Gleichung ist erneut die Grundlage des nachfolgenden Induktionsganges.
Induktionsverankerung mit $\nu=0$: $K(0)=g+0\cdot(g+1)=g$, was mit der vorausgesetzten Ordnung des Startwertes von $y^0-y^*={\cal O}(h^g)$ übereinstimmt.
Induktionsschluß von $\nu$ auf $\nu+1$: Es gelte nun $\varepsilon^\nu = {\cal O}(h^{K(\nu)})$ mit $K(\nu) = g + (g + 1)\nu$. Die Matrix vor $\varepsilon^{\nu+1}$ bei $(**)$ hat die Form $I+{\cal O}(h)$, weil $\phi_y(y^*) = {\cal O}(h)$, $\phi_{yy}(\zeta) = {\cal O}(h)$, $\varepsilon^0 = {\cal O}(h^g)$, $g \ge 1$ und somit auch die Inverse.
Entscheidend ist nun wiederum lediglich $I$. Auf der rechten Seite der eingliedrigen Rekurrenzgleichung $(**)$ ist der erste Summand $A$ von der Ordnung ${\cal O}(h^{2K(\nu)+1})$ und der zweite Summand $B$ ist von der Ordnung ${\cal O}(h^{g+K(\nu)+1})$, wegen $\varepsilon^0={\cal O}(h^g)$. Nun sieht man aber schnell ein, daß $B$ asymptotisch betrachtet stets dominiert, wegen
aufgrund von
Daher ist $\varepsilon^{\nu+1}$ von der gleichen Ordnung wie $B$, somit $\varepsilon^{\nu+1}={\cal O}(h^s)$, wobei
folglich $\varepsilon^{\nu+1}={\cal O}(h^{K(\nu+1)})$.
Die Bildung der Minima ist natürlich notwendig, da die Konsistenzordnung des Korrektors selbstverständlich niemals überschritten werden kann; man gehe mit der exakten Lösung der Differentialgleichung in die Korrektorformel hinein.
Es bleibt noch die Verbindung zwischen der Iterationsstartordnung $g$ und den Konsistenzordnungen $\hat p$ und $p$ von Prädiktor und Korrektor aufzuzeigen. Bedeutet $y$ die exakte Lösung der Differentialgleichung, so hat man übersichtlich zusammengefasst die folgenden Beziehungen:
Nun ist $y^0 - y^* = {\cal O}(h^{\hat p})$, falls $\hat p\le p$ und damit $g=\hat p$. Dies wegen
Damit folgt schließlich die volle Behauptung des Satzes. ☐
5. Der Startfehler-Satz von Liniger deutet darauf hin, daß asymptotisch betrachtet mehr als eine Iteration der Genauigkeit wegen nicht notwendig ist, bei entsprechend gewählter Genauigkeit des Prädiktors. Wenn nun trotzdem mehr als einmal iteriert wird, dann eigentlich nur um
- Information über das Schalten zu erhalten,
- Ungenauigkeiten in einer zu alten Iterationsmatrix zu kompensieren und abzumildern,
- Steifheit abzudämpfen, oder
- die Schrittweite $h$ nicht ausreichend klein ist, sodaß die Voraussetzungen für den Satz von Liniger nicht erfüllt sind.
Man beachte, daß der Startfehler-Satz von Liniger kein spezielles Resultat über implizite lineare Mehrschrittverfahren ist. Der Satz lässt sich leicht verallgemeinern auf andere Verfahren. Lediglich zur Illustriation wurde hier die Sprache der lineraren Mehrschrittverfahren gewählt. Der Satz gilt allgemein für Verfahren, die schließlich zu einer Keplerschen Gleichung $\phi(y) = h\gamma f(y) + \psi$ münden. Der Beweis und die Aussagen des Satzes übertragen sich beispielsweise, wenn man die skalaren Koeffizienten $\alpha_i$ und $\beta_i$ ersetzt durch Matrizen $A_i$ und $B_i$. Da nun die Dimensionen von $\phi$ und $\psi$ größer werden können, verändern sich die erwähnten Zwischenstellen $\xi$ und $\zeta$.
Der Satz macht eine Aussage über das Anschnellen der Ordnung bei linearen und nichtlinearen Iterationsarten. Auf die ausreichend oftmalige Differenzierbarkeit, hier zweimal stetig differenzierbare Funktion $f$, sei nur nebenläufig hingewiesen. Für die Aussage bei der Picard Iteration genügt selbstverständlich einmalige stetige Differenzierbarkeit.