Professional Documents
Culture Documents
..
.
yk,n+1 = k (n, y1,n , y2,n , . . . , yk,n )
yn+1 = G(n, yn )
(8.1)
y0 assegnato.
282
a) stabile se per ogni > 0 esiste una costante > 0 tale che se
{
yn } `e unulteriore soluzione di (8.1), per la quale
ky0 y0 k <
kyn yn k < , n = 1, 2, . . . ,
(8.2)
kyn yn k 0.
c) relativamente stabile se (8.2) `e sostituita da
kyn yn k
<
kyn k
8.2.
n = 1, 2, . . .
(8.3)
Stabilit`
a di equazioni alle differenze
yn =
yn+1 =
yn+2 =
yn+3 =
..
.
yn,1
yn,2
yn,3
yn,4
yn+k1 = yn,k
lequazione alle differenze pu`o scriversi
yn+1,1 = yn,2
yn+1,2 = yn,3
..
.
yn+1,k = yn+k = b a0 yn,1 a1 yn,2 . . . ak1 yn,k
ovvero, posto
B=
0
0
1
0 1
.. ..
.
.
O
..
O
0
0
1
a0 . . . . . . ak2 ak1
yn =
yn,1 yn
yn,2
yn,3
..
.
yn,k
283
d=
0
0
0
..
.
b
yn+1 = Byn + d.
(8.4)
k
X
aj r j
ak = 1.
j=0
k
X
aj r j
j=0
aj yn+j = 0.
j=0
(8.5)
284
aj z n+j = 0
j=0
cio`e
z
k
X
aj z j = 0.
j=0
k
X
aj r j
j=0
k
X
ci zin
i=1
8.3.
a t b, y(a) = y0
(8.6)
k = 1
(8.7)
j=0
285
I metodi multistep
Supponiamo noti i valori (tn+j , y(tn+j )), per j = 0, . . . , k 1, e riscriviamo (8.6) nel seguente modo
y(tn+k ) y(tn ) =
tn+k
tn
f (t, y(t))dt
k
X
j=0
k
X
hj f (tn+j , yn+j )
j=0
j=0
j yn+j h
k
X
j fn+j = 0,
j=0
(8.8)
tn +h
tn
f (t, y(t))dt.
Posto t = tn + hc:
y(tn+1 ) = y(tn ) + h
= y(tn ) + h
1
0
s
X
i=1
286
tn +hci
tn
= y(tn ) + h
= y(tn ) + h
s
X
ci
0
f (t, y(t))dt =
j=1
s
X
bi f (tn + hci , Yi )
s
X
(8.9)
i=1
Yi = y n + h
(8.10)
j=1
(8.11)
i1
X
(8.12)
j=1
yn+1 = yn + h
s
X
b i Ki
i=1
Ki = f tn + hci , yn +
s
X
j=1
aij Kj ,
287
0nN
k
1 X
(t; h) = j y(t + jh) h(t, . . . , t + hk, y(t), . . . , y(t + hk); h) .
h j=0
k1
X
y(tn+k ) +
j yn+j
j=0
h(tn , . . . , tn+k1 , yn , . . . , yn+k1 ; h)
288
k
X
y(t
)
h(t
,
.
.
.
,
t
,
y(t
),
.
.
.
,
y(t
);
h)
j
n+j
n
n+k1
n
n+k1
j=0
= h| (tn ; h)|.
Dunque
E(tn+k ; h) = h| (tn ; h)|
(8.13)
289
Metodi Impliciti
Per i metodi impliciti assumiamo che la funzione sia derivabile (e
invero basterebbe anche la Lipschitzianit`a di ).
E(tn+k ; h) = |y(tn+k ) yn+k | =
= |y(tn+k ) +
=|
=|
k
X
j=0
k
X
j=0
k1
X
j=0
h| (tn ; h)|+h|
E(tn+k ; h) =
(8.14)
h0
dove
(h) =
t[a,bkh]
290
k
X
j r j
j=0
Se
(1) = 0
(8.15)
e
(t, . . . , t, y(t), . . . , y(t); 0) = 0 (1)f (t, y(t))
t [a, b]
(8.16)
k
X
jj
"
jj
"
j=0
k
X
j=0
+y 0 (t)
k
y(t + jh) y(t)
1X
+
j y(t) =
jh
h j=0
k
X
y(t + jh) y(t)
1
0
y (t) + y(t)
j +
jh
h
j=0
k
X
jj =
j=0
k
X
1
jj g(t, jh) + y(t)(1) + y 0 (t)0 (1) =
h
j=0
1
= G(t, h) + y(t)(1) + y 0 (t)0 (1)
h
291
dove si `e posto
g(t, h) =
e
G(t, h) =
k
X
jj g(t, jh).
j=0
1
y(t)(1) + y 0 (t)0 (1) + G(t, h)+
h
(t, t + h, . . . , t + kh, y(t), y(t + h), . . . , y(t + hk)).
h0
t,
t [a, b]
h0
e dunque
lim (h) = 0.
h0
Viceversa se
lim (h) = 0
h0
G(t, h) 0
consegue
0 (1)f (t, y(t)) = (t, . . . , t, y(t), y(t), . . . , y(t); 0). 2
292
Osservazione.
diventano
j = 0
j=0
k
X
j =
j=0
k
X
jj ,
j=0
k
X
j r j
j=0
(1) = 0
1 + 0 = 0
e
(t, . . . , t, y(t), y(t), . . . , y(t); 0) = 0 (1)f (t, y(t))
(t, . . . , t, y(t), y(t), . . . , y(t), 0) = f (t, y(t)).
Quindi metodi one-step consistenti sono del tipo
yn+1 = yn + h [f (tn , yn ) + (1 )f (tn+1 , yn+1 )]
con [0, 1]. Tra questi metodi i pi`
u noti sono i seguenti:
= 1 : Metodo di Eulero Esplicito:
yn+1 = yn + hf (tn , yn )
= 0 : Metodo di Eulero Implicito:
yn+1 = yn + hf (tn+1 , yn+1 )
(8.17)
293
h
[f (tn , yn ) + f (tn+1 , yn+1 )] .
2
j yn+j = 0,
k = 1
j=0
`e stabile.
Per quanto visto nelle pagine precedenti possiamo riprendere la suddetta definizione nel seguente modo.
Condizione delle radici. Il metodo (8.7) `e 0-stabile se e solo se le
radici 1 , . . . , k del polinomio
() =
k
X
j j
j=0
soddisfano la condizione
|i | 1,
i = 1, . . . , n
j=0
j yn+j = n
n = k, k + 1, . . .
(8.18)
294
k
X
j j = 0
j=0
soddisfino la condizione
|i | 1,
e che ogni radice di modulo 1 sia semplice. Allora esiste una costante
c 1 tale che per ogni soluzione di (8.18) si ha:
n
X
j=k
|j | .
n = k, k + 1, . . . 2
j yn+j = 0 `e stabile;
j=0
2)
|(x0 , . . . , xk , u0 , . . . , uk ; h) (x0 , . . . , xk , v0 , . . . , vk ; h)|
c max |ui vi |
0ik
n = k, k+1, . . . N = (ba)/h
dove
r(h) = max |y(a + ih) yi (h)|
0ik1
295
e
(h) = max | (t, h)|.
t[a,b]
In particolare se
lim r(h) = 0
h0
h0,n+
yn (h) = y(t),
dove t = a + nh.
Dimostrazione. Da
k
X
j=0
e
k
X
j=0
j=0
ovvero
j en+j = n+k
j=0
dove
n+k = h[(tn , . . . , tn+k , y(tn ), . . . , y(tn + kh); h)+
(8.19)
(tn , . . . , tn+k , yn (h), . . . , yn+k (h); h)] + h (tn , h).
Dallipotesi di stabilit`a del metodo (8.7) e in virt`
u del lemma 8.3.1
risulta
|en+k |
max |ei | +
0ik1
n
X
i=0
|k+i |
n = 0, 1, . . . , > 1
296
e perci`o
|en+k | r(h) + h
n
X
i=0
Posto
n = max |ei |,
0in
n = 0, 1, 2, . . .
segue
|en+k | r(h) + ch(n + 1)n+k + h (h)(n + 1)
questultima implica
n+k r(h) + ch(n + 1)n+k + h (h)(n + 1).
Fissato h, supponiamo che n possa prendere valori che soddisfano la
relazione
1
(n + 1)h (c)1
2
allora
1
k+n r(h) + k+n + (h)
2
k+n 2 [r(h) + (h)] ,
(n + 1)h
e perci`o
|ek+n | 2 [r(h) + (h)]
(8.20)
297
per tutti gli n tali che i punti di griglia che sono I2 . Ora poich`e
lintervallo [a, b] pu`o essere coperto da un numero finito di intervalli
di ampiezza ne consegue la tesi. 2
Osservazione. Lipotesi 2) del teorema di convergenza `e una consequenza della condizione di Lipschitz che normalmente poniamo su f per
lesistenza e lunicit`a della soluzione del problema di Cauchy. Infatti
assumiamo che f soddisfi
|f (t, u) f (t, v)| L|u v|,
t [a, b], u, v.
k
X
j f (xj , uj )
j=0
si ha
|(x0 , . . . , xk , u0 , . . . , uk ; h) (x0 , . . . , xk , v0 , . . . , vk ; h)| =
=
k
X
j=0
k
k
X
X
j f (xj , uj )
j f (xj , vj )
j=0
j=0
|j |L|uj vj | L
k
X
j=0
|j | max |uj vj |.
0jk
Unanaloga deduzione vale per i metodi Runge-Kutta. Un aspetto importante dellerrore globale di troncamento `e la rapidit`a con la quale
tende a zero per h 0. Una prima misura di questa rapidit`a `e la seguente condizione sullerrore locale di troncamento (h). Richiamiamo
che la notazione
(h) = O(hp )
significa
(h)
=l
h0 hp
lim
298
Definizione 8.3.5 Il metodo (8.7) ha ordine almeno p se per ogni problema di Cauchy con soluzione y(t) C (p) ([a, b]) risulta
(h) = O(hp ).
Il metodo ha esattamente ordine p se in aggiunta (h) 6= O(hp+1 )
per qualche equazione differenziale per la quale la soluzione y(t)
C (p+1) ([a, b]).
Per quanto lordine di precisione di un metodo sia definito in termini
di errore locale di troncamento, esso pu`o essere legato allerrore globale
di troncamento. Infatti dal teorema di convergenza, abbiamo visto che
en = |y(a + nh) yn (h)| c1 r(h) + c2 (h),
nk
j=0
j yn+j h
k
X
k = 1.
j=0
k
k
X
1 X
j f (tn + jh, y(tn + jh))
(tn ; h) = j y(tn + jh) h
h j=0
j=0
299
dove y(t) denota la soluzione teorica del problema di Cauchy. Assumiamo che y(t) C (p+1) ([a, b]). Possiamo allora scrivere
k
k
X
1 X
(tn ; h) =
j y(tn + jh) h
j y 0 (tn + jh) =
h j=0
j=0
p
k
X
(jh)s
(jh)p+1
1 X
=
j
y (s) (tn )
+ y (p+1) (tn + h)
+
h j=0
s!
(p + 1)!
s=0
p1
X
k
X
(jh)p
(jh)s
+ y (p+1) (tn + h)
h
j (y 0 )(s) (tn )
s!
p!
s=0
j=0
p
k
k
X
X
1X
js
1
k
X
k
X
js
1
j y (s+1) (tn )hs y (p+1) (tn + h) hp j j p =
s!
p!
s=0 j=0
j=0
p
k
k
X
X
1 X
js
j y(tn ) +
j y (s) (tn )hs1 +
=
h j=0
s!
s=1 j=0
p1
X
s=0
k
X
j=0
j (s+1)
y
(tn )hs +
s!
k
X
k
1 X
j p+1 (p+1)
+hp j
y
(tn + h) j j p y (p+1) (tn + h) =
(p + 1)!
p! j=0
j=0
p1
k
k
X X
1 X
j s+1 (s+1)
=
j y(tn ) +
j
y
(tn )hs +
h j=0
(s
+
1)!
s=0 j=0
p1
X
k
X
js
j y (s+1) (tn )hs + O(hp )
s!
s=0 j=0
300
k
1 X
j p+1 (p+1)
y
(tn + h) j j p y (p+1) (tn + h).
hp j
(p + 1)!
p! j=0
j=0
k
X
p1
k
k
k
X X
X
j s+1
js
1 X
(tn ; h) = j y(tn ) +
j
j = 0
(8.21)
j=0
k
X
j=0
k
X
j s+1
js
j = 0
(s + 1)! j=0 s!
s = 0, 1, . . . , p 1.
(8.22)
k
X
j p+1 (p+1)
(tn ; h) = hp j
y
(tn + h)+
(p + 1)!
j=0
k
X
jp
j y (p+1) (tn + h) =
p!
j=0
(8.23)
= hp (tn ) + O(hp+1 );
(tn ) = lp+1 y (p+1) (tn )hp + O(hp+1 ),
lp+1 =
k
X
j=0
j p+1
jp
j
j
(p + 1)!
p!
301
y(0) = 1,
y0 = 1, y1 = noto.
y1 + h
y1 + h
1
1
+
k2
yn =
k1 + c2
2
2 2 1+h
2 2 1 h2
302
k
X
j j
j=0
soddisfano la condizione
|i | 1,
i = 1, . . . , k
con n 1 radici strettamente minori di 1. Si noti che poich`e un metodo consistente ammette sempre la radice = 1 ((1) = 0) possiamo
asserire:
Un metodo consistente `e fortemente stabile se le radici i di () = 0
soddisfano 1 = 1 e |i | < 1, i = 2, . . . , n.
Un metodo che non `e fortemente stabile pu`o esibire un comportamento
instabile specialmente per problemi con soluzione decrescente. Le radici
i del polinomio () relative ad un metodo consistente sono usualmente catalogate in
= +1 radice principale (principal root)
|i | 1, i = 2, . . . , k radici spurie (spurious roots)
|i | = 1, i = 1, . . . , q radici essenziali (essential roots)
|i | < 1, i = q + 1, . . . , k radici non essenziali (non essential roots).
Stabilit`
a per h fissato (Assoluta stabilit`
a)
Un metodo numerico fornisce risultati numerici accettabili quando il
passo di integrazione h dipende soltanto dallaccuratezza richiesta e la
sola propriet`a di convergenza di un metodo (consistenza + 0-stabilit`a),
pu`o non garantire ci`o. Non `e per esempio difficile costruire un metodo
del quarto ordine per il quale si abbia un comportamento di questo
tipo:
y(tn ) yn (0.1) +
(h = 0.1)
e
y(tn ) yn (0.01) 0
(h = 0.01)
il che indica che pur essendo lerrore locale accettabile (t; 0.1) =
O(104 ) nel primo caso si ha un comportamento instabile mentre nel
303
yn+2 = yn + 2hfn+1
applicato allequazione
y 0 = y
y(0) = 1
Abbiamo
yn+2 = yn + 2hyn+1 .
Detto () il polinomio caratteristico di (8.24) `e
(; h) = () h()
le cui radici sono
r1 (h) = h +
e
perci`o
r2 (h) = h
1 + (h)2
1 (h)2
eh h
1
+ q
2 2 1 (h)2
1
eh h
q
2 2 1 (h)2
c1 (h) = 1 + O((h)3 )
c2 (h) = O((h)3 ).
(8.24)
304
da cui
e(t+2h) et 2he(t+h) = O(h2 )
e2h 1 2heh = O(h2 )
r1 (h) = eh + O(h2 ).
Quindi
t/h
e perci`o il metodo `e convergente. Per < 0 |r2 (h)| > 1 e quindi per
h piccolo quanto si vuole il secondo addendo aumenta con laumentare
di t e pu`o dominare laltro termine che `e quello che per h 0 tende
alla soluzione teorica. Se > 0 il secondo addendo tende a 0, per`o in
questo caso il problema `e instabile e la perturbazione sul primo termine
data da O(h2 ) + O((h)3 )eh pu`o crescere esponenzialmente.
8.4.
Assoluta stabilit`
a
C.
(8.25)
305
`
8.4. ASSOLUTA STABILITA
Quanto segue d`a una giustificazione alla scelta di tale problema. Esaminiamo in primo luogo la reazione locale del problema di Cauchy allintroduzione di perturbazioni sul dato iniziale. A tal scopo supponiamo
di trovarci nel generico punto t e di voler risolvere il problema
y 0 = f (t, y)
y(t ) = y
t ' t .
(8.26)
z = f (t, z)
(8.27)
z(t ) = y + .
(t ) = .
Linearizziamo quindi questo problema sviluppando f (t, y(t) + (t)) nellintorno della soluzione y(t).
f (t, y(t) + (t)) f (t, y(t)) =
f
(t, y(t)) + O(kk2 ).
y
0 (t) = A(t)
(t ) =
t t .
306
Assunto che gli n autovalori i di A (in generale complessi) siano distinti, possiamo porre A = T T 1 dove T = [u1 |u2 | . . . |un ] `e la matrice
degli autovettori di A e = diag(1 , . . . , n ). Perci`o
0 (t) = T T 1 (t)
(T 1 0 (t)) = (T 1 (t))
(t ) =
(8.28)
(t ) =
T 1 (t) = e(tt )
(t) = T e(tt ) w
(t) =
n
X
w = T 1
ej (tt ) uj wj
j=1
t ' t
e quindi
z(t) = y(t) +
n
X
ej (tt ) uj wj .
j=1
In definitiva le autosoluzioni
ej (tt ) uj
caratterizzano la risposta locale del sistema alle perturbazioni sul dato
iniziale y . Si noti che il sistema (8.28) rappresenta n equazioni disaccoppiate del tipo w 0 = w. Volendo risolvere il problema (8.26) con
un metodo numerico (one-step o multistep) `e necessario che la risposta
del sistema discreto in presenza di perturbazioni sia analoga a quella
del sistema continuo. Esaminiamo allora il comportamento del metodo
numerico quando applicato al problema test
Sia dunque
k
X
j=0
y 0 = y
C, 0 t +
y(0) = 1
j yn+j h
k
X
j=0
j f (tn+j , yn+j ) = 0
307
`
8.4. ASSOLUTA STABILITA
j=0
j yn+j h
k
X
j yn+j = 0,
y0 , . . . , yk1 noti
(8.29)
j=0
j=0
j yn+j h
k
X
j yn+j = 0,
(8.30)
j=0
j=0
(j h
j )n+j = 0
0 , . . . , k1 noti
(8.31)
e h
= h. Indichiamo con (r; h
) = (r) h
(r) il polinomio di
stabilit`a di (8.31) dove
(r) =
k
X
j r
(r) =
j=0
k
X
j r j .
j=0
ri (
h) ri ,
i = 1, 2, . . . , k
dove ri `e la i-esima radice di (r), ordinate come abbiamo visto in precedenza. Una volta note le radici ri (
h) che per semplificare la descrizione
supponiamo distinte, la soluzione generale della (8.31) `e
n =
k
X
ci rin (
h)
i=1
308
k
k
X
X
1
(t; h) = j e(t+jh) h
j e(t+jh)
h j=0
j=0
da cui
ovvero
et
k
X
(j h
j )(eh )j = O(hp+1 )
j=0
(eh ) h
(eh ) = O(hp+1 )
anche
(k h
k )
k
Y
i=1
(eh ri (
h) = O(hp+1 ).
per h 0
ri (
h) ri 6= +1,
per h 0
perci`o
r1 (
h) = eh + O(hp+1 ).
Osserviamo anche che
r1 (
h) = 1 + h
+ O(h2 ) = r1 + h
+ O(
h2 ).
Poich`e le radici ri , i = 1, . . . , q, sono semplici (zero stabilit`a) le corrispondenti ri (
h) continueranno ad essere semplici per |h| sufficientemente piccolo (le radici sono infatti funzioni continue dei coefficienti)
anzi si potrebbe provare che sono funzioni analitiche di h
. Possiamo
allora sviluppare ri (
h), per i = 1, . . . , q, in serie di Taylor intorno a
h
= 0. Abbiamo
ri (
h) = ri (0) + h
ri0 (0) + O(h2 )
i = 1, . . . , q
(8.32)
309
`
8.4. ASSOLUTA STABILITA
e poich`e
(ri (
h)) h
(ri (
h)) = 0
derivando rispetto a h
segue:
0 (ri (
h))ri0 (
h) (ri (
h)) h
(ri (
h))ri0 (
h) = 0
cio`e
ri0 (
h) =
0 (r
(ri (
h))
h)) h
(ri (
h))
i (
(ri )
0 (ri )
(ri )
+ O(h2 ) =
0
(ri )
= ri (1 + h
) + O(h2 ),
Da questultima
rin (
h) ' rin ei h n = rin ei tn
dove
1 =
i = 1, . . . , q
(1)
=1
0 (1)
k
X
ci rin (
h) =
i=1
= c1 etn +
(8.33)
q
X
ci ei tn rin +
i=2
cio`e
yn = yn + c1 etn +
k
X
ci rin (
h),
i=q+1
q
X
i=2
ci ei tn +
k
X
i=q+1
ci rin (
h).
(8.34)
310
i = 1, 2, . . . , k.
La regione
HA = {
h C| |ri (
h)| < 1}
i = 2, . . . , k.
La regione
HR = {
h C| |ri (
h)| < |r1 (
h)| i = 2, . . . , k}
si chiama regione di relativa stabilit`a.
311
`
8.4. ASSOLUTA STABILITA
sufficientemente piccolo il metodo risulta assolutamente instabile, tuttavia per quanto precedentemente detto ci`o non deve far preoccupare
purch`e il metodo risulti relativamente stabile per quel valore di h
.
Il seguente criterio (di Schur) fornisce un metodo per la determinazione
della regione di assoluta stabilit`a di un metodo k-step lineare.
Definizione 8.4.3 Assegnato il polinomio
(r) =
k
X
ci r i
i=0
con c0 6= 0 e ck =
6 0, questo si dice polinomio di Schur se le sue radici
ri , i = 1, . . . , k, soddisfano
|ri | < 1
i = 1, 2, . . . , k.
k
X
ci r i
i=0
cj
b
(r)
k
X
cki r i
i=0
312
8.5.
Metodi Runge-Kutta
s
X
i1
X
s
X
s
X
i=1
Yn1
= yn
Yni
= yn + h
j=1
se esplicito, oppure
yn+1 = yn + h
i=1
Yni
= yn + h
j=1
s
X
bi
i=1
ed avendosi
(1) = 0,
0 (1) = 1
313
se
s
X
bi = 1
i=1
Condizioni di ordine
Per derivare le condizioni di ordine p di un metodo Runge-Kutta, basta,
in linea di principio, imporre che
(t; h) = O(hp ).
A titolo di esempio consideriamo lo schema
yn+1 = yn + hb1 f (tn , yn ) + hb2 f (tn + hc2 , Yn2 )
Yn2
= yn + ha21 f (tn , yn )
ovvero
yn+1 = yn + hb1 f (tn , yn ) + hb2 f (tn + hc2 , yn + ha21 f (tn , yn ))
e imponiamo le condizioni per avere ordine 2. Deve essere
(t; h) =
1
[y(t + h) y(t) hb1 f (t, y(t))+
h
+hb2 f (t + hc2 , y(t) + ha21 f (t, y(t)))] = O(h2 ).
314
Assunta y(t) di classe C (3) ([a, b]) e sviluppando in serie di Taylor abbiamo
(t; h) =
h2
1 0
{y (t)h + y 00 (t) + O(h3 ) hb1 f (t, y(t))+
h
2
hb2 [f (t, y(t)) +
f
f
(t, y(t))hc2 +
(t, y(t))ha21 f (t, y(t)) + O(h2 )]} =
t
y
1
f
h2 f
h2
{f (t, y(t))h +
(t, y(t)) +
(t, y(t))f (t, y(t)) + O(h3 )+
h
t
2
y
2
hb1 f (t, y(t)) hb2 f (t, y(t))
f
(t, y(t))b2 c2 h2 +
t
f
(t, y(t))f (t, y(t))h2b2 a21 + O(h3 )}.
y
b1 + b 2 = 1
b2 c2 = 1/2
b2 a21 = 1/2.
Lesempio precedente fa intuire la difficolt`a di manipolazione per ottenere metodi di ordine elevato. Esiste per`o una tecnica pi`
u raffinata
che utilizza strumenti di teoria dei grafi e che permette unelegante
derivazione delle condizioni di ordine. Rinunciando allesposizione di
tale teoria, riportiamo di seguito le condizioni da soddisfare per ot-
315
s
X
bi = 1
s
X
bi ci =
1
2
s
X
bi c2i =
1
3
i=1
i=1
i=1
s
X
bi aij ci =
s
X
bi c3i =
s
X
bi ci aij cj =
s
X
bi aij c2j =
1
6
i,j=1
i,j=1
1
4
i,j=1
i,j=1
s
X
1
8
1
12
bi aij ajk ck =
i,j,k=1
1
.
24
Per lordine massimo `e possibile dedurre, dalla suddetta teoria, i seguenti risultati. Denotato con p = p (s) lordine massimo raggiungibile
con un metodo Runge-Kutta esplicito si ha:
p (s)
p (5)
p (s)
p (s)
p (s)
=s
=4
=s1
=s2
s2
1s4
5s7
8s9
s 10.
316
Assoluta stabilit`
a dei metodi Runge-Kutta
Applicando il metodo Runge-Kutta allequazione test y 0 = y, C,
si ha:
yn+1 = yn + h
s
X
bi Yni ,
s
X
aij Ynj
h
= h
i=1
Yni
= yn + h
j=1
= yn e + h
AYn
ovvero
yn+1 = (1 + h
bT (I h
A)1 e)yn
anche
yn+1 = R(
h)yn
dove R(
h) = 1 + h
bT (I h
A)1 e. Il metodo Runge-Kutta si dir`a as RA risulta
solutamente stabile nella regione RA C se per ogni h
|R(
h)| < 1. Linsieme
RA = {z C | |R(
h)| < 1}
si dice regione di assoluta stabilit`
a.
Sulla funzione R(z)
Per i metodi Runge-Kutta espliciti la matrice A ha la seguente struttura
A=
0
a
21
0
0
...
...
...
...
a31 a32 0
.. . . . .
..
.
.
.
.
as1 as2 . . . as,s1
0
0
..
.
..
.
0
317
s1
X
(zA)i .
i=0
s1
X
z i Ai e =
i=0
=1+
s
X
i=1
318
s
X
s
X
i=1
Yni = yn + h
i = 1, . . . , s. (8.35)
j=1
Un metodo per risolvere (8.35) `e quello di utilizzare procedimenti iterativi del tipo
(k+1)
Yni
= yn + h
s
X
(k)
i = 1, . . . , s, k = 0, 1, 2, . . .
j=1
(8.36)
= yn + h
i1
X
aij f (tn +
(k+1)
hcj , Ynj )
j=1
+h
s
X
(k)
j=i+1
(8.37)
con i = 1, . . . , s e k = 0, 1, 2, . . ., nella versione Gauss-Seidel. Non `e
difficile vedere che se f `e Lipschitziana rispetto a y con costante di
Lipschitz L in [a, b] R allora sia (8.36) che (8.37) sono convergenti per
h sufficientemente piccolo. Infatti posto
Yn(k)
(k)
Yn1
(k)
Yn2
..
.
(k)
Yns
F (tn , Yn ) =
e=
1
1
..
.
1
319
G=
0
a
21
0
0
...
...
...
...
0
0
..
.
..
.
0
a31 a32 0
.. . . . .
..
.
.
.
.
as1 as2 . . . as,s1
23 . . .
..
.
..
0
.
H= 0 0
.. . .
.. ..
.
.
.
. as1,s
0 0 ... 0
0
(8.38)
(8.39)
(k)
e(k)
n = Yn Yn
segue
(k+1)
en,i
= h
i1
X
j=1
+h
(k+1)
n
X
j=i+1
(k)
320
(k+1)
|en,i
| hL
i1
X
(k)
|aij ||en,j | + h
j=1
n
X
j=i+1
(k)
|aij ||en,j |.
Allora
|e(k+1)
n,r |
dove
hL
ke(k+1)
k
n
=
r1
X
j=1
(k)
|arj ||en,j |
+h
j=r+1
hLke(k+1)
k
n
r1
X
j=1
|arj |
Allora
ke(k+1)
k
n
Assumiamo ora che
hL max
1is
n
X
(k)
|arj ||en,j |.
+ hLke(k)
n k
s
X
j=r+1
|arj |
hL
ke(k) k .
1 hL n
s
X
j=1,j6=i
|aij | q < 1
allora sicuramente
hL( + ) q < 1
hL
hL + hL hL
=
=
1 hL
1 hL
=
hL( + ) hL
q hL
=
1 hL
1 hL
q hL + hLq hLq
=
1 hL
=q
hL(1 q)
q < 1.
1 hL
321
Pertanto
kYn Yn(k) k q k kYn Yn(0) k
yn+1 = yn + h(tn , yn ; h)
un metodo one-step di ordine p 1. Come `e noto lerrore locale di
troncamento in tn `e dato da
(tn ; h) =
1
[y(tn + h) y(tn ) h(tn , yn ; h)]
h
con yn+1
(h/2) lapprossimazione in tn+1 a partire da tn con passo di
integrazione h/2. Allora
h
yn+1 (h/2) = yn + (tn , yn ; h/2)
2
h
yn+1
(h/2) = yn+1 (h/2) + (tn + h/2, yn (h/2); h/2).
2
In ipotesi locale
yn = y(tn )
e
(tn + h/2; h/2) =
(tn ; h/2) =
2
[y(tn + h/2) y(tn ) h/2(tn , y(tn ); h/2)]
h
2
[y(tn + h) y(tn + h/2) h/2(tn + h/2, y(tn + h/2); h/2)]
h
322
Ora
1
[y(tn ) + h(tn , y(tn ); h) y(tn ) h/2(tn , y(tn ); h/2)+
h
h/2(tn + h/2, y(tn + h/2); h/2)] =
1
1
= (tn , y(tn ); h) (tn , y(tn ); h/2) (tn + h/2, y(tn + h/2); h/2) =
2
2
1
= [y(tn + h) y(tn )] (tn ; h)+
h
1
1
[y(tn + h/2) y(tn )] + (tn + h/2; h/2)+
h
2
1
1
+ [y(tn + h) y(tn + h/2)] + (tn ; h/2) =
h
2
"
!p
#
1
h
p
p+1
p+1
= (tn )h + O(h ) +
(tn + h/2)
+ O(h ) +
2
2
"
!p
+ O(h
h
1
= (tn )hp +
(tn )
2
2
"
!p
hp+1
+ 0 (tn ) p+1 + O(hp+1 ) +
2
1
h
+ [(tn )
2
2
!p
+ O(hp+1 )] =
1
h
+ (tn )
2
2
p+1
) =
#
1
= (tn )h
1 + O(hp+1 ).
2p
In definitiva la parte principale dellerrore locale di troncamento pu`o
essere cos` stimata
p
2p 1