You are on page 1of 43

Analisi di sistemi non lineari

x& = f (x, u(t ), t )


x Rn yRp u Rq
y = h(x, t )

f un vettore di funzioni che definiscono la dinamica delle variabili di stato x,


eventualmente in presenza dellingresso u, ed h il vettore della trasforma-
zione in uscita che lega lo stato con luscita y
Se le funzioni non dipendono dal tempo, e lingresso pu essere rappresentato
da funzioni esplicite del tempo, il sistema si dice autonomo

x& (t ) = f (x )
x Rn yRp
y = h(x )

Se lingresso influenza direttamente la trasformazione in uscita il sistema


presenta una componente istantanea
x& = f (x, u(t ), t )
x Rn yRp u Rq
y = h(x, u(t ), t )
Analisi di sistemi non lineari

Tutti i sistemi reali presentano dei comportamenti non lineari che per in
specifiche condizioni e campi di funzionamento possono anche approssimarsi
con dinamiche lineari.
Es.: molle

F = k x
F = k x k x3 0 < k << k

Le approssimazioni lineari, essendo valide in un campo limitato, possono


comportare limitazioni nelle prestazioni ammissibili dei sistemi.
Esempi di non linearit

Prodotto tra variabili di stato accelerazione centrifuga/Coriolis

Valore assoluto attrito fluidodinamico

Funzione segno attrito secco

Funzioni trigonometriche vincoli geometrici nei robot

Saturazione materiali ferromagnetici

Back-lash ingranaggi meccanici

Isteresi rel elettromeccanici

Radice quadrata efflusso di fluidi da forami


Analisi di sistemi non lineari

Un sistema non lineare pu presentare comportamenti i pi vari, da quelli molto


simili a sistemi lineari con un solo punto di equilibrio globalmente stabile,
funzionamenti apparentemente non deterministici (es. sistemi caotici),
funzionamenti oscillatori permanenti autonomi (cicli limite),
convergenza/divergenza in tempo finito o asintotica, etc.

Uno stesso sistema di equazioni differenziali non lineari pu presentare


comportamenti e propriet completamente differenti al variare dei parametri:
possono comparire/sparire punti di equilibrio (biforcazioni), oppure modificarsi le
condizioni di stabilit, etc. Questo comporta la necessit di analisi specifiche caso
per caso.

Una caratteristica di un sistema non lineari costituita dai punti di equilibrio xeq,
ovvero le soluzioni ammissibili della equazione non lineare
f (x eq ) = 0

Un sistema non lineare pu avere un numero finito o infinto di punti di equilibrio,


ciascuno dei quali pu essere stabile, instabile o di sella
Esempi
x&1 (t ) = 1 x12 (t )
5

x& 2 (t ) = x2 (t )
4

x1eq = +1 1

stabile p.to Sella eq. Stabile

x2eq = 0

x2
0

-1

x1eq = 1
-2

punto di sella -3

x2eq = 0 -4

-5
-5 -4 -3 -2 -1 0 1 2
x1

1.5

x&1 (t ) = x2 (t )
x& 2 (t ) = sgn ( x1 ) + 0.3 sgn ( x2 )
0.5
2

0
x

x1eq = 0
-0.5
instabile
x2eq = 0
-1

-1.5
-1 -0.8 -0.6 -0.4 -0.2 0 0.2 0.4 0.6
x
1
Esempi
6

b 4

l 2
x1

2
0

x
m
-2

mg
-4

x&1 (t ) = x2 (t ) -6
-2 0 2 4 6 8
x& 2 (t ) = sin ( x1 ) 2 x2
g b x
1
l ml

x1eq = 2k (k = 0,1,K) x1eq = (2k + 1) (k = 0,1,K)


stabili
x2eq = 0 x2eq = 0
instabili
Esempi

1.5

0.5 x&1 (t ) = x2 (t )
x& 2 (t ) = 0.3 sgn ( x2 )
2

0
x

-0.5 x1eq R
stabile
x2eq = 0
-1

-1.5

-2
-8 -6 -4 -2 0 2 4 6 8
x
1
Stabilit dellequilibrio

Dato un sistema autonomo non lineare x& (t ) = f (x ) x Rn

un suo punto di equilibrio xeq si definisce stabile secondo Lyapunov se

R > 0 r (R ) > 0 tale che x(t0 ) B (x eq , r ) x(t ) B (x eq , R ) t t0


essendo B(X,)={xRn: ||x-X|| } la bolla di raggio centrata in X

Il valore di R pu essere preso


arbitrariamente piccolo, ed il punto
r di equilibrio sar stabile solo se
xeq esiste un intorno, di raggio r, del
punto di equilibrio tale che per
R qualunque perturbazione entro tale
intorno la traiettoria nel sistema
rimane sempre confinata ne
lintorno di raggio R
Esempio
8

2
l
x1 0

-2
m -4

-6

mg -8
-8 -6 -4 -2 0 2 4 6 8

x&1 (t ) = x2 (t )
x& 2 (t ) = sin ( x1 )
g
l Considerata una qualunque circonferenza di raggio
l = 1, m = 1 R, sempre possibile definire una circonferenza di
raggio r<R, interna al dominio delimitato dalla
linea azzurra tale che la traiettoria perturbata
x1eq = 0 periodica sia interna alla circonferenza di raggio R.
stabile
x2eq = 0
Esempio
8

l 2

x1 (,0)

2
0

x
m -2

-4

mg -6

-8
-4 -2 0 2 4 6 8 10 12

x&1 (t ) = x2 (t )
x
1

x& 2 (t ) = sin ( x1 )
g
l
Qualunque sia la circonferenza di raggio R,
l = 1, m = 1
sempre possibile definire un intorno del punto di
equilibrio, di raggio r<R, tale che la traiettoria
x1eq = perturbata esca dalla circonferenza di raggio R.
instabile
x2eq = 0
Stabilit dellequilibrio

Il punto di equilibrio xeq si definisce asintoticamente stabile se stabile ed


inoltre risulta
lim x(t ) x eq = 0
t

La traiettoria perturbata a partire da un


r punto interno alla circonferenza di raggio
xeq r, oltre a non uscire mai dalla
circonferenza di raggio R, tende a
R convergere verso il punto di equilibrio al
passare del tempo
Esempi

b 6

4
l 2
x1

2
0

x
m
-2

-4
mg
-6
x&1 (t ) = x2 (t )
x& 2 (t ) = sin ( x1 ) 2 x2
g b -8
-4 -3 -2 -1 0 1 2 3 4
l ml x
1
l = 1, m = 1, b = 0.5
La presenza dellattrito b rende lorigine un punto di
x1eq = 0 equilibrio asintoticamente stabile, anche a partire da
stabile alcune condizioni iniziali non interne al dominio
x2eq = 0
individuato dalla linea rossa
Esempi
1.5

x&1 = x12 (t )( x2 x1 ) + x25


x& 2 = x22 (t )(x2 2x1 ) 0.5

x1eq = 0

2
0

x
instabile
x2eq = 0 -0.5

lim x(t ) 0 = 0 -1
t

-1.5
-1.5 -1 -0.5 0 0.5 1 1.5
x
1

Tutte le traiettorie convergono verso lorigine, per qualunque perturbazione


con punto iniziale nei quadranti pari, anche piccola, genera una traiettoria che
rimane esterna ad un dominio i cui limiti sono prossimi alle traiettorie verdi.
Lorigine un punto di equilibrio instabile, ma anche un punto di attrazione
del sistema.
Stabilit dellequilibrio

Il punto di equilibrio xeq si definisce esponenzialmente stabile se stabile ed


inoltre risulta
x(t ) x eq x(t0 ) x eq e t , > 0 t > t0
1.5

1
2*exp(-0.45(t-t0))

r 0.5

xe t0

1
0

x
R q -0.5

-1

-1.5
0 2 4 6 8 10
t

La traiettoria perturbata a partire da un punto interno alla circonferenza di raggio r, oltre a non
uscire mai dalla circonferenza di raggio R, tende a convergere verso il punto di equilibrio, con
un tasso di convergenza superiore a quello di un esponenziale decrescente. Un punto di
equilibrio esponenzialmente stabile anche asintoticamente stabile, ma non viceversa.
Esempi

x& = x 2
x =0 stabile lim x(t ) 0 = 0
xR+ t

Le soluzioni dellequazione differenziale nel dominio di validit sono del tipo

x(t ) =
1 1
a= t0
a+t x(t0 )

Tali soluzioni non sono sommabili, e quindi non maggiorabili da una funzione
esponenziale decrescente, in quanto risulta
t

t a + t dt = ln(a + t ) ln(a + t0 )
1
a0
0
t
1
lim dt
t
t0
a+t

Il sistema asintoticamente stabile ma non esponenzialmente stabile


Esempi

Un sistema lineare autonomo stabile anche esponenzialmente stabile

x& (t ) = Ax(t ) {eig (A )} = {i , i = 1, K, n} < 0


s i
x(t ) = e x(0 ) = Ri , j t j 1e it
At

i =1 j =1

s i
x(t ) = e x 0 =
At
R (x )
i, j 0 e x0 e t
t j 1 i t

i =1 j =1

>0 0 < min {i }


j =1,K, s

Dalla relazione su riportata risulta anche che un sistema lineare autonomo al limite di
stabilit stabile secondo Lyapunov. Infatti, la relazione tra i raggi R ed r risulta

R max x(t )
x0 = r = t
R R
Stabilit della traiettoria

Dato un sistema autonomo non lineare x& (t ) = f (x ) x Rn

una sua traiettoria x*(t), a partire dal punto x*(t0), si definisce stabile secondo
Lyapunov se

R > 0 r (R ) > 0 tale che x(t0 ) x* (t0 ) r x(t ) x* (t ) R t t0

R R Ad ogni istante di tempo la


r distanza tra i punti della traiettoria
t1
t0
t2 di riferimento e di quella
perturbata devono distare non pi
di R, se i gli stati iniziali non
R
distavano pi di r.
t3 R pu essere arbitrariamente
piccolo.
Stabilit della traiettoria

La sovrapposizione spaziale della traiettoria perturbata con quella di riferimento


non ne garantisce la stabilit

R t2 R
r Pur partendo da condizioni iniziali
t1 t2 praticamente coincidenti la traiet-
t0 toria perturbata (rossa) viene
percorsa con velocit differente da
R t3 quella di riferimento (azzurra), che
quindi non stabile.
t3

Un sistema caratterizzato da traiettorie stabili garantisce che piccole perturbazioni


non generino comportamenti estremamente differenti (approssimabilit).
Esempio
I sistemi caotici sono tipicamente caratterizzati da traiettorie instabili
(circuito di Chua con non linearit cubica)
x&1 = acx1 + ax2 ax13
x*0 = [0.1 0.1 0.1]
T

x&2 = x1 x2 + x3 a = 10, b = 16, c = 0.143


x 0 = [0.100001 0.1 0.1]
T

x&3 = bx2

Pur in presenza di una minima


variazione dello stato iniziale si 1.5

nota una divergenza temporale ma x1 -x1*


1 x2-x2*
con simile occupazione spaziale.
x3-x3*

0.5

Errore di stato
0.5

0
0
3
x

-0.5
-0.5
0.2

0.1 -1
0 0.6
0.4
0.2
x -0.1 0
2 -0.2
x
1 -1.5
-0.2 -0.4 0 20 40 60 80 100
tempo
Stabilit dellequilibrio
sistemi non autonomi
Dato un sistema non lineare x& (t ) = f (x, t ) x R n i suoi punti di equilibrio
xeq sono definiti dallequazione f (x eq , t ) = 0 t t0
Il punto di equilibrio xeq si definisce stabile secondo Lyapunov se

R > 0 r (R, t0 ) > 0 tale che x(t0 ) B (x eq , r ) x(t ) B (x eq , R ) t t0


essendo B(X,)={xRn: ||x-X|| } la bolla di raggio centrata in X

r(t0) Il valore di r dipende non solo dal


xeq valore di R, ma anche dallistante
iniziale t0.
R
Esempio

x&1 =
(0.5 + sin (t ))x1
1 + x1 15
x&2 = x1 x2 t =0
0
t =10
0
10

x1eq = 0
stabile 5
x2eq = 0

2
0

x
-5
Affinch due traiettorie restino
interne ad un dominio
-10
partendo in istanti differenti, le
condizioni iniziali devono
-15
essere diverse -15 -10 -5 0 5 10 15
x
1
Stabilit dellequilibrio
sistemi non autonomi
Si estendono ai sistemi non autonomi anche le definizioni di stabilit asintotica ed
esponenziale.

Condizioni aggiuntive a quella di stabilit:

a) Stabilit asintotica: lim x(t ) x eq = 0


t

b) Stabilit esponenziale: x(t ) x eq x(t0 ) x eq e (t t0 ) , > 0 t > t0

Le definizioni e le condizioni di stabilit sono simili a quelle per i sistemi


autonomi, ma presente il parametro t0, ovvero non possibile prescindere
dalla variabile tempo.
Stabilit dellequilibrio
sistemi non autonomi

Una propriet che rende i sistemi tempo varianti simili ai sistemi autonomi quella
di stabilit asintotica uniforme.
Un punto di equilibrio del sistema tempo variante x& (t ) = f (x, t ) x R n asintoti-
camente uniformemente stabile se:

R > 0 r (R ) > 0 tale che x(t0 ) B (x eq , r ) x(t ) B (x eq , R ) t t0

lim x(t ) x eq = 0
t

R1 , R2 (0 < R2 < R1 < R ) T (R1 , R2 ) > 0 tale che


x(t0 ) x eq < R1 x(t ) x eq < R2 t t0 + T (R1 , R2 )

Un sistema caratterizzato da un punto di equilibrio uniformemente stabile


mantiene un tasso di convergenza minimo verso il punto di equilibrio, a
prescindere dallistante iniziale t0.
Stabilit dellequilibrio
Dominio di convergenza

Il dominio di convergenza, D, di un punto di equilibrio asintoticamente stabile


costituito dallinsieme dei punti da cui il sistema tende verso il punto di equilibrio

x(t0 ) D R n x(t ) x eq
t

Se D coincide con tutto la spazio di stato, il punto di equilibrio globalmente


asintoticamente stabile, ed il sistema ha un solo punto di equilibrio.

In questo caso si pu parlare di stabilit del sistema e non solo del punto di
equilibrio.

Es.: il punto di equilibrio inferiore di un pendolo con attrito un punto di equilibrio


asintoticamente stabile ma il suo dominio di convergenza limitato.

lorigine un punto di equilibrio globalmente asintoticamente stabile per un


sistema lineare con autovalori tutti a parte reale negativa.
Linearizzazione di un sistema non lineare

Una approssimazione lineare di un sistema non lineare, nelle vicinanze di un punto


di funzionamento, pu essere ottenuta mediante sviluppo in serie di Taylor fermata
al primo ordine.
x& = f (x, u )
x Rn yRp u Rq
y = h(x, u )

Si consideri una condizione di funzionamento stazionario x*, u* tale che f (x*, u *) = 0

f (x, u ) f (x, u )
x& x + u
x x*,u* u x*,u*
x = x x * u = u u *
h(x, u ) h(x, u )
y x + u
x x*,u* u x*,u*

La dinamica delle variazioni x,u,y approssimata da una dinamica lineare


caratterizzata dalle matrici A(nxn), B(nxq), C(pxn), e D(pxq) definite tramite gli
Jacobiani delle funzioni vettoriali f ed h rispettivamente, valutati in (x*, u*).
Metodo indiretto di Lyapunov

Permette la verifica della stabilit/instabilit di un punto di equilibrio di un sistema


autonomo non lineare utilizzando un sistema lineare approssimante

x& = f (x ) x Rn Punto di equilibrio xeq f (x eq ) = 0

Linearizzazione attorno al punto di equilibrio


f (x )
x& x = J (x eq ) x x = x x eq
x x eq

Se la matrice J(xeq) ha tutti gli autovalori a parte reale negativa, allora xeq
un punto di equilibrio stabile.
Se la matrice J(xeq) ha un autovalore a parte reale positiva, allora xeq un
punto di equilibrio instabile.

Il metodo indiretto non fornisce alcuna informazione sul dominio di stabilit,


un criterio locale.
Esempio
x&1 (t ) = x2 (t )
b
x& 2 (t ) = sin ( x1 ) 2 x2
g b
l ml
l x1eq = k (k = 0,1,K)
x1 x2eq = 0
m
f x11
f f1
0 1
J (x ) = = f x2
= g2
x x21
f 2
cos x1 mlb 2
x2 l
mg

0 1 0 1
J ( 2h ,0 ) = g 2 J ( (2h + 1) ,0 ) = g 2
mlb 2 + l mlb 2
l

I punti di equilibrio corrispondenti a valori pari o nulli di k sono stabili in quanto gli
autovalori dello jacobiano calcolato in tali punto sono tutti a parte reale negativa,
mentre quelli corrispondenti a valori dispari di k sono instabili in quanto hanno
almeno un autovalore a parte reale positiva.
Traslazione rigida dello stato

Una traslazione rigida dellorigine dello spazio di stato non modifica le propriet
dinamiche del sistema

x& = f (x, t ) x Rn Punto di equilibrio xeq f (x eq , t ) = 0

Traslazione dellorigine tale che essa coincida con un punto di equilibrio


x = x x eq

x& = f (x, t ) x R n f (x, t ) = f (x + x eq , t ) Punto di equilibrio xeq

f (x eq , t ) = f (x eq + x eq , t ) = 0 x eq = 0

La stabilit di un punto di equilibrio pu essere studiata come la stabilit


dellorigine, a seguito di una traslazione rigida.
Funzioni definite positive

Una funzione scalare di una variabile (vettoriale) x detta definita positiva se


assume valori positivi per qualunque valore di x, tranne che per x = 0 in cui si
annulla.

V (x ) > 0 x X \ 0
V (x ) definita positiva x X R n se :
V (x ) = 0 x=0

V (x ) 0 x X \ 0
V (x ) semi - definita positiva x X R n se :
V (x ) = 0 x=0

Analoghe definizioni si possono dare per funzioni definite e semi-definite negative

Convenzionalmente una funzione definita positiva (negativa) si indica con la


notazione V(x)>0 (V(x)<0 ), mentre per una semi-definita positiva (negativa)
si utilizza la notazione V(x)0 (V(x)0 ),
Funzioni definite positive
Una forma quadratica di un vettore x pu essere definita mediante una matrice Q.

V(x) = xTQx
La matrice Q si dice definita positiva se lo la forma quadratica da essa definita.
Una matrice Q definita positiva deve avere tutti gli elementi della diagonale
positivi.
Una matrice simmetrica Q una matrice definita positiva se e solo se ha tutti i
minori principali positivi, ovvero, se ha tutti gli autovalori positivi.

Q = Q + 12 QT 12 QT = 1
2 (Q + Q ) + (Q Q ) = Q
T 1
2
T
s + Q ss

Una qualunque matrice Q pu essere decomposta nella sua parte simmetrica Qs e


nella sua parte skew-simmetrica Qss.
QTss = Q ss xT QTss x = 0, xT Qx = xT Q s x

Una forma quadratica dello stato x viene solitamente definita attraverso una
matrice simmetrica.
Metodo diretto di Lyapunov
Dato il sistema autonomo x& = f (x ) x R n , se esiste una funzione scalare V(x), con
derivate parziali continue, e sono verificate le seguenti condizioni:
V(x) definita positiva in un intorno B0 dellorigine dello spazio di stato
V& (x ) semi-definita negativa in B0
allora lorigine un punto di equilibrio stabile.

Se sono invece verificate le seguenti condizioni (pi restrittive):


V(x)>0 x B0
V& (x ) < 0 x B0
allora lorigine un punto di equilibrio asintoticamente stabile.

B0 appartiene al dominio di convergenza dellorigine


Metodo diretto di Lyapunov

V1<V2<V3 V (x ) dx
x2 V& (x ) = = grad {V (x )} f (x )
x dt

f(x) grad{V}

x1
V1 Se il prodotto scalare tra il
V2
gradiente di V ed il vettore della
V(x) dinamica dello stato f negativo,
V3
lo stato evolve verso valori di V
decrescenti, ovvero verso lorigine

Lintorno dellorigine in cui si verifica ci definisce il dominio di attrazione del


punto di equilibrio.
Metodo diretto di Lyapunov

Se non si riesce a definire una funzione di Lyapunov, non detto che


lorigine non sia un punto di equilibrio stabile.

Se lo stato rappresenta lenergia interna del sistema, ed un stato stabile


implica che lenergia interna tenda a non aumentare, una via per trovare
una funzione di Lyapunov quello di definire V(x) come lenergia
interna totale.

Nel caso lannullarsi di V& (x ) definisca una curva chiusa, questa un


ciclo limite del sistema

Il metodo fornisce anche indicazioni sul dominio di convergenza del punto di


equilibrio, nonch sulla convergenza asintotica o meno.
Esempio

x&1 (t ) = x2 (t ) x1eq = 0
b x& 2 (t ) = sin ( x1 ) 2 x2
g b x2eq = 0
l ml

l V (x ) = 12 ml 2 x22 + mgl (1 cos x1 ) = Ecin + E pot = Etot


x1 V& (x ) = bx22

mg V(x)

Se b>0 lorigine un punto di


equilibrio asintoticamente stabile.
Nei punti in cui x2=0 e x10
risulta anche dx2/dt 0.
Se b=0, lorigine un punto di x2
equilibrio stabile ma non asinto-
ticamente stabile.
x1
Metodo diretto di Lyapunov

Se esiste una funzione scalare V(x), con derivate parziali continue, e sono verificate
le seguenti condizioni:

V (x ) > 0 x B0

V& (x ) < 0 x B0

V (x ) 0
x

allora lorigine un punto di equilibrio globalmente asintoticamente stabile.

Il dominio di convergenza tutto lo spazio di stato e lorigine lunico punto


di equilibrio.
Si pu dire che il sistema asintoticamente stabile nellorigine.
Esempio

x&1 (t ) = x2 (t ) x1eq = 0
k1, k2 x2eq = 0
x& 2 (t ) = 1 x1 2 x13 x2 x2
k k b
m m m
m
V (x ) = 12 mx22 + 12 x12 (k1 + 12 k 2 x12 ) = Ecin + E pot = Etot
V& (x ) = bx22 x2
b

x1

V(x)
Se b>0 lorigine un punto di
equilibrio globalmente asintoti-
camente stabile.
Nei punti in cui x2=0 e x10
risulta anche dx2/dt 0.
Se b=0, lorigine un punto di x2
equilibrio stabile ma non asinto-
x1
ticamente stabile.
Metodo diretto di Lyapunov
Criterio di instabilit

Dato il sistema autonomo x& = f (x ) x R n , se esiste una funzione scalare V(x), con
derivate parziali continue, e sono verificate le seguenti condizioni:
V(x) definita positiva in un intorno B0 dellorigine dello spazio di stato
V& (x ) definita positiva in B0
allora lorigine un punto di equilibrio instabile.

Se la derivata totale della funzione V(x) non n definita/semi-definita


negativa n definita positiva non si pu dire niente sulla stabilit o meno
dellorigine.
Esempio
Oscillatore di Van der Pool

x&1 (t ) = x2 (t ) x1eq = 0 V (x ) = 12 x12 + 12 x22 V (x ) > 0 x R 2


( )
x&2 (t ) = x1 + 1 x12 x2 x2eq = 0 (
V& (x ) = x22 1 x12 ) {
V (x ) > 0 x x R 2 : x1 < 1 }

Lorigine un punto di 3
equilibrio, lunico, instabile.
Le traiettorie del sistema 2

convergono verso un ciclo 1

limite stabile individuato dalla 2


x
0

curva verde.
-1
La ricerca dei cicli limite, e
lanalisi della loro stabilit, -2

richiede procedure pi com- -3

plesse che non la ricerca e -4


lanalisi di stabilit dei punti di
-5
equilibrio. -4 -3 -2 -1
x
0 1 2 3 4

1
Metodo diretto di Lyapunov
Applicazione ai sistemi lineari

x& = Ax V (x ) = xT Px P>0

(
V& (x ) = x& T Px + xT Px& = xT AT Px + xT PAx = xT AT P + PA x )
AT P + PA = Q Q>0

Lequazione matriciale ATP+PA=-Q detta equazione di Lyapunov ed ammette


una sola soluzione nellincognita P, una volta fissato Q.
Solitamente si sceglie Q=I e quindi si verifica che la soluzione P sia una matrice
definita positiva.

Se la matrice A ha autovalori tutti a parte reale negativa e la matrice Q


definita positiva, allora lunica soluzione P dellequazione di Lyapunov
definita positiva.
Forma normale di un sistema non lineare

x& = f (x, u (t ), t )
x Rn yR uR
y = h(x, t )

Si calcolino le derivate totali delluscita finch la variabile di ingresso non


compaia esplicitamente.
y (i )
y (r )
= (x, u , t ); = 0 i = 1,2, K , r 1
u

Se r = n, allora il sistema non lineare pu essere ricondotto alla forma canonica


di Brunowsky, che analoga ad una forma compagna controllabile di un sistema
lineare senza zeri, in cui le variabili di stato sono le variabili di fase.

[ ]
y& = A G y + B G (y , u , t ); y = y, y& , &y&, K , y (n 1) , x = (y ), (y , u , t ) = ( (y ), u , t )
T

Sotto opportune ipotesi, la funzione una funzione bi-univoca, e tale che


(0) = 0. Stabilizzare y completamente equivalente a stabilizzare x.
Forma normale di un sistema non lineare

Se r < n, allora il sistema non lineare pu essere ricondotto ad una forma


canonica comprendente la dinamica delluscita y e la dinamica interna w.

[ ]
y = y, y& , &y&, K , y (r 1) ,
T

y& = A G y + B G (y , w, u , t ); w = [w1 , w2 , K , wn r ]
T

& = (y , w, t )
w x = (y , w ),
= ((y , w ), u , t )

Sotto opportune ipotesi, la funzione una funzione bi-univoca, e tale che


(0,0) = 0. Stabilizzare y ed w completamente equivalente a stabilizzare x.

Se la dinamica interna non ha un comportamento esplosivo ed stabile quando


luscita y=0 (zero-dinamica), allora stabilizzare y completamente equivalente
a stabilizzare x.
Molti problemi di controllo non lineare vengono ricondotti a problemi di
stabilizzazione di una uscita disponibile, od opportunamente costruita.
Forma normale di un sistema non lineare

La legge di controllo pu essere basata solo sulle variabili di uscita,


eventualmente in forma dinamica mediante osservatori di stato - output
feedback, oppure mediante retroazione dello stato state feedback

y& = A G y + B G (y , w, t ); x = (y , w ),
& = (y , w, t )
w u = (y ), Output feedback
= ((y, w ), (y ), t )

u = (x )
x& = f (x, t );
f (x, t ) = f (x, (x ), t ) State feedback

La variabile di controllo u non compare pi in forma esplicita nella dinamica


dello stato, che quindi non autonoma solo per la eventuale presenza del tempo.

I sistemi stazionari con controllo in retroazione vengono solitamente ricondotti


a sistemi autonomi per cui possibile applicare le tecniche di analisi
precedentemente descritte.
Forma normale di un sistema non lineare

La forma canonica con esplicitazione delle dinamiche ingresso-uscita ed interna,


solitamente utilizzata in quanto permette una pi semplice definizione della
legge di controllo

[ ]
y = y, y& , &y&,K, y (r 1) ,
T

y& = A G y + B G (y, w, u , t ); w = [w1 , w2 , K , wn r ]


T

& = (y, w, t )
w x = (y , w ),
= ((y , w ), u , t )
r 1
u = (y,w ) tale che (y,w, u, t ) = ai y (i ) Feedback linearization
i =0

u = (y,w ) tale che (y,w, u, t ) = (y ) Lyapunov approach

In presenza di sistemi perfettamente noti la legge di controllo tende a


cancellare parte della dinamica del sistema.
In presenza di incertezze: tecniche di controllo robusto (high-gain, sliding
modes, etc)

You might also like