You are on page 1of 15

Nociones sobre sistemas de ecuaciones diferenciales

Fernando Peláez Bruno - Curso 2016 de Cálculo III

0.1. Un Modelo de inflación y desempleo

El siguiente ejemplo (sugerido por Gastón Cayssials), está sacado del libro: Métodos Fundamentales
de Economı́a Matemática de Alpha C. Chiang y Kevin Wainwright, capı́tulos 16.5 y 19.4.

Sean p(t) la tasa real de inflación, T una constante positiva que representa el aumento exógeno de la
productividad, U (t) la tasa de desempleo, π(t) la inflación esperada , m > 0 la tasa de emisión (la
controla el Banco Central) y α, β, k constantes positivas, 0 < g ≤ 1, 0 < j ≤ 1.

La siguiente es la denominada relación de Phillips, y está diciendo que hay una relación negativa entre
inflación y la tasa de desempleo:

p(t) = α − T − β U (t) + g π(t)

Se considera cómo se forman las expectativas de inflación, suponiendo en este caso que son adaptativas.
Si la tasa de inflación real p(t) es mayor a la inflaciçon esperada π(t) entonces esta última aumentará:

π ′ (t) = j ( p(t) − π(t) )

La tercera ecuación de este modelo dice que la tasa de desempleo está relacionada negativamente con
la tasa de crecimiento del balance monetario real. Es la regla de politica monetaria.

U ′ (t) = k ( m − p(t) )

Sustituyendo la primera ecuación en las otras dos queda el siguiente sistema:



π ′ (t) = j(g − 1)π(t) − jβU (t) + j(α − T )
U ′ (t) = kgπ(t) − kβU (t) + k(α − T − m)

El problema consiste en hallar las trayectorias para la inflación Π(t) y el desempleo U (t). De hecho,
más que las trayectorias, importa saber si convergen o no. Tenemos un modelo (y problema) de teorı́a
económica que da lugar a un sistema de dos ecuaciones diferenciales (en este caso con coeficientes cons-
tantes), donde están involucradas dos funciones incógnitas π(t) y U (t). Observemos que, en notación
matricial, el sistema puede escribirse de la siguiente manera:
      
π ′ (t) j(g − 1) −jβ π(t) j(α − T )
= +
U ′ (t) kg −kβ U (t) k(α − T − m)

Que es algo de la forma Y ′ = AY + b en donde:


   ′     
π π j(g − 1) −jβ j(α − T )
Y = ,Y = ,A= yb=
U U′ kg −kβ k(α − T − m)

Trataremos entonces de estudiar este tipo de situaciones.


2

0.2. Sistemas Lineales

Llamaremos ecuación lineal de orden 1 en Rn a una ecuación de la forma:

(E) Y ′ = A(t)Y + b(t)

en donde A(t) es una matriz n × n continua y b(t) un vector de Rn continuo, en ambos casos, para
todo t ∈ I, en donde I ⊂ R es un intervalo de la recta real (puede coincidir con todo R).
     
y1 a11 (t) a12 (t) . . . a1n (t) b1 (t)
 y2   a21 (t) a22 (t) . . . a2n (t)   b2 (t) 
Si Y =  .  , A(t) =  .. .. .. y b(t) =  ..
     
 ..  ..  
 . . . .   . 
yn an1 (t) an2 (t) . . . ann (t) bn (t)
es decir, si expresamos ambas funciones matriciales a partir de sus funciones componentes, entonces
la ecuación (E) es equivalente al siguiente sistema de ecuaciones diferenciales escalares:
 ′

 y1 = a11 (t)y1 + a12 (t)y2 + . . . + a1n (t)yn + b1 (t)
 y ′ = a21 (t)y1 + a22 (t)y2 + . . . + a2n (t)yn + b2 (t)

2
..


 .
 ′
yn = an1 (t)y1 + an2 (t)y2 + . . . + ann (t)yn + bn (t)
La continuidad de A(t) y de b(t) en I equivale a decir que tanto los coeficientes aij (t) de la matriz
A(t), como las coordenadas del vector b(t), son funciones continuas de I en R.

Observación 0.2.1. Ecuaciones de orden superior se pueden reducir a sistemas de orden 1


Consideremos la ecuación escalar de orden dos y ′′ + c1 (t)y ′ + c0 (t)y = c(t). Hacemos el “cambio de
variable” u = y , v = y ′ .
Entonces u′ = v y v ′ = y ′′ = −c1 (t)y ′ − c0 (t)y + c(t). La ecuación escalar original (de orden 2) es
equivalente entonces al siguiente sistema de primer orden:
 ′      
u 0 1 u 0
= +
v′ −c0 (t) −c1 (t) v c(t)
Les queda como ejercicio transformar en un sistema de primer orden la ecuación escaar de orden n
siguiente:
y (n) + c1 (t)y (n−1) + c2 (t)y (n−2) + . . . · · · + cn (t)y = c(t)

Teorema 0.2.1. Teorema de existencia y unicidad de soluciones en el caso lineal.(sin de-


mostración).
En las condiciones mencionadas anteriormente se cumple que por cada punto (t0 , Y0 ) ∈ I × Rn pasa
una única solución maximal de (E). Más aún, el intervalo maximal de definición es todo I.
En otras palabras, dados t0 ∈ I y Y0 ∈ Rn , existe una única función ϕ : I −→ R tal que
ϕ′ (t) = A(t)ϕ(t) + b(t) , ∀ t ∈ I , ϕ(t0 ) = Y0

Como es habitual, designemos con (H) a la ecuación homogénea asociada:

(H) Y ′ = A(t)Y
0.3. Sistemas lineales con coeficientes constantes 3

Se cumplen las mismas propiedades que en el caso escalar, como lo establece el siguiente teorema:

Teorema 0.2.2. Estructura del conjunto de soluciones en una lineal.


Si SE es el conjunto de todas las soluciones de (E) y SH el de las soluciones de (H) (todas definidas
en el intervalo I), entonces se cumple que:

1. El conjunto SH es un espacio vectorial de dimensión n. (En particular, cualquier combinación


lineal de soluciones de (H) también es solución de (H)).

2. Para cada solución particular ϕp de (E) se tiene que

SE = ϕp + SH

0.3. Sistemas lineales con coeficientes constantes

Consideraremos ahora el caso en que A(t) = A y b(t) = b son funciones matriciales constantes. En este
caso las soluciones están definidas en todo R y además (como veremos) hay una serie de propiedades
adicionales muy especiales. Mantenemos todas las notaciones anteriores, en particular para la ecuación
completa y su homogénea asociada:

(E) Y′ = A Y + b

(H) Y′ = A Y

Recordemos que en el caso escalar y ′ = ay con a ∈ R la solución general está dada por y(t) = c eat .
Veamos que en el caso matricial ocurre algo similar. Para ello deberı́amos ser capaces de definir la
exponencial de una matriz de modo que preserve las propiedades básicas de una exponencial. Una
(at)k
forma de hacerlo es recordar el desarrollo en serie: y(t) = eat = ∞
P
k=0 k! . Se podrı́a plantear algo
similar en el caso matricial considerando la serie:

tA
X (tA)k
e =
k!
k=0

Con respecto a las operaciones con matrices (producto por escalares y suma de matrices) no hay
inconveniente, pero la aparición de una serie implica el siguiente proceso de paso al lı́mite:
∞ j
X (tA)k X (tA)k
= lı́m
k! j−→+∞ k!
k=0 k=0

que implicarı́a definir cuál es la norma que estarı́amos considerando en el espacio de matrices. No
entraremos en esa cuestión y admitiremos que la serie converge para todo t ∈ R e incluso que es
posible derivar término a término. De ese modo observen que resulta lo siguiente:

!′ ∞  ′ X ∞
X (tA)k X (tA)k k(tA)k−1 A
= = =
k! k! k!
k=0 k=0 k=0
4

∞ ∞
X n(tA)k−1 A X (tA)i
A = A = A etA
(k − 1)! i!
k=1 i=0

Resulta entonces que etA verifica la relación Y = A Y . ′

Ejemplo 0.3.1. El caso de una matriz diagonal.  


λ1 0 ... 0
 0 λ2 . . . 0 
Calculemos la exponencial de una matriz diagonal A =   . Se tiene:
 
.. .. .. ..
 . . . . 
0 0 ... λn

(tλ1 )k
   
tλ1 0 ... 0 0 ... 0
 0 tλ2 . . . 0   0 (tλ2 )k . . . 0 
tJ =  .. .. ..  =⇒ (tJ)k =  .. .. ..  =⇒
   
.. ..
 . . . .   . . . . 
0 0 ... tλn 0 0 ... (tλn )k

(tλ1 )k
 
0 ... 0 etλ1
 
k! 0 ... 0
∞  (tλ2 )k  
0 etλ2 ... 0
tA
X  0 k! ... 0   
e = = .. .. ..


.. .. .. .. .. 

n=0  . . . .
 
 . . . . 
0 0 ... (tλn )k 0 0 . . . etλn
k!

Teorema 0.3.1. Solución general del sistema homogéneo en el caso de coeficientes cons-
tantes.
Si etA es la función matricial definida por

X (tA)k
etA = , t ∈ R.
k!
k=0

entonces:

etA C / C ∈ Rn .

1. El conjunto de soluciones de (H) es

2. El conjunto de soluciones de (H) que pasa por (0, Y0 ) es Y (t) = etA Y0

3. La j-ésima columna de etA es la solución de (H) que en t = 0 pasa por ej (j-ésimo vector de la
base canónica de Rn ).

Ejemplo 0.3.2. Volviendoal caso de una matriz diagonal.


λ1 0 . . . 0
 0 λ2 . . . 0 
Si A =  . .. . . ..  entonces los cálculos desarrolados en el ejemplo anterior para calcular
 
 .. . . . 
0 0 . . . λn
etA no son necesarios. En efecto, en ese caso el sistema (H) queda:
 ′

 y1 = λ1 y1
 y ′ = λ2 y2

2
..


 .
 ′
yn = λn yn
0.3. Sistemas lineales con coeficientes constantes 5

O sea, las ecuaciones quedan desacopladas y sabemos encontrar la solución general de cada una de
ellas: 

 y1 (t) = c1 eλ1 t
 y2 (t) = c2 eλ2 t

..


 .
yn (t) = cn eλn t

Observen que la constante ck vale ck = yk (0).

Observación 0.3.1. Transformación del sistema en otro más sencillo.


Como vimos en el ejemplo anterior, cuando A es diagonal, las soluciones del sistema homogéneo son
inmediatas. Imaginemos que A no es diagonal pero que es diagonalizable. En ese caso existen matrices
n × n, P invertible y J diagonal, tales que P −1 AP = J. La última relación es equivalente a las
siguientes:
P −1 AP = J ⇐⇒ AP = P J ⇐⇒ A = P JP −1
En este caso se dice que A es semejante a una matriz diagonal. Recordemos también que en este caso
existe una base de Rn formada por vectores propios de A. Si V = {v1 , v2 , . . . , vn } es una base de Rn
formada por vectores propios de A y λ1 , λ2 , . . . , λn son los correspondientes valores propios (esto es:
A.vi = λi vi , i = 1, 2, . . . , n), entonces una matriz P que diagonaliza a A estiene en sus columnas
 a
λ1 0 · · · 0
 0 λ2 · · · 0 
los vectores propios v1 , ..., vn y la correspondiente matriz diagonal es J =  . .. . . . 
 
 .. . . .. 
0 0 · · · λn

Observemos también que de A = P JP −1 resulta Ak = P J k P −1 y, por lo tanto, etA = P etJ P −1

Ahora bien, si hacemos el cambio de variable X = P −1 Y (que es lo mismo que Y = P X) entonces


tenemos
Y ′ = AY ⇐⇒ P X ′ = AP X ⇐⇒ X ′ = P −1 AP X ⇐⇒ X ′ = JX
Mediante este cambio de variable hemos transformado la ecuación original (H) Y ′ = AY en otra muy
sencilla que sabemos resolver, que es la ecuación (Hf ) X ′ = JX donde J es una matriz diagonal. (El
subı́ndice f en Hf es de “fácil”). Se podrı́a entonces resolver (Hf ) obteniendo X(t) y luego deshacer
el cambio de variable (mediante Y = P X) para obtener las soluciones Y (t) de (H).

Vale la pena observar que X = P −1 Y puede pensarse como un cambio de coordenadas. Si Y es el vector
de las coordenadas de un punto en la base canónica de Rn entonces X es el vector de las coordenadas
del mismo punto en la base constituida por los vectores de P . En esta observación no interviene para
nada el hecho de que A sea diagonalizable o no. Solo se usa que la matriz P es invertible.

Si estamos interesados en estudiar el comportamiento dinámico de las soluciones de (H), vamos a


poder hacerlo hacerlo sin necesidad de resolverlo (evitándonos de esa manera el cuenterı́o), teniendo
en cuenta que el comportamiento dinámico de una solución Y (t) de (H) es el mismo que el de la
correspondiente solución X(t) de (Hf ). Por ejemplo, si 0 es asintóticamente estable en (H) también lo
será en (Hf ) y recı́procamente. Esto se debe a que hemos hecho un cambio de variable lineal o, dicho
de otra manera, estamos mirando lo mismo desde diferentes sistemas de coordenadas.

Cuando la matriz A no es diagonalizable, también es posible encontrar una matriz J, semejante a A, y


que sea lo más “sencilla” posible. Esta J es una “forma canónica de Jordan” de A. Aplicaremos estas
ideas al caso de sistemas 2 × 2, pero veamos antes un ejemplo:
6


Ejemplo
  Estudiemos el comportamiento de las soluciones del sistema Y = AY siendo siendo
0.3.3.
3 1
A= .
1 3
Esta matriz es simétrica y por lo tanto diagonalizable. Más aún, es posible encontrar una base de
vectores propios ortogonales. El polinomio caracterı́stico de A es λ2 − 6λ + 8, de donde los valores
propios son λ1 = 4 y λ2 = 2. Hallando los vectores propios obtenemos que una base de R2 formada por
vectores propios de A, asociados respectivamente a dichos valores propios es, por ejemplo, V = {v1 , v2 }
siendo    
1 1
v1 = , v2 =
1 −1
   
1 1 4 0
Resulta que las matrices P = yJ = verifican la relación P −1 AP = J. Haciendo
1 −1 0 2
el cambio de variable X = P −1 Y llegamos a la ecuación X ′ = JX que queda:
 ′      ′
x1 4 0 x1 x1 = 4 x1
′ = ⇐⇒
x2 0 2 x2 x′2 = 2 x2

La solución general es la siguiente:


x1 (t) = x1 (0) e4t


x2 (t) = x2 (0) e2t


Algunas soluciones especiales son las que pasan por los puntos de los ejes x1 y x2 . Por ejemplo, para
~ 2 ) la solución es:
x1 (0) = 0 y x2 (0) > 0 (o sea un punto del lado positivo del eje Ox

x1 (t) = 0
x2 (t) = x2 (0) e2t

cuya gráfica es la semirecta “positiva del eje Ox~ 2 . Lo mismo ocurre en el otro eje. Para ver el com-
portamiento de las soluciones que no pasan por puntos de los ejes podemos eliminar t de la siguiente
manera:
x1 (t) x1 (0)
(x2 (t))2 = (x2 (0))2 e4t =⇒ 2 = =⇒ x1 (t) = cte (x2 (t))2
(x2 (t)) (x2 (0))2
O sea que las trayectoprias son arcos de parábola.

x2

x1
0.4. Sistemas 2 por 2 con coeficientes constantes. 7

Volviendo a mirar las ecuaciones paramétricas de las soluciones vemos en este caso que ambas com-
ponentes tienden a infinito cuando t −→ +∞ (debido a que ambos valores propios son positivos). El
origen será un punto de equilibrio inestable tanto para (Hf ) como para (H). En la siguiente gráfica
se muestra el comportamiento de las soluciones de X ′ = JX en el plano x1 , x2 .

En la siguiente gráfica se muestra el comportamiento de las soluciones de Y ′ = AY en el plano y1 , y2 .

y2

y1

0.4. Sistemas 2 por 2 con coeficientes constantes.

 
a11 a12
Estudiaremos ahora el sistema Y ′ = AY el caso n = 2, es decir, para una matriz A = .
a21 a22
Supondremos que det(A) 6= 0 de modo que el único punto de equilibrio de Y ′ = AY es Y = 0.

CASO (I) A diagonalizable.

Sean V = {v1 , v2 } base de R2 formada por vectores propios de A, λ1 , λ2 los correspondientes


valores propios (esto es: A.vi = λi vi , i = 1, 2). Entonces
 tomando
 P = MV (sus columnas son
λ1 0
los vectores propios v1 , v2 y la matriz diagonal J = se cumple que
0 λ2

P −1 AP = J ⇐⇒ AP = P J ⇐⇒ A = P JP −1

Mediante el cambio de variable X = P −1 Y pasamos de la ecuación original (H) Y ′ = AY a la


ecuación (Hf ) X ′ = JX. Si pensamos que Y es el vector de las coordenadas de un punto en la
8

base canónica de Rn entonces X es el vector de las coordenadas del mismo punto en la base V .

El sistema (Hf ) X ′ = JX queda


 ′      ′
x1 λ1 0 x1 x1 = λ1 x1
′ = ⇐⇒
x2 0 λ2 x2 x′2 = λ2 x2

La solución general es la siguiente:

x1 (t) = x1 (0) eλ1 t




x2 (t) = x2 (0) eλ2 t

Estas soluciones tienen diferente comportamiento según cómo sean λ1 y λ2 . Un estudio de las
funciones en cada una de las situaciones da lugar a los siguientes resultados.

(I,1) Los valores propios son diferentes: λ1 6= λ2 .

1. (I,1.a) λ2 < λ1 < 0. Se trata de un nodo asintóticamente estable.


2. (I,1.b) λ2 > λ1 > 0. Se trata de un nodo inestable.
3. (I,1.c) λ2 > 0 > λ1 .

En clase hicimos las gráficas (en el plano x1 , x2 ) del comportamiento de las soluciones de X ′ =
JX.

Las siguientes figuras muestran (en el plano y1 , y2 ) el comportamiento de las soluciones de


Y ′ = AY para los casos (I,1.a) (izquierda) y (I,1.b) (derecha):
0.4. Sistemas 2 por 2 con coeficientes constantes. 9

Las siguientes figuras muestran (en el plano y1 , y2 ) el comportamiento de las soluciones de


Y ′ = AY para el caso (I,1.c)

(I,2) hay un solo valor propio λ1 = λ2 = λ. (Como es diagonalizable la multiplidad algebraica y


la geométrica coinciden y valen 2). Observen que en este caso las trayectorias son rectas.

1. (I,2.a) λ < 0. Se trata de un nodo estelar asintóticamente estable.


2. (I,2.b) λ > 0. Se trata de un nodo estelar asintóticamente inestable.

En la siguiente figura se muestra (en el plano y1 , y2 ) el comportamiento de las soluciones de


Y ′ = AY para los casos (I,2.a) (izquierda) y (I,2.b) (derecha)
10

CASO (II) A NO es diagonalizable.

(II,1) Hay un solo valor propio λ1 = λ2 = λ. (Como NO es diagonalizable la multiplidad


algebraica vale 2 y la geométrica vale 1, es decir, dim N (A − λI) = 1).

En este
 caso  se puede demostrar (forma de Jordan) que la matriz A es semejante a la matriz
λ 1
J= . O sea, existe una matriz invertible P tal que P −1 AP = J.
0 λ
Se hace entonces el mismo cambio de variable que antes X = P −1 Y con el mismo razonamiento
que en el caso diagonalizable.

El sistema (Hf ) X ′ = JX queda


 ′      ′
x1 λ 1 x1 x1 = λ x1 + x2
= ⇐⇒
x′2 0 λ x2 x′2 = λ x2

La solución general es la siguiente:

x1 (t) = (x1 (0) + x2 (0)t) eλt




x2 (t) = x2 (0) eλt

1. (II,1.a) λ < 0. Se trata de un nodo asintóticamente estable de una tangente.


2. (II,1.b) λ > 0. Se trata de un nodo inestable de una tangente.

En la siguiente figura se muestra (en el plano y1 , y2 ) el comportamiento de las soluciones de


Y ′ = AY para los casos (II,1.a) (izquierda) y (II,1.b) (derecha)
0.4. Sistemas 2 por 2 con coeficientes constantes. 11

(II,2) NO hay valores propios reales.


 
α β
En este caso se puede demostrar que la matriz A es semejante a la matriz J = .
−β α
O sea, existe una matriz invertible P tal que P −1 AP = J. Se hace entonces el mismo cambio de
variable que antes X = P −1 Y con el mismo razonamiento que en el caso diagonalizable.

El sistema (Hf ) X ′ = JX queda


 ′      ′
x1 α β x1 x1 = α x1 + βx2
′ = ⇐⇒
x2 −β α x2 x′2 = −βx1 + α x2

La solución general es la siguiente:

x1 (t) = eαt [ x1 (0)cos(βt) + x2 (0)sen(βt) ]




x2 (t) = eαt [x2 (0)cos(βt) + x1 (0)sen(βt) ]

1. (II,2.a) α = 0. Las soluciones son circunferencias. Se trata de un nodo estable no asintóti-


camente estable.
2. (II,2.b) α < 0. Se trata de un nodo asintóticamente estable.
3. (II,2.c) α > 0. Se trata de un nodo inestable.

En la siguiente figura se muestra (en el plano y1 , y2 ) el comportamiento de las soluciones de


Y ′ = AY para los casos a, b y c. Atenti que en el (a) ahora no son circunferencias, je.
12

Observación 0.4.1. Estudio de la estabilidad del 0 en Y ′ = AY


La discusión previa nos permite sacar las siguientes conclusiones sobre el comportamiento del punto
de equilibrio Y = 0 en el sistema Y ′ = AY , con det(A) 6= 0.

Si todos los valores propios de A (reales o complejos) tienen parte real negativa entonces 0 es
asintóticamente estable.

Si algún valor propio de A tiene parte real positiva entonces 0 es inestable.

Si los valores propios son imaginarios puros (parte real nula) entonces 0 es estable pero NO
asintóticamente estable.
 
′ −2 3
Ejemplo 0.4.1. estudiemos la estabilidad del 0 en Y = AY siendo A = .
−3 −2
El polinomio caracterı́stico de A es λ2 + 4λ + 13. No hay valores propios reales, pero en el campo
complejo las raı́ces de esa ecuación son
√ √
−4 ± −36 −4 ± i 36
= = −2 ± 3i
2 2
Todos los valores propios tienen parte real negativa y por lo tanto 0 es asintóticamente estable.

Observación 0.4.2. Recordando algunas cuestiones sobre raı́ces de un polinomio de se-


gundo grado.
Puede ser útil tener en cuenta las siguientes consideraciones:

El polinomio caracterı́stico de una matriz A 2 × 2 se puede expresar en la forma: λ2 − tr(A)λ +


det(A)

Si p y q son las raı́ces (reales o complejas) del polinomio λ2 + bλ + c entonces

p + q = −b , p.q = c

De las anteriores se deduce que la suma de los valores propios (reales o complejas) de A coincide
con la tr(A) y que el producto de dichos valores propios con el det(A).

Cuando las raı́ces son reales tenemos:


a) Si det(A) > 0 entonces ambas raı́ces son del mismo signo. Ambas positivas si tr(A) > 0 y
ambas negativas si tr(A) < 0. b) Si det(A) < 0 entonces hay una raı́z positiva y otra negativa.

Cuando las raı́ces son complejas entonces aparecen como complejos conjugados (recuerden que
las entradas de la matriz para nosotros siempre son reales). Si una es α + βi entonces la otra es
α − βi. En este caso se tiene:

tr(A) = 2α , det(A) = α2 + β 2

Resulta que en este caso det(A) > 0 y el signo de la parte real de las raı́ces coincide con el signo
de tr(A).

Concluimos que el 0 será asintóticamente estable en Y ′ = AY si, y solo si, det(A) > 0 y tr(A) < 0
(no importa si los valores propios son reales o complejos).
0.4. Sistemas 2 por 2 con coeficientes constantes. 13

EJERCICIOS:

1. En el modelo introductorio sobre inlación y desempleo estudiar si son convergentes las trayecto-
rias para la inflación Π(t) y el desempleo U (t).

2. En cada uno de los siguientes casos se considera el sistema Y ′ = A.Y y se te pide:

Sin resolver el sistema, estudiar la estabilidad del punto de equilibrio Y = 0.


Sin resolver el sistema, dibujar el plano de fases correspondiente (en el caso en que no sea
diagonalizable dibuja simplemente el comportamiento de las soluciones de (Hf ).

       
−1 4 5 −3 1 −4 0 1
A= A= A= A=
−2 5 6 −4 2 −5 −1 2
       
2 1 −1 8 −5 3 2 −3
A= A= A= A=
3 4 1 1 −2 2 1 −2

     
−5 −3 4 −2 0 3
A= A= A=
3 1 2 0 −3 9

       
3 −4 −3 2 5 −3 3 −2
A= A= A= A=
2 −1 −1 −1 3 1 5 −3

Atención que en los siguientes algún valor propio es nulo

       
10 4 −6 2 1 1 1 −1
A= A= A= A=
−5 −2 −15 5 1 1 1 −1

3. Estudiar la estabilidad de las soluciones de:

m y ′′ + c y ′ + k y = 0 , m, c, k > 0.
14

0.5. Una idea sobre la teorı́a general

Sean Ω un conjunto abierto y conexo de R × Rn y f : Ω −→ Rn una función continua. Estos datos


conducen a la ecuación diferencial (vectorial)

(E) Y ′ = f (t, Y )

Una solución de la ecuación diferencial es una función derivable ϕ : I −→ Rn , definida en un intervalo


abierto (finito o infinito) I ⊂ R, que verifica la igualdad:

ϕ′ (t) = f (t, ϕ(t)) , ∀ t ∈ I.

A veces, para explicitar el dominio, denotaremos (I; ϕ) a una solución definida en el intervalo I.

Si Y = (y1 , y2 , . . . , yn ) y f = (f1 , f2 , . . . , fn ) (es decir, si expresamos ambas funciones vectoriales a


partir de sus funciones componentes), entonces la ecuación (E) es equivalente al siguiente sistema de
ecuaciones diferenciales escalares:
 ′

 y1 = f1 (t, y1 , y2 , . . . , yn )
 y ′ = f2 (t, y1 , y2 , . . . , yn )

2
.
.


 .
 ′
yn = fn (t, y1 , y2 , . . . , yn )

Manteniendo las mismas notaciones y supuestos tenemos el siguiente resultado:

Teorema 0.5.1. Un Teorema de Existencia y Unicidad de soluciones. (sin demostración).


Si f : Ω −→ Rn es de clase C 1 (en realidad esta hipótesis puede debilitarse), entonces para cada punto
(t0 , Y0 ) ∈ Ω existe una única solución maximal (I; ϕ) de la ecuación diferencial (E), definida en un
intervalo I que contiene a t0 como punto interior, y tal que ϕ(t0 ) = Y0 .
En otras palabras, por cada punto (t0 , Y0 ) ∈ Ω pasa una única solución maximal de (E).

Teorema 0.5.2. Estabilidad de puntos de equilibrio de ecuaciones autónomas - Linealiza-


ción. (sin demostración).
Sean Ω un conjunto abierto y conexo de Rn , F : Ω −→ Rn una función de clase C 1 y la ecuación
autónoma (E) Y ′ = F (Y ) . Supongamos que Y0 es un punto de equilibrio de esta ecuación (F (Y0 ) = 0).
Sea JFY0 la matriz jacobiana de F es Y0 . Entonces se cumple lo siguiente:

Si todos los valores propios de JFY0 tiene parte real negativa entonces Y0 es asintóticamente
estable en (E).

Si algún valor propio de JFY0 tiene parte real positiva entonces Y0 es inestable en (E).
0.5. Una idea sobre la teorı́a general 15

y1′ = −2y1 + y23



Ejemplo 0.5.1. Consideremos la ecuación (sistema) no lineal que se puede
y2′ = −4y2 + sen2 (y1 )
escribir como Y ′ = F (Y ) siendo

−2y1 + y23
   
y1
F (Y ) = F =
y2 −4y2 + sen2 (y1 )

Obviamente (0, 0) es punto de equilibrio. Estudiemos su estabilidad. Se tiene:

3y22
   
−2 −2 0
JF(y1 ,y2 ) = =⇒ JF(0,0) =
2sen(y1 )cos(y1 ) −4 0 −4

Se deduce que (0, 0) es asintóticamente estable en el sistema original.

Observación 0.5.1. Si todos los valores propios de JFY0 tiene parte real menor o igual a 0, y al
menos uno de ellos tiene parte real nula entonces no puede asegurarse nada sobre la estabilidad del
punto de equilibrio en la ecuación original a partir de la linealización de la ecuación. En efecto, veamos
un ejemplo sencillo en el caso escalar:

El punto y = 0 es asintóticamente estable en la ecuación y ′ = −y 3 (no dejes de verificarlo).

El punto y = 0 es inestable en la ecuación y ′ = y 2 (no dejes de verificarlo).

Sin embargo, en ambos casos la ecuación linealizada es y ′ = 0. aquı́ el origen es estable pero no
asintóticamente estable.

Ejercicio 0.5.1. El origen es punto de equilibrio de los siguientes sistemas. Estudiar su estabilidad.

y1 = −y1 + y13 − y23 y1 = 2y1 + y22 + y1 y2 y1 = ey1 +y2 − 1


 ′  ′  ′
′ 4
y2 = 5y2 − y1 ′ 5
y2 = y1 − 3y2 y2′ = sen(y1 + y22 )

You might also like