You are on page 1of 20

lgebra II

Mara Ins Parnisari


3 de enero de 2012

ndice
1. Revisin de Matrices

2. Espacios Vectoriales

3. Producto Interno

4. Proyecciones y Matrices de Proyeccin

5. Transformaciones Lineales

10

6. Autovalores y Autovectores

11

7. Diagonalizacin de Matrices Hermticas, Formas Cuadrticas, DVS

13

8. Ecuaciones Diferenciales

17

9. Sistemas de Ecuaciones Diferenciales Lineales

19

1 Revisin de Matrices
z n = a = z =

p
n

|a| ei(

2k+arg(a)
n

k = 0, 1, . . . , n 1

con

e(a+ib)t = ea (cos(bt) + i sin(bt))

1.1 Propiedades de las matrices


1

(AB) = B 1 A1
1
T
AT
= A1
T

(A + B) = AT + B T
T

(AB) = B T AT
A1 =

1
det(A) adj(A)

1.2 Propiedades de los determinantes


Sean

A, B Rnn :

1.

det(AT ) = det(A),

2.

det(AB) = det(A) det(B),

3. Si una la de
4. Si dos las de
5. Si una la de

se suma a

A
A

la) para producir una matriz

se intercambian de lugar para producir


se multiplica por

6. Si toda la matriz
7. Si

k(otra

para producir

se multiplica por

es una matriz triangular,

Qn

i=1

B , det (B) = det(A),

B , det (B) = k det (A),

para producir

det (A) =

B , det(B) = det(A),

B , det (B) = k n det(A),

aii .

1.3 Espacios la, nulo y columna de matrices


Sea

A Rnm .

Espacio nulo: N ul(A) = {x Rm : Ax = 0}


Espacio columna: Col(A) = {b Rn : Ax = b para alguna x}
Espacio la: F il(A) = {x Rm : x es combinacin lineal de las las de A}
Propiedades:

nul(A) = nul(AT A) = (f il(A))


nul(AT ) = nul(AAT ) = (col(A))
rg(A) = rg(AT A),

con lo cual

AT A

es inversible

dim (col(A)) = dim (f il(A))


col(A) col(A) = Rn
f il(A) f il(A) = Rm
rg(A) + dim (nul(A)) = m
Sean

A Knm

B Krn ,

entonces:

es inversible

Col (BA) Col(B)

rg (A) = n)

(son iguales si

N ul (A) N ul (BA)

(son iguales si

Si

rg (A) = n rg (BA) = rg (B)

Si

rg (B) = n rg (BA) = rg(A)

rg (B) = n)

Col (A) Col (B) AT B = 0

1.4 Matrices equivalentes y semejantes


Matrices equivalentes: dos matrices A y B son equivalentes si existen otras dos matrices E y F regulares tal
que

A = EBF .

Dos matrices equivalentes pueden pensarse como dos descripciones de una misma TL, pero con

respecto a bases distintas.

Matrices semejantes: dos matrices cuadradas A y B son semejantes (notamos A B) si y solo si existe una
matriz P inversible tal que

B = P 1 AP

A = P BP 1 .

Dos matrices semejantes pueden pensarse como dos

descripciones de un mismo operador lineal, pero con respecto a bases distintas. Estas dos matrices cumplen que:

1.

det(A) = det(B)

2.

tr (A) = tr(B)

3.

rg (A) = rg(B)

4.

pA () = pB () = (A) = (B)

2 Espacios Vectoriales
Espacio

Dimensin

R
n
CC
n
CR
nm
K
Pn
C[a, b]

n
n
2n
nm
n+1

2.1 Propiedades de los subespacios



S

es un subespacio vectorial del espacio

VK

0V S
(x + y) S x, y V

2.2 Independencia lineal


Combinacin lineal: El vector x es una combinacin lineal de v1 , v2 , . . . , vq
a1 , a2 , . . . , aq

si

x = 1 v1 + 2 v2 + . . . + q vq

no son todos nulos.

Independencia lineal: x es LI si 0 = 1 v1 + 2 v2 + . . . + q vq

a1 = a2 = . . . = aq = 0.

si son proporcionales. Un subconjunto de un conjunto LI sigue siendo LI.

Dos vectores son LD

2.3 Operaciones con subespacios


Sean

S1 , S2 , . . . , Sq

subespacios de

V.

1.

Interseccin: S =

2.

Suma: S =

3.

Unin: S = S1 S2 es un subespacio cuando S1 S2 S2 S1 .

4.

Suma directa: S1 , S2 , . . . , Sq

Tq

Si = {x V : x Si i = 1, . . . , q}.
Sm
i=1 Si = gen{ i=1 Bi }, donde Bi es base de Si .
i=1

Pn

estn en suma directa

la unin de sus bases es base de

Dos subespacios son suplementarios cuando estn en suma directa y su suma es todo el espacio.

2.4 Bases

Si

dim(V) = n, {v1 , . . . , vn } V

es base de

{v1 , . . . , vn } genera V
{v1 , . . . , vn } es LI

2.5 Coordenadas de un vector en una base


{v1 , v2 , . . . , vn }
(1 , 2 , . . . , n ).

Si

es base de un espacio vectorial

x = 1 v1 + 2 v2 + . . . + n vn ,

entonces

CB (x) =

Dado un vector y una base, las coordenadas de ese vector en esa base son nicas.


v, w V

k K :

{v1 , v2 , . . . , vr }

es LI

CB (v + w) = CB (v) + CB (w)
CB (k v) = k CB (v)

{CB (v1 ) , CB (v2 ) , . . . , CB (vr )}

es LI para cualquier base B.

2.6 Matriz de pasaje


Sean

B = {v1 , v2 , . . . , vn }

C = {w1 , w2 , . . . , wn } bases del espacio V. Las matrices

|
|
|
CBC = CC (v1 ) CC (v2 ) CC (vn )
|
|
|

CCB
Adems: si

|
|
= CB (w1 ) CB (w2 )
|
|

son bases ortonormales, entonces

CBC

de cambio se base son:

|
1
CB (wn ) = CBC
|

es una matriz ortogonal.

2.7 Teorema de la dimensin


dim(S + H) = dim(S) + dim(H) dim(S H)
dim(S + H + T ) = dim(S) + dim(H) + dim(T ) dim (S (H + T )) dim(H T )

3 Producto Interno
3.1 Axiomas
Sea

< , >: VK VK R

un producto interno.

x, y V

1.

< x, y > K

2.

< x, y >=< y, x > x, y V

3.

< x, y >= < x, y > x, y V

4.

< x, y >= < x, y > x, y V

5.

< x, y + z >=< x, y > + < x, z > x, y, z V

6.

< x, x >= 0 x V

(si

< x, x >= 0

entonces

x = 0)

3.2 Productos internos cannicos (PIC)


En

Rn : < x, y >= xT y

En

C n : < x, y >= xH y

En

Rnm : < A, B >= tr(AT B)

En

C nm : < A, B >= tr(AH B)


b
PR [a, b] : < p, q >= a p(t)g(t) dt
b
PC [a, b] : < p, q >= a p(t)g(t) dt
b
CR [a, b] : < f, g >= a f (t)g(t) dt
b
CC [a, b] : < f, g >= a f (t)g(t) dt

En
En
En
En

3.3 Deniciones
Ortogonalidad: < x, y >= 0 xy.
Norma de un vector : |x|2 =< x, x >. La norma depende del producto interno.
Propiedades de la norma:
1.

|x| R x V

2.

|x| 0 (|x| = 0 x = 0)

3.

|k x| = |k| |x|

4. Desigualdad de Cauchy-Schwarz:
5. Desigualdad triangular:

| < x, y > | |x| |y|, x, y VK .

es paralelo a

y.

|x + y| |x| + |y|.

6. Teorema de Pitgoras: si

|x + y| = |x| + |y| . La recproca slo




2
2
2
2
|x + y| + |x y| = 2 |x| + |y| , x, y V.

xy

7. Identidad del paralelogramo:

entonces

ngulo entre dos vectores: cos() =

<x,y>
|x||y| con

[0, ], x, y 6= 0,

Complemento ortogonal de un conjunto en un EPI:


A}.

Son iguales si

Sea

vale para

R.

EPI real.

A VK . A = {x VK : < x, y >= 0 y

Para el clculo del complemento ortogonal a un subespacio de dimensin nita, alcanza con exigir la

ortogonalidad a un sistema de generadores.

Funcin distancia: d : VR VR R+ : d (x, y) = |x y| = |y x|


5

3.4 Matriz asociada a un PI


Sea

B = {v1 , v2 , . . . , vq }

base de

(VK , ).

Entonces

G Kqq , gij =< vi , vj >

|v1 |
(v1 , v2 )
2
(v2 , v1 )
|v2 |

G=
.
.
..
.
.

.
.
.
(vq , v1 )

(vq , v2 )

es la matriz del producto interno:

(v1 , vq )
(v2 , vq )

.
.

.
2

|vq |

Propiedades:

gii > 0 i = 1, 2, . . . , q.
GH = G.
G

es denida positiva.

G1 .

3.5 Expresin matricial de un PI


Si

es base de

VK

es la matriz del PI en esa base, entonces

x, y V :

H
< x, y >= CB
(x) G CB (y)
Propiedades:

La matriz de un PI en una BOG es una matriz diagonal.


La matriz de un PI en una BON es la matriz identidad.

3.6 La mejor aproximacin en EPIs


Sea V un espacio vectorial de funciones, y W un subespacio de V. Si se quiere aproximar f V con
g W, la mejor aproximacin ser la proyeccin ortogonal de f sobre el subespacio W.

4 Proyecciones y Matrices de Proyeccin


Sea

SV

su complemento ortogonal, entonces

x V:

.
.
x = |{z}
u + |{z}
v = PS (x) + PS (x)
S

4.1 Propiedades de la proyeccin


PS (x)

es el vector de

|PS (x)| |x|

ms prximo a

x.

PS (w) = 0 w S .

2
2
2
|x| = |PS (x)| + PS (x) x V.

PS (v) = v v S
Por Pitgoras:

(si

y adems

|PS (x)| = |x|

entonces

x S)

d (x, S) = |PS (x)|

una funcin

4.2 Expresin de la proyeccin y la reexin


Sea

un subespacio de

V,

B = {v1 , v2 , . . . , vq }

una BOG de

S.

Entonces

x V:

. X < vi , x >
PS (x) =
vi
< vi , vi >
i=1
RS (x) = 2PS (x) x = PS (x) PS (x) = x 2PS (x)

4.3 Proyecciones y TLs



Sea

Im (PS ) = S
N u (PS ) = S

T : VK VK una transformacin lineal tal que

y sea

B = {v1 , v2 , . . . , vq , vq+1 , vq+2 , . . . , vn }


|
{z
} |
{z
}
S

una base de

V,

entonces la matriz de la TL es:

[PS ]B =

1
..

0
.
.
.

1
0
.
.
.

..

(tantos 1 como la dimensin del espacio sobre el cual proyecto, y tantos 0 como la dimensin del complemento
ortogonal)
Nota: la matriz de un operador proyeccin en una BON es una matriz de proyeccin. En cualquier otra base,
no lo es.

4.4 Reexiones y TLs



Sea

: VK VK

una

TL

{v1 , v2 , . . . , vq , vq+1 , vq+2 , . . . , vn }


|
{z
} |
{z
}
S

tal

que

una base de

T (v) = v, v S
T (v) = v, v S
V, entonces la matriz

sea

B =

de la TL es:

[T ]B =

1
..

0
.
.
.

1
1
.
.
.

..

Figura 1: Proyeccin y reexin.

(tantos

como la dimensin del espacio sobre el cual reejo, y tantos

como la dimensin del complemento

ortogonal)

4.5 Matriz de Householder


La matriz de reexin sobre un subespacio de dimensin
dimensin

n1

que es ortogonal a un vector

se puede obtener mediante la expresin:

H = Id 2
Propiedades de la matriz de Householder:

wwT
wT w

en un espacio de

H H = Id .

Es involutiva:
Es simtrica:

HT = H.

Es inversible:

H 1

Es ortogonal:

H T H = HH T = Id.

H 1 = H

4.6 Rotaciones en R3
Sea

B = {v1 , v2 , v3 }

una BON de

R3

y sea

la rotacin de

1
[T ]B = 0
0

grados alrededor del eje

v1 .

0
0
cos() sin()
sin() cos()

4.7 Proceso Gram-Schmidt


Dada una base

{x1 , x2 , . . . , xp }

para un subespacio

de

Rn ,

dena:

v1 = x 1
v2 = x 2

x2 .v1
v1 .v1

v1

vp = x p

xp v1
v1 v1

v1

Entonces

{v1 , v2 , . . . , vp }

xp v2
v2 v2

v2 . . .

es una BOG para

xp vp1
vp1 vp1

vp1

W.

4.8 Matrices de Proyeccin


Trabajamos con el producto interno cannico y sobre

P Knn

C.

P2 = P
PH = P


es una matriz de proyeccin

Kn , K= R

Propiedades:

col(P ) = nul(P )
P y = y y col(P )
Si

PS

es matriz de proyeccin sobre

Las columnas de

PS

es matriz de proyeccin sobre

entonces

PS + PS = Id

son una base del espacio sobre el cual proyectan.

rg(P ) = tr(P )
det(P ) 6= 0
Si
y

si

P 6= Id

P1 y P2 son matrices de proyeccin,


rg(P1 + P2 ) = rg(P1 ) + rg(P2 )

P1 P2 = P2 P1 = 0,

entonces

P 1 + P2

es matriz de proyeccin

Obtencin de la matriz de proyeccin:

Sea

Q una matriz cuyas columnas son una BON de S V. Entonces


la nica

[PS ] = QQT . La matriz de proyeccin sobre S es PS = Id [PS ]

matriz de proyeccin sobre

es

Sea

B = {v1 , v2 , . . . , vq }

una base de

nica matriz de proyeccin sobre

S,

la matriz que tiene por columnas a

se obtiene mediante

[Ps ] = A A A

1

v1 , v2 , . . . , vq .
= AA#

Entonces la

4.9 Inversas y pseudoinversas


Pseudoinversa: Sea A Knq

tal que

rg (A) = q .

La matriz pseudoinversa de

es

A# = (AH A)1 AH

Propiedades:

Si

es cuadrada e inversible,

A1 = A#

A# Rqn
A# A = Id(q)
AA# = [P ]Col(A)


N ul AA# = [Col (A)]

4.10 Cuadrados mnimos


A Knq , x Kq , b Rn . Si Ax = b
entonces b Col(A). Si b
/ Col (A), intentamos

Sea

tiene una solucin exacta,


hallar una solucin

x
Kq

(la solucin por cuadrados mnimos) tal que:

|A
x b| < |Au b| u Kq ,
d (A
x, b) d(Au, b) u Kq ,
|A
x| |b|

Figura 2: Cuadrados mnimos.

b Col (A)),

(son iguales si

Ecuaciones normales de cuadrados mnimos:

A
x = b = PColA (b)

AT A
x = AT b

A
x Col(A)

b A
x Col (A)

Observaciones:

1. Si

x
=0

entonces

b [Col (A)]

. La recproca solo es cierta si

es inversible.

A son LI, la solucin por cuadrados mnimos es nica y se obtiene mediante x


=
T
T
A b = A b. Si las columnas de A son LD, el sistema A A
x = A b tiene innitas soluciones, y
de la forma x
=x
p + x
n .
|{z}

2. Si las columnas de

A A

1

stas son

N ul(A)

3. Si

b Col(A),

Ax = b




b b .

entonces toda solucin de

4. El error de aproximacin

es igual a

es una solucin exacta y por cuadrados mnimos.

4.11 Regresin lineal


Sean los puntos

Pi = (xi , yi )

con

i = 1, 2, . . . , n.

La recta que mejor aproxima a los puntos es

coecientes

se obtienen resolviendo el sistema

1
1

..
.
1

x1
y1

 y
x2

2
= .
.
.

..
.
xn
yn

y = + x,

y los

por cuadrados mnimos.

4.12 Solucin por cuadrados mnimos de norma mnima


La solucin por cuadrados mnimos de norma mnima pertenece al espacio
siendo

la pseudoinversa de Moore-Penrose de

A.

F il(A)

y se obtiene como

x
= A+ b,

5 Transformaciones Lineales
Sea

T L(VK , WK )

A = [T ]BC

con

base de

base de

la matriz de

T.

5.1 Condiciones de TLs


1.

T (u + v) = T (u) + T (v)

2.

T ( u) = T (u)

3.

T (0VK ) = 0WK .

con

u, v V.

con

u VK

K.

5.2 Ncleo e imagen


Ncleo: N u (T ) = {v VK : T (v) = 0W } = CB1 (N ul (A)). Es un subespacio.
Imagen: Im (T ) = {w WK : T (v) = w con v VK } = CC1 (Col (A)). Es un subespacio.
La imagen de una TL puede obtenerse como lo que generan los transformados de una base del espacio de partida.

Teorema de la dimensin: Sea T

L(V, W)

y sea

dim (V) = n

(nita). Entonces:

dim(V) = dim (N u(T )) + dim (Im(T ))

5.3 Clasicacin de TLs


5.3.1 Inyectividad (monomorsmo)
Una TL es inyectiva si verica:
Una TL es inyectiva

v1 6= v2 = T (v1 ) 6= T (v2 ) v1 , v2 V.

N u (T ) = {0V } dim (Im(T )) = dim (V)

Una TL inyectiva transforma conjuntos LI a conjuntos LI. La recproca tambin es cierta: si


LI y es transformado en otro conjunto LI, la TL es inyectiva. Es decir: si

es inyectiva y

es un conjunto

es LI,

T (A)

es LI.

Las matrices asociadas a TLs inyectivas tienen sus columnas LI.


Si

dim(V ) > dim(W), T

no puede ser inyectiva.

5.3.2 Sobreyectividad (epimorsmo)


Una TL es sobreyectiva

Im(T ) = W.

Las matrices asociadas a TLs sobreyectivas tienen sus las LI.


Si

dim(W) > dim(V), T

no puede ser sobreyectiva.

5.3.3 Biyectividad (isomorsmo)


Si

dim(W) = dim(V),

T es

biyectiva

si

N u (T ) = {0}, T

{v1 , . . . , vn }

es biyectiva.

es base de

V,

entonces

{T (v1 ) , . . . , T (vn )}

es base de

W.

La matriz asociada a una TL biyectiva tiene sus las y columnas LI, o sea que es una matriz inversible, o sea
que existe la TL inversa:
Si

dim (V) = dim(W),

T 1 = [T ]

entonces o bien

es inyectiva y sobreyectiva, o bien no es ninguna.

10

5.4 Matriz asociada a una TL


Sea

T L(VK , WK ), sea B = {v1 , v2 , . . . , vq } base de V y C = {w1 , w2 , . . . , wm } base


T (x) = Ax, con A Kmq tal que:

|
|
|
A = [T ]BC = CC (T (v1 )) CC (T (v2 )) CC (T (vq ))
|
|
|

de

W.

Entonces

se

puede escribir como

Propiedades:

[T ]BC CB (v) = CC (T (v)) v V


v N u (T ) CB (v) N ul(A)
w Im (T ) CC (w) Col(A)
dim(Im (T )) = rg(A)

Teorema: sean V y W K-espacios vectoriales (K = R C). Sea T


de

V,

C1

C2

son bases ordenadas de

W,

entonces

: V W. Si B1
rg [T ]B1 C1 = rg([T ]B2 C2 ).

B2

son bases ordenadas

5.5 Teorema Fundamental de las TLs


Sea
que

B = {v1 , v2 , . . . , vn } base de V y w1 , w2 , . . . , wn vectores de W. Entonces existe y es nica la TL que verica


T (v1 ) = w1 , T (v2 ) = w2 , . . . , T (vn ) = wn . Adems, dada una TL y un par de bases, existe una nica

matriz asociada. La recproca tambin es verdadera: dada una matriz y un par de bases, existe una nica TL
asociada.

5.6 Composicin de TLs


f L(V, W)

g L (W, H) = g f L (V, H)

Propiedades:

N u (f ) N u (g f )
Im (g f ) Im(g)

5.7 Operadores lineales


Un operador lineal es una TL que va de un espacio en s mismo. Se escribe como

TFigura
L(V)3:.

Composicin.

Propiedades:
1. Si
2. Si

T1 L(V)

T2 L(V),

entonces

T1 T2 L(V).

T L(V), T = T
| T {z. . . T}
n veces

6 Autovalores y Autovectores
6.1 Autovalores y autovectores de una matriz cuadrada
Autovector: Un vector v 6= 0 es autovector de A Knn K : Av = v.
Autoespacio: El autoespacio de A asociado a un autovalor es S (A) = nul(A I).
Polinomio caracterstico: El polinomio caracterstico de una matriz A Knn es pA () = det(A I),
tiene grado

n.

Si

K=R

el polinomio tiene a lo sumo

races. Si

K=C

tiene exactamente

Autovalor: Los autovalores de una matriz son las races de su polinomio caracterstico.
Espectro de una matriz: (A) = { K : es autovalor de A}
11

races.

6.2 Multiplicidad geomtrica y algebraica de un autovalor


mg () = dim (S (A))
ma () =

nmero de veces que aparece

Siempre se verica que:

como raz del polinomio caracterstico.

1 mg () ma ().

6.3 Propiedades
Sea

A Knn .
A

es singular

es un autovalor de

A mg (0) = n k rg (A) = k < n

Dos autovectores asociados a autovalores distintos son LI.

A K22 ,

Si

entonces

pA () = 2 tr (A) + det(A).

Si todas las las o columnas de

suman

entonces

s (A).

de

p (t) = ak tk + . . . + a1 t + a0 (ak 6= 0). Si es autovalor de A, entonces se cumple que p () es autovalor


p (A), y para cada autovalor de p(A) existe un autovalor de A tal que p () = .

Si

Sea

es autovalor de

A...
AT ,

1.

2.

es autovalor de

A1

3.

es autovalor de

r A,

4.

5.

+r

es autovalor de

es autovalor de


S1 A1 = S (A),

Ak , k N

es autovalor de

A + r I.

6.4 Autovalores y autovectores de operadores lineales


T : VK V K .

Un vector

v 6= 0

S (T ) = {x V : T (x) = x

es autovector de

base de

T T (v) = v,

T } = N uc(T I).

autovalor de

con
Si

autovalor de

es base de

T.
y

es la matriz de

en

esa base, entonces:

1.

(A) = (T ) B

2.

es autovector deT

CB (x)

es autovector de

[T ]B = A

Propiedades:

T (x) = x = T n (x) = n x (n N).


Si

es autovalor de

T , 1

es autovalor de

T 1 .


Si

es un polinomio en

T : VK VK

es regular

T (x) = Ax,

entonces

[h (A)] = h[ (A)]
Sh() h (A) = S (A)

0
/ (T )

6.5 Diagonalizacin
A Knn es diagonalizable A D existe una base de Kn compuesta por autovectores de A A
1
tiene n autovectores LI mg () = ma () (A) P inversible y D diagonal tal que: A = P DP
,
siendo P la matriz de autovectores y D la matriz de autovalores.

12

6.5.1 Matrices trivialmente diagonalizables


Nula: autovalor 0, autovectores: cualquier vector no nulo.
Identidad: autovalor: 1, autovectores: cualquier vector no nulo.

Diagonal (A

0
..

= 0
0

0 ):
n

autovalores:

1 , . . . , n , autovectores: los

que tienen sus componentes

nulas excepto la n-sima.

Escalar (A

= 0
0

..

De proyeccin (A

0 , k R):
k

autovalor:

Knn , dim S = q):

k,

autovectores: cualquier vector no nulo.

autovalor 1 con

ma (1) = mg (1) = q ,

autovalor 0 con

ma (0) =

mg (0) = n q
De reexin: autovalor 1 con

ma (1) = q ,

autovalor -1 con

ma (0) = n q

6.5.2 Propiedades
Si

A es diagonalizable entonces An

A Cnn tiene n autovalores


Qn
det (A) = i=1 i = pA (0)
Pn
(A) = i=1 i
Si

es diagonalizable (DA

distintos entonces

= DAn

(An ) = n (A)). La recproca es falsa.

es diagonalizable. La recproca es falsa.

6.6 Autovalores complejos de una matriz real


= a + bi con a, b R, b 6= 0 es un autovalor de A Rnn . Entonces = a bi tambin
A y v Cn es autovector de A asociado a si y slo si v es autovector de A asociado a . En
{v1 , . . . , vr } es base de S entonces {v 1 , . . . , vr } es base de S .

Supongamos que
es autovalor de
particular, si

6.7 Diagonalizacin de TLs


T L(VK ) con dim(VK ) = n, es diagonalizable B base deVK tal que [T ]B es diagonal B base
de VK formada por autovectores de T T tiene n autovectores LI. Esa base es B y [T ]B = diag( (T )). Si
A = [T ]H , H cualquier base, entonces T es diagonalizable si y slo si A es diagonalizable.

7 Diagonalizacin de Matrices Hermticas, Formas Cuadrticas, DVS


7.1 Diagonalizacin de matrices simtricas y hermticas
Matriz antisimtrica: Si A Rnn
Los autovalores de

es antisimtrica

(AT = A)

entonces:

son imaginarios puros o nulos,

Los autovectores asociados a autovalores distintos son ortogonales,

es diagonalizable unitariamente.

Matriz simtrica (hermtica): A Rnn

es simtrica (B

13

= Cnn

es hermtica) si y solo si:

1.

A es diagonalizable
P DP H )

ortogonalmente:

A = P DP T (B

es diagonalizable unitariamente con

real:

B =

Propiedades:

A(B)

tiene

autovalores reales

Los elementos de la diagonal de

A(B)

son reales

det (A) R
dim (S (A)(B)) = ma () (A, B)
Los autovectores asociados a autovalores distintos son ortogonales

Matriz ortogonal: A Rnn

es ortogonal (B

1.

AAT = AT A = Id (BB H = B H B = Id)

2.

AT = A1 (B H = B 1 )

3. Las columnas de

A (B)

son BON de

Cnn

es unitaria) si y solo si:

Rn ( Cn )

Propiedades:

det (A) = 1.

Si

det (A) = 1, A

es la matriz de una rotacin

Los autovalores tienen mdulo 1, y pueden ser reales o complejos


Son matrices unitariamente diagonalizables
Los autovectores asociados a autovalores distintos son ortogonales
Preservan los productos internos
Si

es unitaria,

BC

CB

(< Ax, Ay >=< x, y >)

y las normas

(|Ax| = |x|)

son unitarias

7.2 Descomposicin espectral de matrices simtricas


A = P DP 1 = P DP T , las columnas de P son autovectores ortonormales u1 , . . . , un
correspondientes 1 , . . . , .n estn en la matriz diagonal D . Entonces:

Si

de

y los autovalores

A = 1 u1 uT1 + 2 u2 uT2 + . . . + n un uTn

7.3 Subespacios invariantes por una matriz o por una TL


S Kn
SV

es invariante por

es invariante por

A Knn x S : Ax S.

T L(V) x S : T (x) S.

Propiedades:

es autovalor de T ,
T (x) = x S (T ).

Si

entonces

S (T )

es un subespacio invariante por

No todo subespacio invariante es un autoespacio de

14

T,

T,

puesto que

x S (T )

pero s los subespacios invariantes de dimensin 1.

7.4 Formas cuadrticas


Una forma cuadrtica en
de

Rn

es una funcin

Q : Rn R tal que Q (x) = xT Ax, donde A es una matriz simtrica

n n.

Teorema de los ejes principales: sea A una matriz simtrica de n n. Entonces existe un cambio ortogonal
es una matriz ortogonal tal que det (P ) = +1
xT Ax a una forma cuadrtica y T Dy sin trminos
xT Ax = (P y)T A(P y) = y T (P T AP )y = y T DA y = g(y)
de variable,

x = P y,

donde

transforma la forma cuadrtica

es un nuevo vector, que

de producto cruzado:

Q(x) =

Perspectiva geomtrica de los ejes principales: sea la forma cuadrtica Q (x) = xT Ax, con A = P DP T .
El conjunto de todas las
Si

x Rn : xT Ax = c

es una elipse, una hiprbola, dos rectas, un punto o ningn punto.

es diagonal, la grca est en posicin estndar. Si

no es diagonal, la grca est girada hasta salirse

de la posicin estndar. Los ejes principales son los autovectores de

y son el nuevo sistema de coordenadas

para los cuales la grca est en posicin estndar.

7.5 Clasicacin de formas cuadrticas


Una forma cuadrtica

Q (x) = xT Ax

es:

Denicin

Denida
positiva
Semi-denida
positiva
Denida
negativa
Semi-denida
negativa
Indenida

Q (x) > 0, x 6= 0

Criterio I
a11 > 0

Criterio II

det (A) > 0

los autovalores de A son


positivos

Q (x) 0, x
Q (x) < 0, x 6= 0

det (Ak ) 0, k =
1, 2, . . . , n
a11 < 0

los autovalores de A son


positivos o cero

det (A) > 0

los autovalores de A son


negativos

Q (x) 0, x

det (Ak ) 0, k =
1, 2, . . . , n.

los autovalores de A son


negativos o cero

Q (x) 0

los autovalores de A son


tanto positivos como
negativos

7.6 Optimizacin restringida


Teorema de Rayleigh: sea la forma cuadrtica Q (x) = xT Ax, con A simtrica. Se verica:
min (A)

Q(x)
kxk

max (A)

f : Rn R, f (x) = xT Ax (A simtrica),
mximo de f es max (A). y se alcanza en M = {x Smax (A) : |x| = }.
se alcanza en m = {x Smin (A) : |x| = }.

Sea extremar una forma cuadrtica

|x| = . El
min (A).2 y

sujeto a la restriccin
El mnimo de

es

xT Bx =
f : Rn R, f (x) = xT Ax (A simtrica), sujeto a la restriccin

T
T
, y sea B denida positiva tal que B = PB DB PB 
. Mediante un cambio de variable y =
DB PB x (x =

q
q
q
1
1 T
1
T
DB PB y ), esto es equivalente a extremar g (y) = y
DB PB APB DB y sujeto a la restriccin |y| = .
Sea extremar una forma cuadrtica

Entonces:

m
ax g (y) = m
ax f (x),
x = PB y .

mn g (y) = mn f (x).

Los

en donde se alcanza ese extremo se hallan

realizando la cuenta

7.7 DVS
Valores singulares: V S (A) =

i i (AT A).

A una matriz de m n con rango r. Entonces existe una matriz ,


m m y una matriz V ortogonal de n n tales que A = U V T , donde:

Sea

15

y existen una matriz U ortogonal de

Rmn


es tal que

D
0

0
0

, y las entradas diagonales de D son los primeros

de A, ordenados en forma descendente:

V Rnn
U Rmm

valores singulares

i 2 . . . r > 0.

es una matriz cuyas columnas son una BON de autovectores

autovalores de

{v1 , v2 , . . . , vn }

asociados a los

AT A.
r

es una matriz cuyas primeras

se obtienen completando una BON para

Av1
Avr
1 , . . . , r . Las otras columnas
T
. Las columnas de U son autovectores de AA .
columnas son los vectores

7.8 Aplicaciones de las DVS


D
|

um ...
|
0

Sea

|
A Kmn , A = u1
|

{u1 , u2 , . . . , ur }

es BON de

Col(A)

{ur+1 , . . . , um }

es BON de

[Col (A)]

{v1 , v2 , . . . , vr }

es BON de

F il (A)

{vr+1 , . . . , vn }

es BON de

1
0
|
0

T
|
vn .
|

Si

rg (A) = r

entonces:

[F il (A)]

7.9 Propiedades de las DVS



rg (A) = rg () = rg T = #V S (A)positivos
A Rnn

A tiene n

V S (A)positivos = V S AT positivos
Qn
nn
Si A R
, |det(A)| = i=1 V Si (A)
es inversible

VS positivos

(A) V S(A)

Si

Si

AB ,

Si

es ortogonal,

Si

es cuadrada y simtrica, entonces

Si

tiene las BON, los valores singulares no nulos de

es cuadrada y denida positiva,


entonces

singulares de
La matriz

AT A

V S (A) V S(B)
A, AB

BA

tienen los mismos valores singulares

V Si (A) = |i (A)|
A

son 1. Si

tiene columnas BON, los valores

son 1
(matriz de

Gram de A) es siempre simtrica y semi denida positiva, con lo cual nunca

tendr valores singulares negativos. Ser denida positiva cuando

tenga columnas LI

T : Rm Rn una transformacin lineal tal que T (x) = Ax. Sea la forma cuadrtica f (x) = |T (x)| =
x AT A x. Entonces:

T
1. El mximo de f (x) sujeto a |x| = 1 es max A A . Entonces el mximo de |T (x)| es V Smax (A) y

m
se alcanza en M = {x R
: x Smax AT A , |x| = 1}.

T
2. El mnimo de f (x) sujeto a |x| = 1 es min A A . Entonces el mnimo de |T (x)| es V Smin (A) y se

m
alcanza en m = {x R
: x Smin AT A , |x| = 1}.
Sea

16

7.10 DVS reducida con matrices de proyeccin y pseudoinversa


DVS reducida: Sea A Rnm . Si A = U V T , y rg (A) = r, entonces una DVS reducida de A es A = Ur r VrT
siendo

Ur Knr , r Krr , VrT Krm .

T
Pseudoinversa de Moore-Penrose de A: A+ = Vr 1
r Ur
Propiedades:
Sea

A Rnm :

1.

A+ = A# cuando rg (A) = m

2.

A+ A = Vr VrT = PF il(A)

3.

AA+ = Ur UrT = PCol(A)

8 Ecuaciones Diferenciales
8.1 Independencia lineal y Wronskiano
Matriz de Wronski: Sea A = {f1 , f2 , . . . , fq } funciones denidas en un intervalo I
derivada hasta el orden

(q 1)

continua en

I.

La matriz de wronski de

f1 (x)

M wA (x) = f1 (x)
(q1)
f1
(x)

R, a valores
x I:

en

C,

con

es, para cada

fq (x)
0
fq (x)
(q1)
(x)
fq

Wronskiano: wA (t) = det(M wA )


Propiedades:

Si existe un

x0 I

tal que

wA (x0 ) 6= 0,

Si un conjunto es LD en un

I,

entonces las funciones

f1 , f2 , . . . , fq

son LI.

su wronskiano es la funcin nula. La recproca es falsa; es verdadera solo

si las funciones que componen el wronskiano son soluciones de una ED lineal de orden superior.
La derivada del wronskiano es el determinante obtenido derivando la ltima la. La derivada del wronskiano es la suma de

determinantes.

8.2 Identidad de Abel


y(x)(n) + an1 y(x)(n1) + . . . + a1 y 0 (x) + a0 y (x) = 0 en un intervalo I R, sea
conjunto de las soluciones de ED, y sea WS el wronskiano de este conjunto. Entonces se

Sea la ecuacin diferencial

S = {y1 , y2 , . . . , yn }

el

verica que:

WS (t) = an1 WS (t)

8.3 Ecuaciones diferenciales lineales


8.3.1 Condicin de existencia y unicidad de un PVI

Sea el problema

(n)

an y (x)

+ . . . + a1 y 0 (x) + a0 y(x) = f (x)


y (x0 ) = y0

La condicin de existencia y unicidad de la solucin del PVI es:

ED normal en

I : an 6= 0 x I .

x0 I .
17

(x)
8.3.2 Variables separables: y0 = fg(x)
con y = y(x)
Separamos la ecuacin en

g (x) dy = f (x) dx

e integrando ambos miembros se tiene

G (y) = F (x) + c.

8.3.3 Homogneas: y0 = f (x, y) con f (tx, ty) = f (x, y)


Hacemos un cambio de variable

y = zx

(donde

z = z (x)).

Entonces

y 0 = z + xz 0 .

8.3.4 Lineales de 1er orden


Obtenemos primero la solucin general de la homognea (yh ) y luego una particular de la no homognea (yp ).
La solucin buscada es

yG = yH + yP .

1. Solucin de la
ecuacin homognea asociada (y
yH (x) = e p(x)dx .

+ p (x) y = 0):

es de variables separables. Una solucin es

2. Solucin de la no homognea:
una solucin se obtiene multiplicando toda la ecuacin por el factor integrante

de Lagrange:

u (v) = e

p(x)dx

. Entonces, la ecuacin a resolver ser

[u (v) .y] = u (v) .q(x)

8.3.5 Diferencial exacta: P (x, y)dx + Q(x, y)dy = 0


f
f (x, y) tal que df = P (x, y) dx+Q (x, y) dy , es decir si f
x = P (x, y) y y = Q(x, y).
general es f (x, y) = C . Se cumple que la ecuacin anterior es diferencial exacta si y

Es diferencial exacta si existe


En ese caso, la solucin
solo si

P
y

Q
x .

(x, y) es un factor integrante de la ecuacin P (x, y) dx + Q (x, y) dy = 0


(x, y) la ecuacin resultante es diferencial exacta.

Se dice adems que


la ecuacin por

si al multiplicar

8.3.6 Lineales homogneas de orden superior con coecientes constantes: an(t)y(n) + ... + a1y0 + a0y = 0 t I (I)
Polinomio caracterstico de (I): p () = ni=0 ai ni
Espectro de (I): (p) = { C : p () = 0}
P

yH (t) = tk et

es una solucin de la ED si

(p),

multiplicidad  m,

k = 0, 1, . . . , m 1.

Si la ED es de coecientes constantes reales, las races del polinomio caracterstico aparecern conjugadas.

1,2 = i. Luego, y1 = et (cos (t) + i.sen (t))


gen {y1 , y2 } = gen {et cos (t) , et sen (t)}.

Esto es,

y2 = et (cos (t) i.sen (t)).

Entonces,

8.3.7 Lineales no homogneas de orden superior con coecientes constantes: any(n) + ... + a1y0 + a0y = f (x)
La solucin general es de la forma

yG = yP + yH ,

donde

yH

se obtiene como antes, e

yP

se obtiene mediante

alguno de estos mtodos:

Mtodo de variacin de parmetros: aplicable en cualquier caso.


yP (t) =

Pn

i=1

ui (x) yi (x),

siendo

yi (x)

y1
0
y1

..
.

(n)
y1

las soluciones de

y2
0
y2

...
...

.
.
.

..

(n)
y2

...

yH ,

ui (x)

las funciones que satisfacen

0
yn
u1
0
u0
yn
2
. =
.
.
..
.
(n)

yn

18

un

0
0
.
.
.

f (x)
an

Mtodo de coecientes indeterminados: aplicable cuando f (x) es exponencial, polinomio, seno y coseno,
siendo

a2 y 00 + a1 y 0 + a0 y = f (x)

con

f (x) = p1 (x) .em1 x + . . . + pk (x) .emk x .

yP (t) = q1 (x) .em1 x + . . . + qk (x) .emk x .


Si

em k x

no es solucin de la EDO homognea asociada (i.e.

un polinomio del grado de


Si

emk x

pk

pk

un polinomio de un grado mayor que

yP

a2 2 + a1 + a0 = 0), qk

es

a2 2 + a1 + a0 = 0), qk

es

no es raz de

con coecientes a determinar.

si es solucin de la EDO homognea asociada (i.e.

Una vez armada la

mk

mk

s es raz de

con coecientes a determinar.

se reemplaza en la ED original, e igualando los trminos semejantes se hallan los

coecientes indeterminados.

9 Sistemas de Ecuaciones Diferenciales Lineales


(

x0t = a11 x + a12 y + b1


yt0 = a21 x + a22 y + b2


=

x0
y0


=

a11
a21

a12
a22



x
y


+

b1
b2

= X 0 = AX + B

9.1 Sistemas homogneos con A diagonalizable


La solucin de

X 0 = AX (A Knn ),

X=

n
X

con

autovalor de

c i vi e i t

i=1

|
= v1 e 1 t
|
|

vi

autovector de

asociado a

i ,

es:

c
1
|
n t ..
vn e
.
|
n
{z
} | c{z
}
nn

(t)K

9.2 Sistemas no homogneos con A diagonalizable


Sea el sistema

X 0 = AX + B .

Pn

1.

XH =

2.

XP = (t) u(t)

i=1 ci vi e

i t

La solucin es

XG = XH + XP

con:

= (t) C

siendo

u(t)

tal que

(t) u0 (t) = B

9.3 Sistemas homogneos con A no diagonalizable


1
A no diagonalizable, proponemos una factorizacin de la forma
A = P JP , donde

J1 0
0
0
0 J2 0
0

J Cnn es la matriz de Jordan de A que tiene la siguiente estructura en bloques: J =

..
0
.
0
0
0
0
0 Jl

i 1
0
0
0 i 1
0

donde cada bloque Ji es una matriz ki ki de la forma Ji = .


para algn autovalor i de
.
.
.
..
..
.
1
0 0 i
A. (Dado un autovalor i , su multiplicidad geomtrica es el nmero de bloques de Jordan correspondientes a
i , y su multiplicidad algebraica es la suma de los tamaos de los bloques correspondientes a ese autovalor.)
Sea el sistema

X 0 = AX

X=P Y

con

X 0 = AX 7 P Y 0 = P JP 1 P Y 7 Y = JY .
problema se expresar como X (t) = P Y (t).
Luego:

19

Resolvemos este sistema y la solucin general del

9.3.1 Caso A R22


A

necesariamente posee un autovalor doble

de multiplicidad geomtrica 1, con lo cual la matriz

J=
Respecto de la matriz

P =

v1

v2

autovector de

asociado a

de vectores

posee

un solo bloque correspondiente a

v1

v2

AP = P J. La matriz P se obtiene hallando un par


(A I) v1 = 0 y (A I) v2 = v1 . Observamos que v1 es

deber ser inversible y

LI que satisfagan las condiciones

9.3.2 Caso A R33


1.

tiene un autovalor triple

de multiplicidad geomtrica 1. En este caso:

J = 0
0

0
1

P = [ v1 v2 v3 ] , {v1 , v2 , v3 } deben ser LI y satisfacer las condiciones (A I) v1 =


0, (A I) v2 = v1 , (A I) v3 = v2 . Observamos que v1 es autovector deA asociado a .

Respecto de

2.

tiene un autovalor triple

de multiplicidad geomtrica 2. En este caso:

J = 0
0

0
0

P = [ v1 v2 v3 ] , {v1 , v2 , v3 } deben ser LI


0, (A I) v2 = v1 , (A I) v3 = 0. Observamos que v1 y v3

Respecto de

3.

y satisfacer las condiciones


son autovectores de

(A I) v1 =
.

asociados a

A tiene un autovalor doble R de multiplicidad geomtrica 1 y un autovalor R simple. En este caso


J debe tener dos bloques de Jordan:

1 0
J = 0 0
0 0
P = [ v1 v2 v3 ], {v1 , v2 , v3 } deben ser
0, (A I) v2 = v1 , (A I) v3 = 0. Observamos que v1

Respecto de

respectivamente.

20

LI y satisfacer las condiciones


y

v3

son autovectores de

(A I) v1 =
y

asociados a

You might also like