You are on page 1of 182

Algebra lineal

Espacios vectoriales

Un espacio vectorial E=(V,F) Es un conjunto de elementos llamados vectores sobre un campo F donde

x+y=y+x y pertenece a V x+(y+z)=(x+y)+z Existe el vector 0, tal que 0+x=x+0=x Para cada vector x existe el x, tal que x-x=0

Espacios vectoriales

Cada elemento dol campo es llamado un escalar


(x+y)= x+y x= x (1+ 2)x= 1(x)+ 2(y) 1x=x 1 la unidad multiplicativa del campo

Espacios vectoriales

ejemplos

Espacios vectoriales

Teorema 0v=v0=0

0v=0v+0v-0v=(0+0)v-0v=0v-0v=0 v+(-1)v=1v+(-1)v=(1-1)v=0v=0 Agregando v a ambos lados se tiene el resultado

(-1)v=-v

Subespacio

Sea (V,F) un espacio, entonces (S,F) es un subespacio de (V,F) si preserva todas las caractersticas de espacio y S es un subconjunto de V

Subespacio

ejemplos

Creacin de espacios

Teorema.

Espacio vectorial (V,F) S subconjunto de V

Si v1,vn estn en S, entonces tambin 1v1+ +nvn, donde i son elementos del campo

(S,F) es un subespacio

Demo en clase por los alumnos

Creacin de espacios

Preguntas importantes

En qu condiciones dos conjuntos S1, S2 crean el mismo espacio vectorial? Cal es la cardinalidad mnima de QS tal que Q y S crean el mismo espacio vectorial? Cando S crea el mismo espacio que contiene a los vectores de S?

Dependencia e independencia lineal

Definicin. Sea S={v1,v2,...vn} un conjunto de vectores. El vector y=1v1+2v2+...+nvn donde los coeficientes son escalares ser llamada combinacin lineal de S.

Dependencia e independencia lineal

Definicin. Sea S={v1,v2,...vn} un conjunto de vectores. S es linealmente independiente si 1v1+2v2+...+nvn=0 tiene como nica solucin la trivial. De lo contrario se llamarn linealmente dependientes.

Dependencia e independencia lineal

Definicin. Sea S={v1,v2,...vn} un conjunto de vectores. Si S es linealmente independiente, entonces el espacio creado por S ser llamado espacio generado por S.

Dependencia e independencia lineal

Sea S={v1,v2,...vn} un conjunto de vectores. Para mostrar si es linealmente independiente se resuelve la ecuacin:
1 2 n

[v1 v2 ... vn] ...

=0

Dependencia e independencia lineal

Entonces ya podemos aplicar Gauss para resolver el sistema y ver su solucin

Si la matriz [v1 ...vn] es de rango n entonces tiene solucin nica Si la matriz [v1 ... vn] es de rango menor a n, entonces tiene ms de una solucin.

Dependencia e independencia lineal

Ejemplos en clase

Bases, Dimensin y coordenadas

Definicin. Sea (V,F) un espacio vectorial, entonces el conjunto S={v1, v2, ...vn} ser una base para (V,F) si S genera (V,F).

S es linealmente independiente S genera (V,F)

Bases, Dimensin y coordenadas

ejemplos de bases en diferentes espacios

Bases, Dimensin y coordenadas

Notita. Si z es una C.L. (combinacin lineal) de los vectores x1,...,xr; y xi es una C.L. de los vectores y1,...,ys. Entonces z es una C.L. de los vectores y1,...,ys. z=a1x1+...+arxr z=a1(b11y1+...+b1sys)+...+ar(br1y1+...+brsys) Es una propiedad de transitividad

Bases, Dimensin y coordenadas

Notita. Si algunos vectores x1,...,xn son linealmente dependientes (L.D.) entonces todo el sistema x1,...,xn son L.D. Suponer que x1,...,xk (k<n) son L.D. a1x1+...+akxk=0 con ai diferente de nulo. a1x1+...+akxk+0xk+1+...+0xn=0 es solucin y el sistema es L.D.

Bases, Dimensin y coordenadas

Coordenadas

La base B={v1, ..., vn} es un conjunto, pero tiene un orden para facilitar trabajos 1 futuros. Representacin. Un vector v se puede 2 reescribir en trminos de una base.

v=1v1+2v2+...+nvn, a donde

... n

Es la representacin del vector

Bases, Dimensin y coordenadas

Ejemplos de representacin de vectores

Bases, Dimensin y coordenadas

Teorema. La representacin del vector es nica v=1v1+2v2+...+nvn= 1v1+2v2+...+nvn (1-1)v1+...+ (n-n)vn=0 base L.I. entonces la nica solucin es cero (i-i)=0 i=i

Bases, Dimensin y coordenadas

Notita. El teorema anterior es cierto si dice que z=a1x1+...+akxk los ai son nicos ssi los xi son L.I.

Bases, Dimensin y coordenadas

Definicin. Sea (V,F) un espacio vectorial. Dos subespacios de (V,F); (V1,F) y (V2,F) se dicen equivalentes si los vectores de uno se pueden escribir como C.L. del otro y viceversa.

Bases, Dimensin y coordenadas

Teorema. Suponer que B={v1, ...,vp} es una base para (V,F) y suponer que D={u1,...,uq} es un subconjunto L.I. en (V,F), entonces q p Demostracin. Como B es una base, entonces uiD, (V,F) se puede expresar como una C.L. de B

Bases, Dimensin y coordenadas


S1={u1,e1,...,ep} es L.I. Existe un vector que es C.L. de los anteriores, digamos que es ei. Por transitividad el resto {u2,...,uq} es una C.L. de S1-{ei} y se puede aplicar el mismo procedimiento Como se observa el procedimiento no puede eliminar todos los vp vectores antes de que los ui vectores se hayan agotado y q p.

Bases, Dimensin y coordenadas

Teorema. Nmero de vectores en la base. Suponer que para un espacio (V,F) se tiene una base con p vectores. Entonces todas las bases tienen p vectores. Demo. Aplicar teorema anterior suponiendo que se tiene otra base con q vectores. q p. Aplicar partiendo de la base con q vectores p q q=p.

Bases, Dimensin y coordenadas


Definicin. Al nmero de vectores en la base de un espacio (V,F) se le llama dimensin de (V,F). En especial, todos los subespacios equivalentes tambin tienen un conjunto de vectores que lo generan (ya que son un espacio en s) y se tiene una base y por tanto tambin tienen su dimensin. En tal caso es ms adecuado hablar de rango que de dimensin, ya que podemos hablar de un subespacio en R3, pero de rango 2. A su vez, a la dimensin del espacio completo se le puede llamar rango, pero es mejor hablar de dimensin.

Bases, Dimensin y coordenadas


El espacio Rn tiene timensin n. Si la dimensin de un espacio es p cualquier conjunto con s vectores s>p es L.D. En efecto, la base tiene p vectores y el resto ser una C.L. de la base.

Bases, Dimensin y coordenadas


Teorema. Un espacio tiene dimensin finita k ssi k es el maximo nmero de vectores que se pueden obtener en el espacio. Demo. Si la dimensin es k la base tiene k vectores son L.I. y cualquier otro es una C.L. de la base (ya no es L.I.). Si el mximo nmero de vectores L.I. es k estos generan todo el espacio y por tanto es una base k es la dimensin.

Bases, Dimensin y coordenadas

Ok, regresemos a la representacin de vectores 1 0 B1={


0 1 1 0

4 4

=4

+4

0 1

Bases, Dimensin y coordenadas

El mismo vector en otra base


B2={

1 1

0 1 1 1

4 0

=4

+0

0 1

Bases, Dimensin y coordenadas

Si el mismo vector se puede representar en diferentes bases, se podr transformar de una en otra?
0 1 4 4
=

1 0

1 0 1 1

4 0

Bases, Dimensin y coordenadas


1 0 1 1
-1

1 0

0 1

4 4
=

4 0

Matriz de cambio de base de B1 a B2

Bases, Dimensin y coordenadas


El concepto fcilmente se puede generalizar a cualquier par de bases Lo que es ms chido... (P[x]2,R) una posible base es B={1, x, x2} v1=1 en la base
1 0 0

Bases, Dimensin y coordenadas

v2=x en la base

0 1 0

v3=x2

0 1

Bases, Dimensin y coordenadas


v4=1-x v5=3+x v6=-2+2x+x2 v7=2+3x+7x2 Son L.I.? Todo cambia a matrices!!!

Espacios vectoriales

Kernel, imagen, espacio columna y espacio fila de una matriz Ecuaciones lineales y espacios vectoriales Cambio de base Espacio cociente Sumas y sumas directas

Pausa: Cosas de una Matriz

Kernel.

Todos los x tales que Ax=0 Kernel={x|Ax=0}

Se puede hablar de dos kerneles, el izquierdo y el derecho


KerI={y|yTA=0} KerD={x|Ax=0}

Pausa: Cosas de una Matriz

Imagen

Todos los y que son obtenidos de A multiplicado por un vector Imagen={y|Ax=y}

Pausa: Cosas de una Matriz

Teorema (operaciones columna y dependencia lineal). Suponer que una secuencia de operaciones elementales por rengln transforma la matriz A en la matriz B, entonces:

Una coleccin de columnas de A es linealmente dependiente (independiente) ssi la colleccin correspondiente de columnas de B es linealmente dependiente (independiente). Una matriz rengln puede ser escrita como una combinacin lineal de (esto es linealmente dependiendte de) todos los renglones de A ssi puede ser escrita como una combinacin lineal de todos los renglones de B.

Pausa: Cosas de una Matriz

Demostracin caso 1.Sea F=E1E2...En la secuencia de matrices elementales que realizan las operaciones elementales que transforman a A en B. F tiene inversa=no singular FA=B Fx=0 x=0 (solucin nica) Si las columnas de A son L.D. entonces 1a1+2a2+...+nan=A[] FA[ ]=B[ ] Si A es LD hay muchas combinaciones

Pausa: Cosas de una Matriz


que dan cero esas mismas combinaciones en B dan cero y sus columnas son LI. Si A tiene una sola combinacin que da cero, entonces en B ser la nica posibilidad de dar cero, ya que slo es este caso FA[]=0 Apliquemos esto a cualquier coleccin de columnas de A y se tendr la demostracin de la primera parte. Demostracin caso 2.Un matriz rengln y es una CL de los renglones de A ssi y=xA para alguan matriz rengln x, pero y=xF-1FA=xB, para x=xF-1

Pausa: Cosas de una Matriz

como FA=B; y y=xB ssi y es una CL de los renglones de B.

Pausa: Cosas de una Matriz

Veamos ms a fondo el mtodo de Gauss


1 -1 1 1 -1 1 2 3 2 1 4 1 3 2 1 2 1 0 0 0 -1 0 3 4 2 3 2 -1 3 5 -2 -1

Pausa: Cosas de una Matriz

Veamos ms a fondo el mtodo de Gauss


1 0 0 0 -1 3 0 4 2 2 3 -1 3 -2 5 -1 1 0 0 0 -1 1 0 0 2 2/3 2 3 5/3 -2

-11/3 -23/3

Pausa: Cosas de una Matriz

Veamos ms a fondo el mtodo de Gauss


2 2/3 1 3 -5/3 -1 1 0 0 0 -1 1 0 0 2 2/3 1 0 3 5/3 -1 1

1 0 0 0

-1 1 0 0

-11/3 -23/3

Pausa: Cosas de una Matriz


Columnas dominantes

2 1

3 1

1 0

1.5 1

Matriz

Forma de Gauss

Pausa: Cosas de una Matriz dominantes Columnas


1 -1 -1 1 1 0 -1 0

Matriz

Forma de Gauss

Pausa: Cosas de una Matriz dominantes Columnas


0 0 -1 1 0 0 1 0

Matriz

Forma de Gauss

Matrices
1. 2.

3.

Por intercambio de renglones hacer que el elemento (1,1) sea diferente de cero. Si no es posible es porque toda la columna 1 es igual a cero, tacharla y tratar de hacer lo mismo para la submatriz generada El proceso se repite hasta tener un elemento diferente de cero.

Matrices
4.

Todo el rengln se divide entre el elemento diferente de cero y se procede a hacer cero el resto de los elementos de esta columna de acuerdo al mtodo de Gauss

Matrices
5. 6. 7.

Una vez hecho esto se tacha el rengln y se obtiene una nueva submatriz Con esta nueva submatriz se procede desde el punto 1) El resultado es la matriz en la forma de Gauss

Matrices

Si se tiene un rengln diferente de cero, entonces a la primer columna diferente de cero se le llamar dominante o lder.

Pausa: Cosas de una Matriz

Teorema (matrices reducidas y dependencias) Suponer que G es una matriz en la forma de Gauss y de rango k a) El conjunto de las k columnas lderes es linealmente independiente b) Cualquier columna a la izquierda de la primera columna lder es una columna cero. Cualquier columna a la izquierda de la i-sima columna lder es combinacin lineal de las anteriores columnas lderes.

Pausa: Cosas de una Matriz


Definicin.- Sea A una matriz de p*q a) El espacio columna de A es el subespacio que es generado por el conjunto de columnas de A b) El espacio rengln de A es el subespacio generado por los renglones de A.

Pausa: Cosas de una Matriz


Poner ejemplos Dar las condiciones para que el sistema tenga solucin.

Ax=b

Pausa: Cosas de una Matriz


Teorema. Sea una matriz A de rango k. Entonces a) El espacio columna de A tiene diemnsin k. Una base son las columnas lderes. b) El espacio rengln es de dimensin k, una base son los renglones diferentes de cero. c) Una matriz p*p es no singular si sus columnas son LI rango p d) Una matriz p*p es no singular si sus renglones son LI rango p

Matrices

Corolario

Rango por columnas = rango por filas

Teorema (espacios rengln iguales). Sea A1 y A2 matrices de tamao r*q y s*q respectivamente. El espacio rengln de A1 es igual al espacio renglon de A2 ssi los renglones no cero de las matrices de Gauss coinciden.

El maldito Kernel otra vez

Definicin: Sea f:XY una funcin de X a Y. Con f se asocia una relacin de equivalencia llamada equivalencia kernel de f y se denota por Ker f y est definida como sigue: x1,x2X, x1~x2 ssi f(x1)=f(x2)
(mostrar que s es una relacin de equivalencia y por tanto particiona a X)

Por qu se le llama equivalencia kernel

Sucede que en el caso de homomorfismos si f(x1)=f(x2) f(x1)-f(x2)=0 f(x1-x2)=0, i.e. x1-x2 est en el kernel de f. Claramente una matriz A puede ser considereda como una funcin (y an ms, un homomerfismo, chequen en clase esto y vern que si la hace). Entonces el kernel que definimos de A es consistente con el kernel en homomerfismos y sucede que:

Por qu se le llama equivalencia kernel


El kernel de A es un subespacio La imagen de A es un subespacio Ya qu no saben qu, A/ker A es un espacio y se le llama espacio cociente.

Entendamos bien esto, que est demasiado fcil, salvo la primera vez

Encontrar Kernel, imagen (range, no rank), A/Ker A de la siguiente matriz A.


1 -1 -1 1

Sistemas Lineales III: Control Geomtrico-1.8

Sean X y Y dos conjuntos cualesquiera. Sea A:XY una funcin cualquiera. Entonces se puede definir la relacin Ker A de la siguiente forma: x1~x2 ssi A(x1)=A(x2) Note que la relacin Ker A es una relacin de equivalencia. Como es una relacin de equivalencia, entonces diremos que x1 x2 (mod Ker A) x1 es equivalente a x2 mdulo Ker A- -Tambin se dice que x1 es congruente a x2 va Ker A o que la relacin Ker A es una congruencia-

Significado geomtrico de esta relacin


X x1 x2 x3 x4 x5 x6 Imagen de A Observe que hay tantos clusters como imgenes de A Podemos hacer el conjunto de los clusters y3 y4 y2 clusters y1 Y

Significado geomtrico de esta relacin


clusters A este conjunto lo llamaremos X/Ker A, o conjunto cociente X/Ker A

c1={x1, x2, x3}

c2={x4} c3={x5, x6}

(A menudo yo le llamo conjunto de clustercillos)

Significado geomtrico de esta relacin


X/Ker A Noten que la relacin Ker A est dando una medida de la inyectividad de A. Si el nmero de clusters es igual al nmero de elementos en X, entonces A es inyectiva.

c1={x1, x2, x3}

c2={x4} c3={x5, x6}

A los clusters se les llama coconjuntos (cosets) y son justamente los subconjuntos de X sobre los cuales A tiene diferente valor. Tambin se les suele llamar las fibras de A.

Significado geomtrico de esta relacin


Ejem. A(x)=x mdulo 4 -es el residuo de la divisin, no la congruencia X 1 5 9 3 7 Aqu est A 0 4 8 2 6 X/Ker A c2=[1 5 9] c1=[0 4 8] c4=[3 7] c3=[2 6] 0 1 2 Y 3

Como X/Ker A y la imagen de A tienen la misma cantidad de elementos, entoces hay un isomorfismo entre X/Ker A y Im(A) [X/Ker A Im(A)]

Significado geomtrico de esta relacin


Proposicin. Sea A:XY y sea PA:XX/Ker A su proyeccin cannica, entonces g:X/ker Aim(A) tal que A=gPA, donde g es un isomorfismo. X 0 4 8 PA X/Ker A c2=[1 5 9] c1=[0 4 8] c4=[3 7] c3=[2 6] 0 1 2 2 6 Y 3 1 5 9

3 7

Aqu est A

Demostracin

Definir g(z)=A(x) ssi z=PA(x). Se afirma que g(z) es funcin


Cubre todo X. Como A es funcin, entonces a cubre todo X, y por la definicin anterior, g tambin cubrir todo X Un valor de X/Ker A no est asociado a dos valores de Y. Suponer que si es as, (z,y1), (z,y2)g.

Entonces y1 y2. Por la definicin de g se tiene: z= PA(x1), y1=A(x1) y adems z= PA(x2), y2=A(x2) Como PA(x1),= PA(x2) implica que A(x1)= A(x2) Entonces y1=y2, una contradiccin, entonces Un valor de X/Ker A no est asociado a dos valores de Y

Por tanto g(z) si es funcin.

Demostracin

Ahora veremos que g es un isomorfismo.

g es inyectiva. Suponer que no es as, i.e. (z,y),(z,y)g


Entonces z z Entonces z=PA(x) y z=PA(x) Adems A(x)=A(x)=y. Como tienen la misma y, entonces PA(x)=PA(x), una contradiccin. Por tanto es inyectiva.

g es sobre. Como g:X/Ker AIm(A), slo abarca las imgenes de A. Por definicin de g, cualquier imagen de A tiene una preimagen en X/Ker A. Por lo tanto g es sobre.

Como es inyectiva y sobre, es un isomorfismo.

Demostracin

Por definicin A=g PA


o

Significado geomtrico de esta relacin


Estamos en los lmites... Si los conjuntos tienen estructura matemtica, p.e. X, Y son espacios vectoriales y la funcin A resulta ser un operador lineal. Ax1=Ax2 es la relacin Ker A. Un caso particular es para la imagen cero. En este caso todos los x, tales que Ax=0 formarn una clase de equivalencia. Las dems clases de equivalencia las obtendremos al estudiar las otras imgenes de A. Sin embargo, este proceso puede resultar muy lento, sobre todo porque Y tiene un nmero infinito de elementos. Una forma ms adecuada es estudiarlos a travs de la clase de equivalencia del 0 [0].

Significado geomtrico de esta relacin


Estamos en los lmites... Por ejemplo, si queremos estudiar el caso para la imagen y, entonces debemos encontrar todos los x tales que Ax=y. x1, x2 [x], Ax1=Ax2=y, entonces A(x1-x2)=0. Entonces si x1[x], se tiene que x2[x] ssi (x1-x2)[0]. Como la clase [0] es un subespacio de X De hecho si Ax=0 y Ay=0, entonces A(x+y)=0 y por tanto es un subespacio entonces (x1-x2) span[0], o (x1-x2) = 1e1+2e2+...+nen Si x1 est fijo, entonces x2= x1-1e1-2e2-...-nen.............................(1) Como con la clase de equivalencia [0] se generan todas las dems, a est clase la llamaremos genricamente Kernel de A.

Significado geomtrico de esta relacin


Estamos en los lmites... Como se observa, la ecuacin (1) es un mtodo para calcular todas las clases de equivalencia [x2]. Se puede ver que es un un espacio vectorial (el del Kernel) desplazado por x1 (cualquier vector de la clase). A esta clase de equivalencia, y slo cuando hablamos de operadores lineales en espacios vectoriales, le llamaremos una variedad lineal. No es un espacio, ya que en general, el cero no est includo en dicha variedad, pero si ser un espacio vectorial va mdulo algn vector de la clase.

Ejemplos

Significado geomtrico de esta relacin


Estamos en los lmites...

A:22 tal que A([x y]T)=[xy y-x]T. Claramente A es un operador lineal y un vector de la forma [k k]T est en la clase de equivalencia [0] o Kernel de A. El vector [2 1]T no est en la clase [0], pero si est en la clase [[2 1]T]. Los vectores que pertenecen a esta clase, de acuerdo a la ecuacin (1) son:

X=[2 1]T-[1 1]T

Significado geomtrico de esta relacin


Estamos en los lmites...

Clase [0] Clase [2 1]T

Significado geomtrico de esta relacin


Estamos en los lmites...

En realidad, cada clase forma una lnea paralela al Kernel de A.

Significado geomtrico de esta relacin


Si tenemos un operador lineal A:VW, entonces el Kernel de A ser un subespacio de V, y cada una de las clases de equivalencia ser una variedad lineal paralela al Kernel de A.

Ms an, el conjunto de las clases de equivalencia se denotar en la forma comn V/Ker A y ser llamado el espacio cociente V/Ker A.

Proposicin. Sea un operador lineal A:VW, entonces el conjunto V/Ker A es un espacio vectorial.

Demo. En este espacio, el vector nulo es la clase [0]. De hecho se tiene

Significado geomtrico de esta relacin


[v1]=[v1]+[0] para cualquier v1V. De la ecuacin (1) x2= v1-1e12e2-...-nen se observa que esto es cierto, ya que x2[v1].

Los escalares, son los del campo definido en V.

La suma de vectores [v1]+[v2]=[v3] se define como x1[v1], x2[v2] y x1+x2[v3]. Note que est bien definida ya que cualquier x1[v1] y x2[v2] sirven. De hecho v1- 1[0]+v2- 2[0]=v1+v2- [0]=[v3]

Todas las propiedades se pueden demostrar y resulta un espacio vectorial

Significado geomtrico de esta relacin


,... Pero hay ms cosas Claramente, Im(A) V/Ker A. Vimos que esto se cumple an en el caso que no sean espacios vectoriales.

Ahora volvamos a los conjuntos.

Vimos que si A:XY, entonces Ker A es una relacin de equivalencia. Por la definicin, cualquier funcin deja una relacin de equivalencia en su dominio. Pero, adems, nosotros sabemos que una relacin de equivalencia sobre un conjunto X es equivalente a una particin de X

Espacios vectoriales con producto interno

Espacios vectoriales con producto interno

5.1 Producto interno 5.2 Desigualdad de Cauchy-Schwarz 5.3 Ortogonalidad 5.4 Procedimiento de Gram-Schmidt 5.5 Espacios normados

Norma

Definicin.- Una norma (o norma vectorial) en (V,F) es una funcional que asigna a cada vector v un nmero real no negativo, llamado norma del vector v, y es denotado por ||v|| y satisface:

||v||>0 para v 0, y ||0||=0 ||v||=|| ||v|| escalar y v vector ||u+v|| ||u||+||v||

Norma

Definicin.- Para vectores x=[x1 x2 ... xp]T, las normas ||||1, ||||2, |||| son llamadas norma 1, norma 2 y norma infinito respectivamente y se definen como:

||||1=|x1|+|x2|+...+|xp| ||||2=(|x1|2+|x2|2+...+|xp|2)1/2 ||||=max{|x1|, |x2|, ...,|xp|}

Norma

Definicin.- Sea |||| una norma en (V,F). Una secuencia de vectores vi se dice que converje al vector v ssi la secuencia de nmero reales ||viv|| Para vectores x=[x1 x2 ... xp]T, las normas ||||1, ||||2, |||| son llamadas norma 1, norma 2 y norma infinito respectivamente y se definen como:

||||1=|x1|+|x2|+...+|xp| ||||2=(|x1|2+|x2|2+...+|xp|2)1/2 ||||=max{|x1|, |x2|, ...,|xp|}

Norma

Teorema: Sean x, y dos vectores. Entonces |xTy| ||x||2||y||2 Demostracin.


sabemos 0 ||x+y||=(x+y)T(x+y)=||x||22+ 2 ||y||22+2 |xTy| si =-||x||22/xTy, entonces 0 -||x||22+(||x||24||y||22/xTy|2) Despejando se llega a la desigualdad

Producto interno

Definicin. El producto interno en (V,F) sobre un par de vectores (u,v) que satisface:

(u,v)=(v,u) (u+v,w)= (u,w)+ (v,w) (w,u+v)= (w,u)+ (w,v) (u,u)>0, y es igual a cero si u es cero.

Producto interno

El producto interno (u,v)1/2 induce una norma en el espacio vectorial. Definicin. Sean el producto interno (,)

u, v son ortogonales ssi (u,v)=0 Un conjunto de vectores son ortogonales ssi cada par de vectores (u,v) son ortogonales Si un vector u es usado para producir u/||u|| tal que ||v||=1, entonces u se dice ser normalizado para producir el vector normalizado v Un conjunto de vectores se dice ortonormal ssi es ortogonal y ||v|| =1 para todo vector v

Producto interno

Diferentes productos internos


(u,v)=uTv si f y g son funciones real valuadas continuas en 0 t 1, entonces (f,g)= f (t ) g (t )dt


0

Proyecciones ortogonales

Teorema. Sea (V,F) un espacio vectorial. Sea (V0,F) un subespacio generado por los vectores ortogonales S={v1,...,vq}. Defnase la proyeccin ortogonal como sigue. Para cualquier vector v

P0v=1v1+...+qvq, donde i=(vi,v)/(vi,vi)

entonces

v-P0v es ortogonal a todo vector v en (V0,F) P0(u+v)=P0u+P0v P0(v)= P0v

Proyecciones ortogonales

Demostracin

(vi,v-P0v)=(vi,v)-1(vi,v1)-...-q(vi,vq)=(vi,v)- i(vi,vi)=0 Los otros puntos salen de la definicin de los coeficientes .


v v-P0v vi P0v= vi

Proyecciones ortogonales

Teorema. Sea (V,F) un espacio vectorial con producto interno y con su norma inducida por el producto interno ||||. Sea (V0,F) un subespacio generado por los vectores ortogonales S={v1,...,vq}. Entonces para cualquier v, P0v es el nico punto ms cercano en (V0,F) a v, y ||v-P0v|| es la distancia de v a (V0,F)

||v-P0v||<||v-v0|| para todo v0 diferente de P0v en (V0,F)

Proyecciones ortogonales

Demostracin.

||v-v0||2=(v-v0,v-v0)=(v-P0v+P0v-v0, v-P0v+P0v-v0)= (v-P0v, vP0v )+(v-P0v, P0v-v0)+(P0v-v0,v- P0v)+(P0v-v0, P0v-v0) Sabemos que v- P0v es ortogonal a los vectores en (V0,F), entonces se obtiene que: ||v-v0||=||v- P0v||+|| P0v-v0|| entonces ||v-v0||>||v- P0v|| a menos que v0= ||v-v0||=||v- P0v|| +||

Proyecciones ortogonales

Sea S={v1,...,vq} un conjunto de vectores ortogonales, entonces estos vectores son linealmente independientes. si se toma el vector 0=c1v1+...+cqvq, tenemos que saber el valor de cada ci. 0=(vi,0)=(vi,c1v1+...+cqvq)=ci(vi,vi) como (vi,vi)>0 ci=0 y son L.I.

Proyecciones ortogonales

Se sigue que si el vector proyectado v est en el espacio (V0,F), entonces P0v ser el mismo v y los valores de las i ser la representacin del vector en la base seleccionada S.

Proyecciones ortogonales

Teorema. Sea B={v1,...vq} una base ortogonal. La representacin del vector v se calcula como

v=1v1+...+qvq, donde i=(vi,v)/(vi,vi) Note que si la base es ortonormal, entonces los i se calculan fcilmente

Proyecciones ortogonales

Si tenemos S={v1,...,vq} un conjunto de vetores que genera (V,F)


Tomar u1=v1, desde 2 hasta q, ui=vi-Pi-1vi

Transformaciones lineales

Transformaciones lineales

6.1 6.2 6.3 6.4 6.5 6.6 6.7

Definicin Propiedades Kernel e imagen de una transformacin lineal Representacin matricial de una transformacin lineal Isomorfismos Operaciones con transformaciones lineales Algebra de transformaciones lineales

Transformaciones lineales

Definicin. Sean (V,F) y (W,G) dos espacios vectoriales. Una transformacin lineal T de (V,F) a (W,G) es una correspondencia que asigna a cada vector v en V un vector w en W tal que: T(v1+v2)=T(v1)+T(v2) T(v)= T(v) Se sigue que T(0)=0, ya que T(v)=T(v+0)=T(v)+T(0) lo que implica que T(0) debe ser el cero de W.

Transformaciones lineales

El espacio imagen Todos los vectores w en (W,G) tal que w=T(v) Solucin. Si w es fijo, entonces existe v en (V,F) tal que T(v)=w ssi w est en la imagen de T. Se aplica Sobre Claramente el problema Solucin tiene solucin si T es onto.

Transformaciones lineales

Otro problema es si la solucin es nica. T(v1)=T(v2)=w Se aplica Inyectividad Claramente la solucin es nica si w esta en la imagen de T y T es inyectiva. T(v1)=T(v2) T(v1)-T(v2)=0 T(v1-v2)=0 Tambin T tiene kernel.

Transformaciones lineales

Ms propiedades de las transformaciones lineales T(u-v)=T[u+(-1)v]=T(u)+T[(-1)v]=T(u)+(-1)T(v)=T(u)-T(v) T(1v1+...+nvn)= 1v1+...+nvn Esto se puede ver por asociatividad e induccin Teorema. Sea (V,F) un espacio vectorial de dimensin finita con base B={v1,...vn} y T1, T2 dos transformaciones lineales. Si T1(vi)=T2(vi) para todo vi en B, entonces T1(v)=T2(v) para v en (V,F). Demo, como cualquier vector de (V,F) se escribe como v= 1v1+...+nvn, entonces T1(v)=T1(1v1+...+nvn)= T1(1v1)+... +T1(nvn)=T2(1v1)+...+T2(nvn)=T2(v)

Transformaciones lineales

Teorema. Sea (V,F) un espacio vectorial de dimensin finita con base B={v1,...vn} y (W,G) un espacio vectorial que contiene a los vectores w1,...,wn, entonces existe una nica transformacin lineal tal que T(vi)=wi, para vi en B. Demo. Como cualquier vector de (V,F) se escribe como v= 1v1+...+nvn, entonces T se define como T(v)=1w1+...+nwn T ser una transformacin lineal T(u+v)=T[(1v1+... +nvn)+(1v1+...+ nvn)]= =T[(1+1) v1+...+( n+n) vn] Por la definicin de T, = (1+1) w1+...+( n+n) wn=T(u)+T(v)

Transformaciones lineales

De igual forma T(u)=T[(1v1+...+ nvn)] Por la definicin de T, 1w1+...+ nwn= T(u) Por teorema anterior se tiene la unicidad Tarea: Sean (V,F) y (W,G) dos espacios vectoriales y T: (V,F)(W,G) una transformacin lineal. Demsotrar que el kernel de T es un subespacio de (V,F) y que la imagen de T es un subespacio de (W,G).

Transformaciones lineales

Definicin. Sean (V,F) y (W,G) dos espacios vectoriales y T:(V,F)(W,G) una transformacin lineal.

Nulidad de T = (T) =dim (Ker (T)) rango de T = (T) = dim (Im (T))

Teorema. Sean (V,F) y (W,G) dos espacios vectoriales y T:(V,F)(W,G) una transformacin lineal.

Demo. Suponer que (T)=r y que {v1,...vr} es una base para el kernel; adems (T)=k y {w1,...wk} es una base para la imagen de T. Entonces hay que demostrar que B={v1,...,vr,u1,...,uk}

(T)+ (T) = dim (V,F)

Transformaciones lineales

Sea un v que pertenece a (V,F). Como T(v)= 1w1+...+kwK Al Vector v lo podemos escribir como v= 1u1+...+kuK-v v= 1u1+...+kuK-v T(v)=T(1u1+...+kuK-v)= 1T(u1)+...+kT(uk)-T(v) = 1w1+...+kwK-T(v)=0 v est en el kernel de T Como {v1,...vr} es una base de Kernel de T, existen escalares 1 ,.., r tal que v= 1v1+ ... +rvr=1u1+...+kuK-v Por tanto v= 1u1+...+kuK- 1v1- ... -rvr y {u1,...,uk, v1,..., vr} genera (V,F) Ahora hay que ver que sean L.I.

Transformaciones lineales

Sea un vector 1u1+...+ kuK+ 1v1+ ... + rvr=0 Entonces T( 1u1+...+ kuK+ 1v1+ ... + rvr)=0 Como los vi estn en el kernel 0= 1w1+...+ kwK, como los wi son una base de la magen, entonces son L.I. y la nica solucin es i=0 Entonces el vector se reescribe como 1v1+ ... + rvr=0 , como los vi son una base para el kernel son L.I., entonces la nica solucin i=0 y los vectores son L.I. y por lo tanto es una base y la dimensin de (V,F) es

(T)+ (T) = dim (V,F)

Transformaciones lineales

Sean (V,F) y (W,G) dos espacios vectoriales y T: (V,F)(W,G) , entonces existe una nica matriz A (dim(v), dim(W)) tal que T(x)=Ax A est la matriz de transformacin correspondiente a T. Demo sea B={e1,...,en} la base cannica en (V,F) T(ei)=wi Se puede formar la matriz A=[w1 wn] entonces Aei=wi (T(ei)=wi) En general T(x)=T(1e1+ ... +nen)= 1w1+ ... +nwn Tambin Ax=A[1e1+ ... +nen]= 1w1+ ... +nwn =T(x)

Transformaciones lineales

Suponer que T(x)=Ax=Bx (A-B)x=0, para x=ei (A-B)ei=0 que la i-sima columna de (A-B) es cero, por lo que las matrices son iguales y A es nica. Teorema Sea A la matriz de transformacin correspondiente a T, entonces i) Im T Im A, pero isomorfo ii)(T)=(A) iii)Ker T Ker A, pero isomorfo iv)(T)=(A)

Transformaciones lineales

Teorema. Sean (V,F), (W,G) dos espacios vectoriales de dimensiones n y m respectivamente. Sea T(V,F)(W,G) una transformacin lineal. Sean B1={v1,...,vn} y B2={w1,...,wm} las bases de los espacios respectivamente. Entonces existe una nica matriz A (m,n) tal que:

[T(x)]B2la representacin de T(x) en B2


[T(x)]B2=A(xB1)

T(x)= 1w1+ ... +mwm [T(x)]B2=[1 ... m]T xB1 es la representacin del vector en B1

La matriz A se conoce como la matriz de transformacin correspondiente a T con respecto a las bases B1 y B2

Transformaciones lineales

Considere los vectores T(v1, ...,T(vn), escrbase A=[[T(v1)]B2 ... [T(vn)]B2] Como AviB1=Aei= [T(vi)]B2 y xB1 es la representacin del vector en B1, i.e. [1 ... n]T entonces A xB1=[[T(v1)]B2 ... [T(vn)]B2] xB1= 1[T(v1)]B2+...+[T(vn)]B2]n Por otro lado T(xB1)=T(1v1+...+nvn)= 1T(v1)+...+nT(vn) Al poner cada uno de estos vectores en la representacin de la base B2 se obtiene que: A xB1= T(xB1) La unicidad es similar al teorema anterior

Transformaciones lineales

Teorema.- Sea A (m,n) la matriz de transformacin correspondiente a T:(V,F)(W,G) con respecto a las bases B1={v1,...,vn} y B2={w1,...,wm} respectivamente. Suponga que hay otras bases B1={v1,...,vn} y B2={w1,...,wm} de los espacios respectivos. Entonces la matriz A correspondiente a la misma transformacin T con respecto a las bases B1 y B2 est dada por:

A=P-1AQ

P es la matriz de transicin (de paso) de la base B2 en B2 Q es la matriz de transicin (de paso) de la base B1 en B1

Transformaciones lineales

Demo. Sabemos que [T(x)]B2=AxB1 Ahora, xB1=QxB1 y [T(x)]B2=P[T(x)]B2 Por tanto P[T(x)]B2=A QxB1 [T(x)]B2=P-1A QxB1 A=P-1AQ es la matriz de transformacin

Transformaciones lineales

En especial, si (V,F) y (W,G) son los mismos, entonces A=P-1AP Definicin. Se dice que dos matrices cuadradas A y B son similares si existe una matriz P no singular (determinante diferente de cero) tal que B=P-1AP

Transformaciones lineales

Transformaciones T

Inyectiva Kernel T = {0} Sobre

Teorema. T:VW una transformacin lineal y dim v=n y dim w=m i) si n>m, T no es inyectiva ii) si m>n T no es sobre Demo. Tarea.

Transformaciones lineales

Definicin. Una T.L es un Isomorfismos ssi es inyectiva y sobre. La matriz de un isomorfismo es invertible. Definicin. Se dice que (V,F) y (W,G) son isomorfos ssi existe un isomorfismo entre ambos Teorema. Sean (V,F) y (W,G) dos espacios vectoriales de dimensin finita. Entonces (V,F) y (W,G) son isomorfos si dim (V,F)=dim (W,G) Demo. Obtener bases para cada uno. Entonces quedan representados en (Rn,R). Como son bases en el mismo espacio, existe una matriz de cambio de base A. por teoremas anteriores existe una T.L. asociada a A que es un isomorfismo. Si existe el isomorfismo entre las representaciones, lo existe entre los espacios.

Transformaciones lineales

Corolario. Cualquier espacio de dimensin n es isomorfo a (Rn,R) Teorema. Si T:(V,F)(W,G) es un isomorfismo


i) Si {v1,...vn} genera (V,F), entonces {T(v1),...,T(vn)} genera (W,G) ii) Si {v1,...vn} son L.I., entonces {T(v1),...,T(vn)} son L.I. iii) si {v1,...vn} es una base, entonces {T(v1),...,T(vn)} es una base.

Demo.

i) v=1v1+ ... +nvn T(v)=w=1T(v1)+ ... +nT(vn) {T(v1),...,T(vn)} genera (W,G) iii) Suponga que 0=T(v)=w=1T(v1)+ ... +nT(vn) , entonces T(1v1+ ... iii) se sigue de anteriores.

+nvn)=0, como T es isomorfismo T(0)=0 es el nico. Entonces 1v1+ ... +nvn=0, pero como son L.I. i=0 y por tanto {T(v1),...,T(vn)} son L.I.

Transformaciones lineales
Prop. Si T:(V,F)(W,G) es un isomorfismo, entonces para todo vector wW existe un nico vector v V tal que T-1(w)=v, donde T-1:(W,G)(V,F) es conocida como la transformacin inversa de T. Demo. 2 partes T-1 es T.L. y T-1(w)=v nico T(v1)=w1; T-1(w1)=v1; T(v2)=w2 T-1(w2)=v2 T(v1+v2)=T(v1)+T(v2)=w1+w2 T-1(w1+w2)=v1+v2 T(v1)= T(v1)= w1 T-1(w1)= v1 Como T es isomorfiso, la definicin de T-1 hace que exista un nico valor de regreso. Nota. T es T.L. A es su operador T-1 es la inversa de T, entonces A-1 es el operador de T-1

Transformaciones lineales

Operaciones con transformaciones lineales Sean (V,F) y (W,F) dos espacios vectoriales sobre el mismo campo F. Hom(V,W) es el conjutno de todas las transformaciones lineales entre (V,F) y (W,F). Sean T1 y T2 dos T.L. entre (V,F) y (W,F) Se define la suma T1+T2 como T1+T2:VW (T1+T2)(v)=T1(v)+T2(v) para todo F, T1 es (T1)(v)=T1(v)

Transformaciones lineales

El conjunto Hom(V,W) definido anteriormente es un espacio vectorial sobre el campo F. Demo. Tarea.

Algebra de Transformaciones lineales

Definicin. Un lgebra A sobre un campo F es un espacio vectorial sobre F en el que se tiene definida una operacin producto que satisface para todos los elementos T1, T2, T3 A y F: T1(T2+T3)=T1T2+T1T3 (T2+T3)T1=T2T1+T3T1 (T1T2)=(T1)T2=T1(T2) Si adems se cumple que (T1T2)T3=T1(T2T3) entonces A es un lgebra asociativa

Algebra de Transformaciones lineales

Definicin. Sean V, U y W espacios vectoriales sobre el mismo campo F. Sean T1:VU y T2:UW dos transformaciones lineales. Se define la composicin de T2 seguida de T1 T2T1 como la funcin de V a W (T2T1) :VW tal que (T2T1)(v)=T2(T1(v)) Proposicin. Si T1 y T2 son TL, entonces T2T1 tambin lo es. Demo. Sean u,v V y , F, entonces (T2T1)(v+u)=T2(T1(v+u))=T2(T1(v)+T1(u)) = (T2T1)(v)+ (T2T1)(u) (T2T1) es T.L. Puede verse que Hom(V,V) con la composicin es un lgebra asociativa.

Adicional de Transformaciones lineales


Sean A, B dos matrices de qxn y nxp con coeficientes en el mismo campo. Entonces (A)+(B)-n (AB) min((A), (B)) Demo (A) (B)
R(B) n R(A) R(AB)

p n(B)

d n(A)

Adicional de Transformaciones lineales

De la figura (AB) min((A), (B)). Tambin (AB)= (B)-d (la interseccin de R(B) y n(A). La dimensin de n(A)=n- (A) d n+ (A) y se sigue que (AB) (A)-n+ (B) Si B es no singular (A)+(B)-n = (A) (AB) min((A),n) = (A) (A) (B)
R(B) n

R(A)

R(AB)

p n(B)

d n(A)

4. Valores y vectores propios

Valores y vectores propios


Definicin y propiedades Teorema de Cayley-Hamilton Diagonalizacin de matrices

Valores y vectores propios

Definicin. Sea V un espacio vectorial y T:VV una transformacin lineal del espacio en s mismo. Sea vV un vector diferente de cero pa el cual existe un escalar tal que T(v)=v, entonces se dice que es un valor propio de T y que v es un vector propio de T asociado a .

Valores y vectores propios

Cuando V es un espacio de dimensin finita, la transformacin T la podemos representar como una matriz A de n,n. Entonces podemos redefir los valores y vectores propios de la siguiente forma. Definicin. Sea A una matriz de n,n. El escalar se denomina valor propio de A si existe un vector x diferente del nulo, tal que Ax= x nuevamente x es el vector propio asociado a .

Valores y vectores propios

Teorema. Sea A una matriz de n,n. Entonces es un valor propio de A ssi det(I-A)=0 Demo. Slo si. Suponga que es un valor propio de A; entonces existe un vector x diferente de cero tal que Ax= x (I-A)x=0, como x diferente de cero (I-A) es singular det(I-A)=0

Valores y vectores propios

(si). Si det( I-A)=0 ( I-A) es singular ( I-A)x=0 tiene soluciones diferentes de cero, entonces existe x diferente de cero tal que Ax= x.

Valores y vectores propios

Definicin. La ecuacin det(I-A)=0 se conoce como ecuacin caracterstica de A, y el polinomio p()=det(I-A) Observe que p()=(det(I-A)=a0+a1+...+an por el teorema fundamental del lgebra, cualquier polinomio de grado n tiene n races (contando multiplicidades). p()=(det(I-A)=a0+a1+...+an= (- 1)r1...(- m)rm Los nmero ri son la multiplicidad algebraica de

Valores y vectores propios

Teorema. Sea un valor propio de A y E={x|Ax= x}. Entonces E es un subespacio vectorial de Cn Ntese que E son las soluciones de (IA)x=0, es decir el kernel de un operador lineal es un subespacio vectorial.

Valores y vectores propios

Definicin. Sean un valor propio de A. Entonces E se denomina espacio propio de A correspondiente a . Definicin. Sea E el espacio propio de A debido a . A la dimensin de E se le conoce como multiplicidad geomtrica de . Multiplicidad geomtrica de =dim E=dim{Ker (I-A)}

Valores y vectores propios

Ejemplos y procedimientos de clculo.


4 1 -2 1 2 -4 -1 2 1 2 -1 -1

Valores y vectores propios

Teorema. Sea un valor propio de A. Entonces se cumple que la multiplicidad geomtrica de multiplicidad algebraica de

Valores y vectores propios

Teorema. Sean 1, 2, ..., m valores propios diferentes de A (n,n), donde m n y sean x1, x2,..., xm sus vectores propios correspondientes. Entonces x1, x2, ..., xm son linealmente independientes. Demostracin. Suponga que {x1,...,xm} son L.D. y que xs es el primer vector L.D. de los previos xs=1x1+2x2+...+s-1xs-1 Multiplicando por A Ax = Ax + Ax +...+ Ax

Valores y vectores propios


sxs= 1 1 x1+2 2 x2+...+s-1 s-1 xs-1 Restando ecuaciones y multiplicando por s se tiene 0=1(1-s)x1+2 (2-s) x2+...+s-1 (s-1-s)xs-1 Como xs es el primer vector L.D. entonces 1(1-s)=2 (2-s)=...=s-1 (s-1-s)=0 como i s i=0 xs=0, lo cual contradice la suposicin las vectores son L.I.

Valores y vectores propios

Teorema. La matriz A (n,n) tiene n vectores propios L.I. ssi la multiplicidad geomtrica de cada valor propio es igual a su multiplicidad algebraica. Tarea (Grossman, pag 545)

Valores y vectores propios


Definicin. Sea F(x)=a0+a1x+a2x2+...+anxn un polinomio y A una matriz cuadrada Se define el polinomio f(x) en la matriz A como: F(A)=a0I+a1A+a2A2+...+anAn Sy f(A) es igual a la matriz cero, entonces se dice que A es raz (o cero) del polinomio f(x). Sea F() (n,n) una matriz polinomial en la variable , i.e. F()=F0+F1+...+Fmm= F()=F0+F1+...+mFm donde F0, F1,...,Fm son matrices cuadradas reales.

Valores y vectores propios

Se dice que F() es de orden n; y si Fm 0, entonces F() es de grado m. Adems F() se dice regular si det(Fm) 0 Definicion. Sean F() y G() matrices polinomiales de orden n., y G() es regular. Las matrices polinomiales Q() y R() se conocen como cociente derecho y residuo derecho respectivamente de F() dicidida por G() si F()= Q() G() + R() y si el grado de R() es menor que el grado de G() [R() puede ser cero]

Valores y vectores propios

De manera similar se pueden definir el cociente izquierdo y residuo izquierdo Sea A (n,n) y denota F(A) la evaluacin por la derecha de A en la matriz polinomial F() , esto es, si F()=F0+F1+...+Fmm= F()= F0+F1A+...+FmAm

Valores y vectores propios

Teorema. Si la matriz polimial F() es dividida por la derecha por la matriz (I-A) entonces el residuo es F(A), y si es dividida por la izquierda por (I-A) entonces el resiudo es F(A) (por la izquierdA). Demostracin. Tarea. (teorema generalizado de Bezout, Grantmatcher, pag 81)

Valores y vectores propios

Corolario. La matriz polinomial F() es divisible por la derecha por la matriz (I-A) sin residuo (R()=0) ssi F(A)=0 (De manera similar se puede hacer por la izquierda) Teorema (Cayley-Hamilton). Toda matriz A (n,n) es raz de su polinomio caracterstico. Demostracin. P()=det(I-A)=a0+a1+...+n Hay que mostrar que P(A)=0

Valores y vectores propios


de teoremas previos (I-A)adj(I-A)=det(I-A)I=[adj(I-A)](I-A) Lo cual puede verse como P()=(I-A)Q()=Q()(I-A) donde Q()=adj(I-A) es una matriz polinomial en y P()=det(I-A)I=a0I+a1I+...+nI como P() es divisible por la derecha y por la izquierda por (I-A) sin residuos, entonces P(A)=a0I+a1AI+...+AnI

Valores y vectores propios

Definicin. Se dice que el polinomio F() es un polinomio aniquilador de la matriz A (n,n) si F(A)=0 (p.e. el polinomio caracterstico de A) Definicin. Al polinomio aniquilador mnico Q() de A de menor grado se le conoce como polinomio mnimo de A.

Diagonalizacin de matrices

Definicin. Se dice que A (n,n) es diagonalizable (bajo similaridad) si existe una matriz no singular P tal que P-1AP es diagonal

Diagonalizacin de matrices

Teorema. La matriz A (n,n) es diagonalizable ssi tiene n vectores propios linealmente independientes Si 1, 2, ..., n son los valores propios de A y los vectores propios x1, x2, ..., xn correspondientes a estos valores propios son linealmente independientes, entonces P-1AP=diag{1, 2, ..., n}, donde P=[x1 x2 ... Xn]

Diagonalizacin de matrices

Demostracin. (si) Suponga que A tiene n vectores propios L.I. x1 x2 ... xn correspondientes a los valores propios 1, 2, ..., n (algunos pueden ser repetidos). Sea P la matriz [x1 x2 ... xn], entonces AP= [Ax1 Ax2 ... Axn]= [1x1 2x2 ... nxn] = [x1 x2 ... xn]diag{1, 2, ..., n} =Pdiag{1, 2, ..., n} Como P es no singular tiene inversa
-1

Diagonalizacin de matrices

Demostracin. (slo si) Suponga que existe una matriz no singular P tal que P-1AP=diag{1, 2, ..., n} AP=Pdiag{1, 2, ..., n} Para cada xi de P se tiene que: Axi= ix xi es vector propio de A i es valor propio de A P es no singular A tiene n vectores propios L.I.

Diagonalizacin de matrices

Corolario. La matriz A (n,n) es diagonalizable ssi la multiplicidad geomtrica de cada valor propio es igual a su multiplicidad algebraica. En particular A es diagonalizable si todos sus valores propios son distintos

Diagonalizacin de matrices

Teorema. Si A y B son similares, entonces tienen el mismo polinomio caracterstico, y por consiguiente los mismos valores propios. Demo. det(I-B)=det(I-P-1AP)=det(P-1P-P1 AP)=det(P-1(I-A)P)=det(P-1)det(IA)det(P)=det(I-A)

Diagonalizacin de matrices

Teorema. Si A y B son similares, i.e. existe una matriz no singular tal que B=P-1AP. Entonces: i) Bk=P-1AkP ii)Si f(x)=a0+a1x+...+anxn es un polinomio cualquiera, entonces f(B)=P-1f(A)P

Diagonalizacin de matrices

Demo Bk=(P-1AP)k= =(P-1AP)(P-1AP)...(P-1AP)= P-1AkP ii)Si f(B)=a0I+a1(P-1AP)+...+an(P-1AnP)= =P-1(a0+a1A+...+anAn)P=P-1f(A)P

Diagonalizacin de matrices
1 0 0 1 1 0 2 3 2

Diagonalizacin de matrices

Tiene dos propio valores 1=1, 2=2 con multiplicidades algebraicas 2 y 1 y geomtricas 1 y 1 respectivamente no es posible diagonalizar A, pero es posible encontrar una bse donde A sea casi diagonal?

Diagonalizacin de matrices

Definicin.- Un vector v es llamado un vector propio generalizado de rango k de A asociado con iff

(A- I)kv=0 (A- I)k-1v 0

Note que si k=1 coincide con vector propio

Diagonalizacin de matrices

Definicin.vk=v vector propio generalizado vk-1=(A-I)v=(A-I)vk vk-2=(A-I)2v=(A-I)vk-1 ... v1=(A-I)k-1v=(A-I)v2

Diagonalizacin de matrices

... vk-2=(A-I)2v=(A-I)vk-1 ... Entonces para 1 i k vi es un vector propio generalizado de rango i, por ejemplo (A-I)k-2vk-2=(A-I)k-2(A-I)2v=(A-I)kv=0 (A- I)k-1vk-2=(A-I)k-1v 0

Diagonalizacin de matrices

Definicin.- Lleamaremos a los vectores {v1, v2,...,vk} una cadena de vectores propios generalizados si vk es un vector propio generalizado que dio origen a todos los dems vectores

Diagonalizacin de matrices

Teorema. El conjunto de vectores propios generalizados v1, v2, ..., vk definidos anteriormente es L.I. Demostracin.Suponer que v1, v2, ..., vk son L.D., entonces existen soluciones diferentes de la trivial a:

1v1+2v2+...+kvk=0

Multiplicando por (A-I)k-1 y observando que vi=vk-(k-i)=(A-I)k-iv por definicin

Diagonalizacin de matrices

entonces (A-I)k-1vi=(A-I)2k-(i+1)v=0 para i=1,2,...,k-1 k(A-I)k-1vk=0 y sabiendo de la def. de vector propio generalizado que (A-I)k-1vk 0, k=0 Aplicando ahora (A-I)k-2 se demuestra que k-1=0 Siguiendo esto se tiene que i=0, lo que contradice la suposicin. son L.I.

Diagonalizacin de matrices

Teorema: Los vectores propios generalizados de A asociados con diferentes propio valores son L.I. Demostracin. Sea v vector propio generalizado 1 vi=(A-1I)vi+1=(A-1I)k-iv Sea u vector propio generalizado 2 ui=(A-2I)ui+1=(A-2I)l-iu Del teorema anterior los vi son L.I. y los ui son L.I, falta ver que {u }, {v } son L.I.

Diagonalizacin de matrices

Suponer que vi es L.D. en {u1,...,ul} vi=1u1+2u2+...+lul Aplicando (A-1I)i 0= (A-1I)i [1u1+2u2+...+lul ] Ahora aplicando (A-2I)l-1 y observando que (A-2I)l-1 (A-1I)i = (A-1I)i (A-2I)l-1 y el hecho de que (A-2I)l-1 uj=0, j=1,2,..., l-1 0=l(A-1I)i(A-2I)l-1ul=l(A-1I)iu1 Como (A-2I)u1=0 o Au1=2u1, la ecuacin anterior se reduce a

Diagonalizacin de matrices

se reduce a l(2-1)iu1=0 lo cual implica que l=0. Un procedimiento similar llega a la conclusin de que todos los i=0, lo que contradice la suposicin y los vectores son L.I.

Diagonalizacin de matrices

Teorema. Sean u y v propio vectores de rango o y l respectivamente, asociados con el mismo valor propio . vi=(A-I)vi+1=(A-1I)k-iv ui=(A-I)ui+1=(A-2I)l-iu Si u1 y v1 son L.I. las cadenas son L.I.

Diagonalizacin de matrices

El tratar de construir la forma casi diagonal (diagonal por bloques o forma de Jordan) se convierte en un proceso iterativo. 1.- se calculan propio valores y propio vectores de la forma tradicional. 2.- Si la multiplicidad algebraica es mayor que la geomtrica tratar de encontrar una cadena lo suficientemente larga de vectores generalizados para construir los vectores L.I. independientes faltantes, de lo contrario construir cadenas ms pequeas hasta completarlos

Matrices unitarias

Si P es no singular B=P-1AP transformacin de similaridad Sirven para cambio de bases Ms conveniente si las bases son ortogonales y ortonormales Si {x1,...,xp} es un conjunto ortonormal xiTxi=1 y xiTxj=0 Si hacemos que P=[x1,...,xp] PTP=I o PT=P-1

Matrices unitarias

Definicin. Una matriz P (de reales) para la cual PT=P1 tal que PTP=I, se dice ser unitaria. Teorema. a) P unitaria el conjunto de vectores columna es ortonormal b) P unitiaria |det(P)|=1 c) P unitaria <PX,Py>=<x,y> d) P unitaria si valor propio de P ||=1 Demo. Clara

Matrices unitarias

Teorema. Si B=P-1AP donde P es unitaria (se dice transformacin de similaridad unitaria) todo lo que se vi de propiedades de similaridad sigue valiendo.

Matrices unitarias

Teorema. Si A es una matriz de pxp. a) A es similar unitaria a una matriz triangular superior T; T=P-1AP con P unitaria y con los propiovalores de A en su diagonal principal. T es llamada la forma de Shur de A y la descomposicin A=PTP-1= PTPT es la descomposicin Shur de A. Demo. Si p=1 ya terminamos. Suponer que para p=k es cierto Para p=k+1 tenemos.

Matrices unitarias

1 es el propio valor asociado a x1, podemos normalizar este vector para que ||x1||2=1 Entonces x1 entra a la base que ya tenamos de propiovectores ortonormalizados {w1,...,wk} si no es otronormal a esta base, aplicamos Gram-Schmidt y tenemos la nueva base {x1,w1,...,wk} U= [x1,w1,...,wk]=[x1,W] A=UTAU=[x1,W]TA[x1,W]=[x1,W]T[Ax1 AW]= 1 bT 1 x1TAW 0 W AW
T

Matrices unitarias

Definicin. Una matriz A de pxp es normal si ATA=AAT Teorema. A normal D=PTAP, D es diagonal, y P es unitaria. Por tanto los propio vectores de A son p linealmente independientes

Matrices unitarias

Veamos ahora el caso en que A=UVT, con U y V unitarias de pxp y qxq, es pxq casi cero, excepto en la diagonal que vale ii=i que es un real no negativo.
2 0 0 0 0 0 4 3 0 0 2 0 0 0 0 0 6 0

As son

Matrices unitarias

Claramente se tendra AV=U Avi=iui para 1 i min(p,q), dende los ui, vi son las columnas de U y V respectivamente. Adems ATA= (UVT)T (UVT)=VTUTUVT=V(T)VT donde T=D=VTATAV es diagonal de qxq que los propio vectores de ATA sirven para construir V y D tiene los valores propios D=T Similarmente para el caso AAT=U(T)UT en este caso D= T

Matrices unitarias

Definicin. A la descomposicin que hemos venido manejando, A=UVT, se le conoce como descomposicin en valores singulares de A. Viendo lo que hicimos para la descomposicin de Schur, podemos ver que la descomposicin en valores singulares siempre existe. Los valores singulares de A son los i, y el nmero de valores no cero es el rango de A. Los ui son los vetores singulares izquierdos y los vi los vectores singulares derechos relacionados con i.

1
A=

1 2 2
ATA

2 2

9 9

9 9

propiovalores 18 y 0. 1=18(1/2) y 2=0 Un par de vectores propios de ATA normalizados son v1=[1.71/2 1.71/2]T y v2=[1.71/2 -1.71/2]T Entonces V=[V1 v2]

1
A=

1 2 2
AAT=

2 4 4

4 8 8

4 8 8

2 2

propiovalores 18 y 0. 1=18 y 2=0 Vectores propios de AAT normalizados son u1=[1/3 2/3 2/3]T u2=[(-2)51/2/5 51/2/5 0]T Entonces U=[u1 u2 u3] u3 =[(2)51/2/15 (4)51/2/15 (-1)51/2/3 ]T

1
A=

1 2 2
AAT=

2 4 4

4 8 8

4 8 8

2 2

3(2)1/2 0 0

0 0 0

Mnimos cuadrados

Suponer que A=UVT, es la descomposicin en valores singulares, donde A es de rango k. El problema es minimizar || Ax-b||2 con respecto a x. ||Ax-b||2=||UVTx-b||2=||y-UTb||2 y=VTx ||Ax-b||2 es mnimo cra x ssi ||y-UTb||2 es mnimo cra y. ||y-b||22=|1y1-b1|2+...+|kyk-bk|2+|bk+1|2+...+|bp|2 b=UTb Es minimizado si yi=bi/i

Mnimos cuadrados

Entonces para ||Ax-b||2 con respecto a x. Encontrar A=UVT Calcular b=UTb Calcular yi=bi/i para 1 i k, yi=0 otro caso x0=Vy y=VTx ||Ax-b||2 es mnimo cra x ssi ||y-UTb||2 es mnimo cra y. ||y-b||22=|1y1-b1|2+...+|kyk-bk|2+|bk+1|2+...+|bp|2 b=UTb Es minimizado si y =b /

You might also like