Professional Documents
Culture Documents
Espacios vectoriales
Un espacio vectorial E=(V,F) Es un conjunto de elementos llamados vectores sobre un campo F donde
x+y=y+x y pertenece a V x+(y+z)=(x+y)+z Existe el vector 0, tal que 0+x=x+0=x Para cada vector x existe el x, tal que x-x=0
Espacios vectoriales
(x+y)= x+y x= x (1+ 2)x= 1(x)+ 2(y) 1x=x 1 la unidad multiplicativa del campo
Espacios vectoriales
ejemplos
Espacios vectoriales
Teorema 0v=v0=0
(-1)v=-v
Subespacio
Sea (V,F) un espacio, entonces (S,F) es un subespacio de (V,F) si preserva todas las caractersticas de espacio y S es un subconjunto de V
Subespacio
ejemplos
Creacin de espacios
Teorema.
Si v1,vn estn en S, entonces tambin 1v1+ +nvn, donde i son elementos del campo
(S,F) es un subespacio
Creacin de espacios
Preguntas importantes
En qu condiciones dos conjuntos S1, S2 crean el mismo espacio vectorial? Cal es la cardinalidad mnima de QS tal que Q y S crean el mismo espacio vectorial? Cando S crea el mismo espacio que contiene a los vectores de S?
Definicin. Sea S={v1,v2,...vn} un conjunto de vectores. El vector y=1v1+2v2+...+nvn donde los coeficientes son escalares ser llamada combinacin lineal de S.
Definicin. Sea S={v1,v2,...vn} un conjunto de vectores. S es linealmente independiente si 1v1+2v2+...+nvn=0 tiene como nica solucin la trivial. De lo contrario se llamarn linealmente dependientes.
Definicin. Sea S={v1,v2,...vn} un conjunto de vectores. Si S es linealmente independiente, entonces el espacio creado por S ser llamado espacio generado por S.
Sea S={v1,v2,...vn} un conjunto de vectores. Para mostrar si es linealmente independiente se resuelve la ecuacin:
1 2 n
=0
Si la matriz [v1 ...vn] es de rango n entonces tiene solucin nica Si la matriz [v1 ... vn] es de rango menor a n, entonces tiene ms de una solucin.
Ejemplos en clase
Definicin. Sea (V,F) un espacio vectorial, entonces el conjunto S={v1, v2, ...vn} ser una base para (V,F) si S genera (V,F).
Notita. Si z es una C.L. (combinacin lineal) de los vectores x1,...,xr; y xi es una C.L. de los vectores y1,...,ys. Entonces z es una C.L. de los vectores y1,...,ys. z=a1x1+...+arxr z=a1(b11y1+...+b1sys)+...+ar(br1y1+...+brsys) Es una propiedad de transitividad
Notita. Si algunos vectores x1,...,xn son linealmente dependientes (L.D.) entonces todo el sistema x1,...,xn son L.D. Suponer que x1,...,xk (k<n) son L.D. a1x1+...+akxk=0 con ai diferente de nulo. a1x1+...+akxk+0xk+1+...+0xn=0 es solucin y el sistema es L.D.
Coordenadas
La base B={v1, ..., vn} es un conjunto, pero tiene un orden para facilitar trabajos 1 futuros. Representacin. Un vector v se puede 2 reescribir en trminos de una base.
v=1v1+2v2+...+nvn, a donde
... n
Teorema. La representacin del vector es nica v=1v1+2v2+...+nvn= 1v1+2v2+...+nvn (1-1)v1+...+ (n-n)vn=0 base L.I. entonces la nica solucin es cero (i-i)=0 i=i
Notita. El teorema anterior es cierto si dice que z=a1x1+...+akxk los ai son nicos ssi los xi son L.I.
Definicin. Sea (V,F) un espacio vectorial. Dos subespacios de (V,F); (V1,F) y (V2,F) se dicen equivalentes si los vectores de uno se pueden escribir como C.L. del otro y viceversa.
Teorema. Suponer que B={v1, ...,vp} es una base para (V,F) y suponer que D={u1,...,uq} es un subconjunto L.I. en (V,F), entonces q p Demostracin. Como B es una base, entonces uiD, (V,F) se puede expresar como una C.L. de B
S1={u1,e1,...,ep} es L.I. Existe un vector que es C.L. de los anteriores, digamos que es ei. Por transitividad el resto {u2,...,uq} es una C.L. de S1-{ei} y se puede aplicar el mismo procedimiento Como se observa el procedimiento no puede eliminar todos los vp vectores antes de que los ui vectores se hayan agotado y q p.
Teorema. Nmero de vectores en la base. Suponer que para un espacio (V,F) se tiene una base con p vectores. Entonces todas las bases tienen p vectores. Demo. Aplicar teorema anterior suponiendo que se tiene otra base con q vectores. q p. Aplicar partiendo de la base con q vectores p q q=p.
Definicin. Al nmero de vectores en la base de un espacio (V,F) se le llama dimensin de (V,F). En especial, todos los subespacios equivalentes tambin tienen un conjunto de vectores que lo generan (ya que son un espacio en s) y se tiene una base y por tanto tambin tienen su dimensin. En tal caso es ms adecuado hablar de rango que de dimensin, ya que podemos hablar de un subespacio en R3, pero de rango 2. A su vez, a la dimensin del espacio completo se le puede llamar rango, pero es mejor hablar de dimensin.
El espacio Rn tiene timensin n. Si la dimensin de un espacio es p cualquier conjunto con s vectores s>p es L.D. En efecto, la base tiene p vectores y el resto ser una C.L. de la base.
Teorema. Un espacio tiene dimensin finita k ssi k es el maximo nmero de vectores que se pueden obtener en el espacio. Demo. Si la dimensin es k la base tiene k vectores son L.I. y cualquier otro es una C.L. de la base (ya no es L.I.). Si el mximo nmero de vectores L.I. es k estos generan todo el espacio y por tanto es una base k es la dimensin.
4 4
=4
+4
0 1
1 1
0 1 1 1
4 0
=4
+0
0 1
Si el mismo vector se puede representar en diferentes bases, se podr transformar de una en otra?
0 1 4 4
=
1 0
1 0 1 1
4 0
1 0
0 1
4 4
=
4 0
El concepto fcilmente se puede generalizar a cualquier par de bases Lo que es ms chido... (P[x]2,R) una posible base es B={1, x, x2} v1=1 en la base
1 0 0
v2=x en la base
0 1 0
v3=x2
0 1
Espacios vectoriales
Kernel, imagen, espacio columna y espacio fila de una matriz Ecuaciones lineales y espacios vectoriales Cambio de base Espacio cociente Sumas y sumas directas
Kernel.
KerI={y|yTA=0} KerD={x|Ax=0}
Imagen
Teorema (operaciones columna y dependencia lineal). Suponer que una secuencia de operaciones elementales por rengln transforma la matriz A en la matriz B, entonces:
Una coleccin de columnas de A es linealmente dependiente (independiente) ssi la colleccin correspondiente de columnas de B es linealmente dependiente (independiente). Una matriz rengln puede ser escrita como una combinacin lineal de (esto es linealmente dependiendte de) todos los renglones de A ssi puede ser escrita como una combinacin lineal de todos los renglones de B.
Demostracin caso 1.Sea F=E1E2...En la secuencia de matrices elementales que realizan las operaciones elementales que transforman a A en B. F tiene inversa=no singular FA=B Fx=0 x=0 (solucin nica) Si las columnas de A son L.D. entonces 1a1+2a2+...+nan=A[] FA[ ]=B[ ] Si A es LD hay muchas combinaciones
que dan cero esas mismas combinaciones en B dan cero y sus columnas son LI. Si A tiene una sola combinacin que da cero, entonces en B ser la nica posibilidad de dar cero, ya que slo es este caso FA[]=0 Apliquemos esto a cualquier coleccin de columnas de A y se tendr la demostracin de la primera parte. Demostracin caso 2.Un matriz rengln y es una CL de los renglones de A ssi y=xA para alguan matriz rengln x, pero y=xF-1FA=xB, para x=xF-1
-11/3 -23/3
1 0 0 0
-1 1 0 0
-11/3 -23/3
2 1
3 1
1 0
1.5 1
Matriz
Forma de Gauss
Matriz
Forma de Gauss
Matriz
Forma de Gauss
Matrices
1. 2.
3.
Por intercambio de renglones hacer que el elemento (1,1) sea diferente de cero. Si no es posible es porque toda la columna 1 es igual a cero, tacharla y tratar de hacer lo mismo para la submatriz generada El proceso se repite hasta tener un elemento diferente de cero.
Matrices
4.
Todo el rengln se divide entre el elemento diferente de cero y se procede a hacer cero el resto de los elementos de esta columna de acuerdo al mtodo de Gauss
Matrices
5. 6. 7.
Una vez hecho esto se tacha el rengln y se obtiene una nueva submatriz Con esta nueva submatriz se procede desde el punto 1) El resultado es la matriz en la forma de Gauss
Matrices
Si se tiene un rengln diferente de cero, entonces a la primer columna diferente de cero se le llamar dominante o lder.
Teorema (matrices reducidas y dependencias) Suponer que G es una matriz en la forma de Gauss y de rango k a) El conjunto de las k columnas lderes es linealmente independiente b) Cualquier columna a la izquierda de la primera columna lder es una columna cero. Cualquier columna a la izquierda de la i-sima columna lder es combinacin lineal de las anteriores columnas lderes.
Definicin.- Sea A una matriz de p*q a) El espacio columna de A es el subespacio que es generado por el conjunto de columnas de A b) El espacio rengln de A es el subespacio generado por los renglones de A.
Poner ejemplos Dar las condiciones para que el sistema tenga solucin.
Ax=b
Teorema. Sea una matriz A de rango k. Entonces a) El espacio columna de A tiene diemnsin k. Una base son las columnas lderes. b) El espacio rengln es de dimensin k, una base son los renglones diferentes de cero. c) Una matriz p*p es no singular si sus columnas son LI rango p d) Una matriz p*p es no singular si sus renglones son LI rango p
Matrices
Corolario
Teorema (espacios rengln iguales). Sea A1 y A2 matrices de tamao r*q y s*q respectivamente. El espacio rengln de A1 es igual al espacio renglon de A2 ssi los renglones no cero de las matrices de Gauss coinciden.
Definicin: Sea f:XY una funcin de X a Y. Con f se asocia una relacin de equivalencia llamada equivalencia kernel de f y se denota por Ker f y est definida como sigue: x1,x2X, x1~x2 ssi f(x1)=f(x2)
(mostrar que s es una relacin de equivalencia y por tanto particiona a X)
Sucede que en el caso de homomorfismos si f(x1)=f(x2) f(x1)-f(x2)=0 f(x1-x2)=0, i.e. x1-x2 est en el kernel de f. Claramente una matriz A puede ser considereda como una funcin (y an ms, un homomerfismo, chequen en clase esto y vern que si la hace). Entonces el kernel que definimos de A es consistente con el kernel en homomerfismos y sucede que:
El kernel de A es un subespacio La imagen de A es un subespacio Ya qu no saben qu, A/ker A es un espacio y se le llama espacio cociente.
Entendamos bien esto, que est demasiado fcil, salvo la primera vez
Sean X y Y dos conjuntos cualesquiera. Sea A:XY una funcin cualquiera. Entonces se puede definir la relacin Ker A de la siguiente forma: x1~x2 ssi A(x1)=A(x2) Note que la relacin Ker A es una relacin de equivalencia. Como es una relacin de equivalencia, entonces diremos que x1 x2 (mod Ker A) x1 es equivalente a x2 mdulo Ker A- -Tambin se dice que x1 es congruente a x2 va Ker A o que la relacin Ker A es una congruencia-
A los clusters se les llama coconjuntos (cosets) y son justamente los subconjuntos de X sobre los cuales A tiene diferente valor. Tambin se les suele llamar las fibras de A.
Como X/Ker A y la imagen de A tienen la misma cantidad de elementos, entoces hay un isomorfismo entre X/Ker A y Im(A) [X/Ker A Im(A)]
3 7
Aqu est A
Demostracin
Cubre todo X. Como A es funcin, entonces a cubre todo X, y por la definicin anterior, g tambin cubrir todo X Un valor de X/Ker A no est asociado a dos valores de Y. Suponer que si es as, (z,y1), (z,y2)g.
Entonces y1 y2. Por la definicin de g se tiene: z= PA(x1), y1=A(x1) y adems z= PA(x2), y2=A(x2) Como PA(x1),= PA(x2) implica que A(x1)= A(x2) Entonces y1=y2, una contradiccin, entonces Un valor de X/Ker A no est asociado a dos valores de Y
Demostracin
Entonces z z Entonces z=PA(x) y z=PA(x) Adems A(x)=A(x)=y. Como tienen la misma y, entonces PA(x)=PA(x), una contradiccin. Por tanto es inyectiva.
g es sobre. Como g:X/Ker AIm(A), slo abarca las imgenes de A. Por definicin de g, cualquier imagen de A tiene una preimagen en X/Ker A. Por lo tanto g es sobre.
Demostracin
Ejemplos
A:22 tal que A([x y]T)=[xy y-x]T. Claramente A es un operador lineal y un vector de la forma [k k]T est en la clase de equivalencia [0] o Kernel de A. El vector [2 1]T no est en la clase [0], pero si est en la clase [[2 1]T]. Los vectores que pertenecen a esta clase, de acuerdo a la ecuacin (1) son:
Ms an, el conjunto de las clases de equivalencia se denotar en la forma comn V/Ker A y ser llamado el espacio cociente V/Ker A.
Proposicin. Sea un operador lineal A:VW, entonces el conjunto V/Ker A es un espacio vectorial.
La suma de vectores [v1]+[v2]=[v3] se define como x1[v1], x2[v2] y x1+x2[v3]. Note que est bien definida ya que cualquier x1[v1] y x2[v2] sirven. De hecho v1- 1[0]+v2- 2[0]=v1+v2- [0]=[v3]
Vimos que si A:XY, entonces Ker A es una relacin de equivalencia. Por la definicin, cualquier funcin deja una relacin de equivalencia en su dominio. Pero, adems, nosotros sabemos que una relacin de equivalencia sobre un conjunto X es equivalente a una particin de X
5.1 Producto interno 5.2 Desigualdad de Cauchy-Schwarz 5.3 Ortogonalidad 5.4 Procedimiento de Gram-Schmidt 5.5 Espacios normados
Norma
Definicin.- Una norma (o norma vectorial) en (V,F) es una funcional que asigna a cada vector v un nmero real no negativo, llamado norma del vector v, y es denotado por ||v|| y satisface:
Norma
Definicin.- Para vectores x=[x1 x2 ... xp]T, las normas ||||1, ||||2, |||| son llamadas norma 1, norma 2 y norma infinito respectivamente y se definen como:
Norma
Definicin.- Sea |||| una norma en (V,F). Una secuencia de vectores vi se dice que converje al vector v ssi la secuencia de nmero reales ||viv|| Para vectores x=[x1 x2 ... xp]T, las normas ||||1, ||||2, |||| son llamadas norma 1, norma 2 y norma infinito respectivamente y se definen como:
Norma
sabemos 0 ||x+y||=(x+y)T(x+y)=||x||22+ 2 ||y||22+2 |xTy| si =-||x||22/xTy, entonces 0 -||x||22+(||x||24||y||22/xTy|2) Despejando se llega a la desigualdad
Producto interno
Definicin. El producto interno en (V,F) sobre un par de vectores (u,v) que satisface:
(u,v)=(v,u) (u+v,w)= (u,w)+ (v,w) (w,u+v)= (w,u)+ (w,v) (u,u)>0, y es igual a cero si u es cero.
Producto interno
El producto interno (u,v)1/2 induce una norma en el espacio vectorial. Definicin. Sean el producto interno (,)
u, v son ortogonales ssi (u,v)=0 Un conjunto de vectores son ortogonales ssi cada par de vectores (u,v) son ortogonales Si un vector u es usado para producir u/||u|| tal que ||v||=1, entonces u se dice ser normalizado para producir el vector normalizado v Un conjunto de vectores se dice ortonormal ssi es ortogonal y ||v|| =1 para todo vector v
Producto interno
Proyecciones ortogonales
Teorema. Sea (V,F) un espacio vectorial. Sea (V0,F) un subespacio generado por los vectores ortogonales S={v1,...,vq}. Defnase la proyeccin ortogonal como sigue. Para cualquier vector v
entonces
Proyecciones ortogonales
Demostracin
Proyecciones ortogonales
Teorema. Sea (V,F) un espacio vectorial con producto interno y con su norma inducida por el producto interno ||||. Sea (V0,F) un subespacio generado por los vectores ortogonales S={v1,...,vq}. Entonces para cualquier v, P0v es el nico punto ms cercano en (V0,F) a v, y ||v-P0v|| es la distancia de v a (V0,F)
Proyecciones ortogonales
Demostracin.
||v-v0||2=(v-v0,v-v0)=(v-P0v+P0v-v0, v-P0v+P0v-v0)= (v-P0v, vP0v )+(v-P0v, P0v-v0)+(P0v-v0,v- P0v)+(P0v-v0, P0v-v0) Sabemos que v- P0v es ortogonal a los vectores en (V0,F), entonces se obtiene que: ||v-v0||=||v- P0v||+|| P0v-v0|| entonces ||v-v0||>||v- P0v|| a menos que v0= ||v-v0||=||v- P0v|| +||
Proyecciones ortogonales
Sea S={v1,...,vq} un conjunto de vectores ortogonales, entonces estos vectores son linealmente independientes. si se toma el vector 0=c1v1+...+cqvq, tenemos que saber el valor de cada ci. 0=(vi,0)=(vi,c1v1+...+cqvq)=ci(vi,vi) como (vi,vi)>0 ci=0 y son L.I.
Proyecciones ortogonales
Se sigue que si el vector proyectado v est en el espacio (V0,F), entonces P0v ser el mismo v y los valores de las i ser la representacin del vector en la base seleccionada S.
Proyecciones ortogonales
Teorema. Sea B={v1,...vq} una base ortogonal. La representacin del vector v se calcula como
v=1v1+...+qvq, donde i=(vi,v)/(vi,vi) Note que si la base es ortonormal, entonces los i se calculan fcilmente
Proyecciones ortogonales
Transformaciones lineales
Transformaciones lineales
Definicin Propiedades Kernel e imagen de una transformacin lineal Representacin matricial de una transformacin lineal Isomorfismos Operaciones con transformaciones lineales Algebra de transformaciones lineales
Transformaciones lineales
Definicin. Sean (V,F) y (W,G) dos espacios vectoriales. Una transformacin lineal T de (V,F) a (W,G) es una correspondencia que asigna a cada vector v en V un vector w en W tal que: T(v1+v2)=T(v1)+T(v2) T(v)= T(v) Se sigue que T(0)=0, ya que T(v)=T(v+0)=T(v)+T(0) lo que implica que T(0) debe ser el cero de W.
Transformaciones lineales
El espacio imagen Todos los vectores w en (W,G) tal que w=T(v) Solucin. Si w es fijo, entonces existe v en (V,F) tal que T(v)=w ssi w est en la imagen de T. Se aplica Sobre Claramente el problema Solucin tiene solucin si T es onto.
Transformaciones lineales
Otro problema es si la solucin es nica. T(v1)=T(v2)=w Se aplica Inyectividad Claramente la solucin es nica si w esta en la imagen de T y T es inyectiva. T(v1)=T(v2) T(v1)-T(v2)=0 T(v1-v2)=0 Tambin T tiene kernel.
Transformaciones lineales
Ms propiedades de las transformaciones lineales T(u-v)=T[u+(-1)v]=T(u)+T[(-1)v]=T(u)+(-1)T(v)=T(u)-T(v) T(1v1+...+nvn)= 1v1+...+nvn Esto se puede ver por asociatividad e induccin Teorema. Sea (V,F) un espacio vectorial de dimensin finita con base B={v1,...vn} y T1, T2 dos transformaciones lineales. Si T1(vi)=T2(vi) para todo vi en B, entonces T1(v)=T2(v) para v en (V,F). Demo, como cualquier vector de (V,F) se escribe como v= 1v1+...+nvn, entonces T1(v)=T1(1v1+...+nvn)= T1(1v1)+... +T1(nvn)=T2(1v1)+...+T2(nvn)=T2(v)
Transformaciones lineales
Teorema. Sea (V,F) un espacio vectorial de dimensin finita con base B={v1,...vn} y (W,G) un espacio vectorial que contiene a los vectores w1,...,wn, entonces existe una nica transformacin lineal tal que T(vi)=wi, para vi en B. Demo. Como cualquier vector de (V,F) se escribe como v= 1v1+...+nvn, entonces T se define como T(v)=1w1+...+nwn T ser una transformacin lineal T(u+v)=T[(1v1+... +nvn)+(1v1+...+ nvn)]= =T[(1+1) v1+...+( n+n) vn] Por la definicin de T, = (1+1) w1+...+( n+n) wn=T(u)+T(v)
Transformaciones lineales
De igual forma T(u)=T[(1v1+...+ nvn)] Por la definicin de T, 1w1+...+ nwn= T(u) Por teorema anterior se tiene la unicidad Tarea: Sean (V,F) y (W,G) dos espacios vectoriales y T: (V,F)(W,G) una transformacin lineal. Demsotrar que el kernel de T es un subespacio de (V,F) y que la imagen de T es un subespacio de (W,G).
Transformaciones lineales
Definicin. Sean (V,F) y (W,G) dos espacios vectoriales y T:(V,F)(W,G) una transformacin lineal.
Nulidad de T = (T) =dim (Ker (T)) rango de T = (T) = dim (Im (T))
Teorema. Sean (V,F) y (W,G) dos espacios vectoriales y T:(V,F)(W,G) una transformacin lineal.
Demo. Suponer que (T)=r y que {v1,...vr} es una base para el kernel; adems (T)=k y {w1,...wk} es una base para la imagen de T. Entonces hay que demostrar que B={v1,...,vr,u1,...,uk}
Transformaciones lineales
Sea un v que pertenece a (V,F). Como T(v)= 1w1+...+kwK Al Vector v lo podemos escribir como v= 1u1+...+kuK-v v= 1u1+...+kuK-v T(v)=T(1u1+...+kuK-v)= 1T(u1)+...+kT(uk)-T(v) = 1w1+...+kwK-T(v)=0 v est en el kernel de T Como {v1,...vr} es una base de Kernel de T, existen escalares 1 ,.., r tal que v= 1v1+ ... +rvr=1u1+...+kuK-v Por tanto v= 1u1+...+kuK- 1v1- ... -rvr y {u1,...,uk, v1,..., vr} genera (V,F) Ahora hay que ver que sean L.I.
Transformaciones lineales
Sea un vector 1u1+...+ kuK+ 1v1+ ... + rvr=0 Entonces T( 1u1+...+ kuK+ 1v1+ ... + rvr)=0 Como los vi estn en el kernel 0= 1w1+...+ kwK, como los wi son una base de la magen, entonces son L.I. y la nica solucin es i=0 Entonces el vector se reescribe como 1v1+ ... + rvr=0 , como los vi son una base para el kernel son L.I., entonces la nica solucin i=0 y los vectores son L.I. y por lo tanto es una base y la dimensin de (V,F) es
Transformaciones lineales
Sean (V,F) y (W,G) dos espacios vectoriales y T: (V,F)(W,G) , entonces existe una nica matriz A (dim(v), dim(W)) tal que T(x)=Ax A est la matriz de transformacin correspondiente a T. Demo sea B={e1,...,en} la base cannica en (V,F) T(ei)=wi Se puede formar la matriz A=[w1 wn] entonces Aei=wi (T(ei)=wi) En general T(x)=T(1e1+ ... +nen)= 1w1+ ... +nwn Tambin Ax=A[1e1+ ... +nen]= 1w1+ ... +nwn =T(x)
Transformaciones lineales
Suponer que T(x)=Ax=Bx (A-B)x=0, para x=ei (A-B)ei=0 que la i-sima columna de (A-B) es cero, por lo que las matrices son iguales y A es nica. Teorema Sea A la matriz de transformacin correspondiente a T, entonces i) Im T Im A, pero isomorfo ii)(T)=(A) iii)Ker T Ker A, pero isomorfo iv)(T)=(A)
Transformaciones lineales
Teorema. Sean (V,F), (W,G) dos espacios vectoriales de dimensiones n y m respectivamente. Sea T(V,F)(W,G) una transformacin lineal. Sean B1={v1,...,vn} y B2={w1,...,wm} las bases de los espacios respectivamente. Entonces existe una nica matriz A (m,n) tal que:
[T(x)]B2=A(xB1)
T(x)= 1w1+ ... +mwm [T(x)]B2=[1 ... m]T xB1 es la representacin del vector en B1
La matriz A se conoce como la matriz de transformacin correspondiente a T con respecto a las bases B1 y B2
Transformaciones lineales
Considere los vectores T(v1, ...,T(vn), escrbase A=[[T(v1)]B2 ... [T(vn)]B2] Como AviB1=Aei= [T(vi)]B2 y xB1 es la representacin del vector en B1, i.e. [1 ... n]T entonces A xB1=[[T(v1)]B2 ... [T(vn)]B2] xB1= 1[T(v1)]B2+...+[T(vn)]B2]n Por otro lado T(xB1)=T(1v1+...+nvn)= 1T(v1)+...+nT(vn) Al poner cada uno de estos vectores en la representacin de la base B2 se obtiene que: A xB1= T(xB1) La unicidad es similar al teorema anterior
Transformaciones lineales
Teorema.- Sea A (m,n) la matriz de transformacin correspondiente a T:(V,F)(W,G) con respecto a las bases B1={v1,...,vn} y B2={w1,...,wm} respectivamente. Suponga que hay otras bases B1={v1,...,vn} y B2={w1,...,wm} de los espacios respectivos. Entonces la matriz A correspondiente a la misma transformacin T con respecto a las bases B1 y B2 est dada por:
A=P-1AQ
P es la matriz de transicin (de paso) de la base B2 en B2 Q es la matriz de transicin (de paso) de la base B1 en B1
Transformaciones lineales
Demo. Sabemos que [T(x)]B2=AxB1 Ahora, xB1=QxB1 y [T(x)]B2=P[T(x)]B2 Por tanto P[T(x)]B2=A QxB1 [T(x)]B2=P-1A QxB1 A=P-1AQ es la matriz de transformacin
Transformaciones lineales
En especial, si (V,F) y (W,G) son los mismos, entonces A=P-1AP Definicin. Se dice que dos matrices cuadradas A y B son similares si existe una matriz P no singular (determinante diferente de cero) tal que B=P-1AP
Transformaciones lineales
Transformaciones T
Teorema. T:VW una transformacin lineal y dim v=n y dim w=m i) si n>m, T no es inyectiva ii) si m>n T no es sobre Demo. Tarea.
Transformaciones lineales
Definicin. Una T.L es un Isomorfismos ssi es inyectiva y sobre. La matriz de un isomorfismo es invertible. Definicin. Se dice que (V,F) y (W,G) son isomorfos ssi existe un isomorfismo entre ambos Teorema. Sean (V,F) y (W,G) dos espacios vectoriales de dimensin finita. Entonces (V,F) y (W,G) son isomorfos si dim (V,F)=dim (W,G) Demo. Obtener bases para cada uno. Entonces quedan representados en (Rn,R). Como son bases en el mismo espacio, existe una matriz de cambio de base A. por teoremas anteriores existe una T.L. asociada a A que es un isomorfismo. Si existe el isomorfismo entre las representaciones, lo existe entre los espacios.
Transformaciones lineales
i) Si {v1,...vn} genera (V,F), entonces {T(v1),...,T(vn)} genera (W,G) ii) Si {v1,...vn} son L.I., entonces {T(v1),...,T(vn)} son L.I. iii) si {v1,...vn} es una base, entonces {T(v1),...,T(vn)} es una base.
Demo.
i) v=1v1+ ... +nvn T(v)=w=1T(v1)+ ... +nT(vn) {T(v1),...,T(vn)} genera (W,G) iii) Suponga que 0=T(v)=w=1T(v1)+ ... +nT(vn) , entonces T(1v1+ ... iii) se sigue de anteriores.
+nvn)=0, como T es isomorfismo T(0)=0 es el nico. Entonces 1v1+ ... +nvn=0, pero como son L.I. i=0 y por tanto {T(v1),...,T(vn)} son L.I.
Transformaciones lineales
Prop. Si T:(V,F)(W,G) es un isomorfismo, entonces para todo vector wW existe un nico vector v V tal que T-1(w)=v, donde T-1:(W,G)(V,F) es conocida como la transformacin inversa de T. Demo. 2 partes T-1 es T.L. y T-1(w)=v nico T(v1)=w1; T-1(w1)=v1; T(v2)=w2 T-1(w2)=v2 T(v1+v2)=T(v1)+T(v2)=w1+w2 T-1(w1+w2)=v1+v2 T(v1)= T(v1)= w1 T-1(w1)= v1 Como T es isomorfiso, la definicin de T-1 hace que exista un nico valor de regreso. Nota. T es T.L. A es su operador T-1 es la inversa de T, entonces A-1 es el operador de T-1
Transformaciones lineales
Operaciones con transformaciones lineales Sean (V,F) y (W,F) dos espacios vectoriales sobre el mismo campo F. Hom(V,W) es el conjutno de todas las transformaciones lineales entre (V,F) y (W,F). Sean T1 y T2 dos T.L. entre (V,F) y (W,F) Se define la suma T1+T2 como T1+T2:VW (T1+T2)(v)=T1(v)+T2(v) para todo F, T1 es (T1)(v)=T1(v)
Transformaciones lineales
El conjunto Hom(V,W) definido anteriormente es un espacio vectorial sobre el campo F. Demo. Tarea.
Definicin. Un lgebra A sobre un campo F es un espacio vectorial sobre F en el que se tiene definida una operacin producto que satisface para todos los elementos T1, T2, T3 A y F: T1(T2+T3)=T1T2+T1T3 (T2+T3)T1=T2T1+T3T1 (T1T2)=(T1)T2=T1(T2) Si adems se cumple que (T1T2)T3=T1(T2T3) entonces A es un lgebra asociativa
Definicin. Sean V, U y W espacios vectoriales sobre el mismo campo F. Sean T1:VU y T2:UW dos transformaciones lineales. Se define la composicin de T2 seguida de T1 T2T1 como la funcin de V a W (T2T1) :VW tal que (T2T1)(v)=T2(T1(v)) Proposicin. Si T1 y T2 son TL, entonces T2T1 tambin lo es. Demo. Sean u,v V y , F, entonces (T2T1)(v+u)=T2(T1(v+u))=T2(T1(v)+T1(u)) = (T2T1)(v)+ (T2T1)(u) (T2T1) es T.L. Puede verse que Hom(V,V) con la composicin es un lgebra asociativa.
Sean A, B dos matrices de qxn y nxp con coeficientes en el mismo campo. Entonces (A)+(B)-n (AB) min((A), (B)) Demo (A) (B)
R(B) n R(A) R(AB)
p n(B)
d n(A)
De la figura (AB) min((A), (B)). Tambin (AB)= (B)-d (la interseccin de R(B) y n(A). La dimensin de n(A)=n- (A) d n+ (A) y se sigue que (AB) (A)-n+ (B) Si B es no singular (A)+(B)-n = (A) (AB) min((A),n) = (A) (A) (B)
R(B) n
R(A)
R(AB)
p n(B)
d n(A)
Definicin. Sea V un espacio vectorial y T:VV una transformacin lineal del espacio en s mismo. Sea vV un vector diferente de cero pa el cual existe un escalar tal que T(v)=v, entonces se dice que es un valor propio de T y que v es un vector propio de T asociado a .
Cuando V es un espacio de dimensin finita, la transformacin T la podemos representar como una matriz A de n,n. Entonces podemos redefir los valores y vectores propios de la siguiente forma. Definicin. Sea A una matriz de n,n. El escalar se denomina valor propio de A si existe un vector x diferente del nulo, tal que Ax= x nuevamente x es el vector propio asociado a .
Teorema. Sea A una matriz de n,n. Entonces es un valor propio de A ssi det(I-A)=0 Demo. Slo si. Suponga que es un valor propio de A; entonces existe un vector x diferente de cero tal que Ax= x (I-A)x=0, como x diferente de cero (I-A) es singular det(I-A)=0
(si). Si det( I-A)=0 ( I-A) es singular ( I-A)x=0 tiene soluciones diferentes de cero, entonces existe x diferente de cero tal que Ax= x.
Definicin. La ecuacin det(I-A)=0 se conoce como ecuacin caracterstica de A, y el polinomio p()=det(I-A) Observe que p()=(det(I-A)=a0+a1+...+an por el teorema fundamental del lgebra, cualquier polinomio de grado n tiene n races (contando multiplicidades). p()=(det(I-A)=a0+a1+...+an= (- 1)r1...(- m)rm Los nmero ri son la multiplicidad algebraica de
Teorema. Sea un valor propio de A y E={x|Ax= x}. Entonces E es un subespacio vectorial de Cn Ntese que E son las soluciones de (IA)x=0, es decir el kernel de un operador lineal es un subespacio vectorial.
Definicin. Sean un valor propio de A. Entonces E se denomina espacio propio de A correspondiente a . Definicin. Sea E el espacio propio de A debido a . A la dimensin de E se le conoce como multiplicidad geomtrica de . Multiplicidad geomtrica de =dim E=dim{Ker (I-A)}
Teorema. Sea un valor propio de A. Entonces se cumple que la multiplicidad geomtrica de multiplicidad algebraica de
Teorema. Sean 1, 2, ..., m valores propios diferentes de A (n,n), donde m n y sean x1, x2,..., xm sus vectores propios correspondientes. Entonces x1, x2, ..., xm son linealmente independientes. Demostracin. Suponga que {x1,...,xm} son L.D. y que xs es el primer vector L.D. de los previos xs=1x1+2x2+...+s-1xs-1 Multiplicando por A Ax = Ax + Ax +...+ Ax
sxs= 1 1 x1+2 2 x2+...+s-1 s-1 xs-1 Restando ecuaciones y multiplicando por s se tiene 0=1(1-s)x1+2 (2-s) x2+...+s-1 (s-1-s)xs-1 Como xs es el primer vector L.D. entonces 1(1-s)=2 (2-s)=...=s-1 (s-1-s)=0 como i s i=0 xs=0, lo cual contradice la suposicin las vectores son L.I.
Teorema. La matriz A (n,n) tiene n vectores propios L.I. ssi la multiplicidad geomtrica de cada valor propio es igual a su multiplicidad algebraica. Tarea (Grossman, pag 545)
Definicin. Sea F(x)=a0+a1x+a2x2+...+anxn un polinomio y A una matriz cuadrada Se define el polinomio f(x) en la matriz A como: F(A)=a0I+a1A+a2A2+...+anAn Sy f(A) es igual a la matriz cero, entonces se dice que A es raz (o cero) del polinomio f(x). Sea F() (n,n) una matriz polinomial en la variable , i.e. F()=F0+F1+...+Fmm= F()=F0+F1+...+mFm donde F0, F1,...,Fm son matrices cuadradas reales.
Se dice que F() es de orden n; y si Fm 0, entonces F() es de grado m. Adems F() se dice regular si det(Fm) 0 Definicion. Sean F() y G() matrices polinomiales de orden n., y G() es regular. Las matrices polinomiales Q() y R() se conocen como cociente derecho y residuo derecho respectivamente de F() dicidida por G() si F()= Q() G() + R() y si el grado de R() es menor que el grado de G() [R() puede ser cero]
De manera similar se pueden definir el cociente izquierdo y residuo izquierdo Sea A (n,n) y denota F(A) la evaluacin por la derecha de A en la matriz polinomial F() , esto es, si F()=F0+F1+...+Fmm= F()= F0+F1A+...+FmAm
Teorema. Si la matriz polimial F() es dividida por la derecha por la matriz (I-A) entonces el residuo es F(A), y si es dividida por la izquierda por (I-A) entonces el resiudo es F(A) (por la izquierdA). Demostracin. Tarea. (teorema generalizado de Bezout, Grantmatcher, pag 81)
Corolario. La matriz polinomial F() es divisible por la derecha por la matriz (I-A) sin residuo (R()=0) ssi F(A)=0 (De manera similar se puede hacer por la izquierda) Teorema (Cayley-Hamilton). Toda matriz A (n,n) es raz de su polinomio caracterstico. Demostracin. P()=det(I-A)=a0+a1+...+n Hay que mostrar que P(A)=0
de teoremas previos (I-A)adj(I-A)=det(I-A)I=[adj(I-A)](I-A) Lo cual puede verse como P()=(I-A)Q()=Q()(I-A) donde Q()=adj(I-A) es una matriz polinomial en y P()=det(I-A)I=a0I+a1I+...+nI como P() es divisible por la derecha y por la izquierda por (I-A) sin residuos, entonces P(A)=a0I+a1AI+...+AnI
Definicin. Se dice que el polinomio F() es un polinomio aniquilador de la matriz A (n,n) si F(A)=0 (p.e. el polinomio caracterstico de A) Definicin. Al polinomio aniquilador mnico Q() de A de menor grado se le conoce como polinomio mnimo de A.
Diagonalizacin de matrices
Definicin. Se dice que A (n,n) es diagonalizable (bajo similaridad) si existe una matriz no singular P tal que P-1AP es diagonal
Diagonalizacin de matrices
Teorema. La matriz A (n,n) es diagonalizable ssi tiene n vectores propios linealmente independientes Si 1, 2, ..., n son los valores propios de A y los vectores propios x1, x2, ..., xn correspondientes a estos valores propios son linealmente independientes, entonces P-1AP=diag{1, 2, ..., n}, donde P=[x1 x2 ... Xn]
Diagonalizacin de matrices
Demostracin. (si) Suponga que A tiene n vectores propios L.I. x1 x2 ... xn correspondientes a los valores propios 1, 2, ..., n (algunos pueden ser repetidos). Sea P la matriz [x1 x2 ... xn], entonces AP= [Ax1 Ax2 ... Axn]= [1x1 2x2 ... nxn] = [x1 x2 ... xn]diag{1, 2, ..., n} =Pdiag{1, 2, ..., n} Como P es no singular tiene inversa
-1
Diagonalizacin de matrices
Demostracin. (slo si) Suponga que existe una matriz no singular P tal que P-1AP=diag{1, 2, ..., n} AP=Pdiag{1, 2, ..., n} Para cada xi de P se tiene que: Axi= ix xi es vector propio de A i es valor propio de A P es no singular A tiene n vectores propios L.I.
Diagonalizacin de matrices
Corolario. La matriz A (n,n) es diagonalizable ssi la multiplicidad geomtrica de cada valor propio es igual a su multiplicidad algebraica. En particular A es diagonalizable si todos sus valores propios son distintos
Diagonalizacin de matrices
Teorema. Si A y B son similares, entonces tienen el mismo polinomio caracterstico, y por consiguiente los mismos valores propios. Demo. det(I-B)=det(I-P-1AP)=det(P-1P-P1 AP)=det(P-1(I-A)P)=det(P-1)det(IA)det(P)=det(I-A)
Diagonalizacin de matrices
Teorema. Si A y B son similares, i.e. existe una matriz no singular tal que B=P-1AP. Entonces: i) Bk=P-1AkP ii)Si f(x)=a0+a1x+...+anxn es un polinomio cualquiera, entonces f(B)=P-1f(A)P
Diagonalizacin de matrices
Diagonalizacin de matrices
1 0 0 1 1 0 2 3 2
Diagonalizacin de matrices
Tiene dos propio valores 1=1, 2=2 con multiplicidades algebraicas 2 y 1 y geomtricas 1 y 1 respectivamente no es posible diagonalizar A, pero es posible encontrar una bse donde A sea casi diagonal?
Diagonalizacin de matrices
Definicin.- Un vector v es llamado un vector propio generalizado de rango k de A asociado con iff
Diagonalizacin de matrices
Diagonalizacin de matrices
... vk-2=(A-I)2v=(A-I)vk-1 ... Entonces para 1 i k vi es un vector propio generalizado de rango i, por ejemplo (A-I)k-2vk-2=(A-I)k-2(A-I)2v=(A-I)kv=0 (A- I)k-1vk-2=(A-I)k-1v 0
Diagonalizacin de matrices
Definicin.- Lleamaremos a los vectores {v1, v2,...,vk} una cadena de vectores propios generalizados si vk es un vector propio generalizado que dio origen a todos los dems vectores
Diagonalizacin de matrices
Teorema. El conjunto de vectores propios generalizados v1, v2, ..., vk definidos anteriormente es L.I. Demostracin.Suponer que v1, v2, ..., vk son L.D., entonces existen soluciones diferentes de la trivial a:
1v1+2v2+...+kvk=0
Diagonalizacin de matrices
entonces (A-I)k-1vi=(A-I)2k-(i+1)v=0 para i=1,2,...,k-1 k(A-I)k-1vk=0 y sabiendo de la def. de vector propio generalizado que (A-I)k-1vk 0, k=0 Aplicando ahora (A-I)k-2 se demuestra que k-1=0 Siguiendo esto se tiene que i=0, lo que contradice la suposicin. son L.I.
Diagonalizacin de matrices
Teorema: Los vectores propios generalizados de A asociados con diferentes propio valores son L.I. Demostracin. Sea v vector propio generalizado 1 vi=(A-1I)vi+1=(A-1I)k-iv Sea u vector propio generalizado 2 ui=(A-2I)ui+1=(A-2I)l-iu Del teorema anterior los vi son L.I. y los ui son L.I, falta ver que {u }, {v } son L.I.
Diagonalizacin de matrices
Suponer que vi es L.D. en {u1,...,ul} vi=1u1+2u2+...+lul Aplicando (A-1I)i 0= (A-1I)i [1u1+2u2+...+lul ] Ahora aplicando (A-2I)l-1 y observando que (A-2I)l-1 (A-1I)i = (A-1I)i (A-2I)l-1 y el hecho de que (A-2I)l-1 uj=0, j=1,2,..., l-1 0=l(A-1I)i(A-2I)l-1ul=l(A-1I)iu1 Como (A-2I)u1=0 o Au1=2u1, la ecuacin anterior se reduce a
Diagonalizacin de matrices
se reduce a l(2-1)iu1=0 lo cual implica que l=0. Un procedimiento similar llega a la conclusin de que todos los i=0, lo que contradice la suposicin y los vectores son L.I.
Diagonalizacin de matrices
Teorema. Sean u y v propio vectores de rango o y l respectivamente, asociados con el mismo valor propio . vi=(A-I)vi+1=(A-1I)k-iv ui=(A-I)ui+1=(A-2I)l-iu Si u1 y v1 son L.I. las cadenas son L.I.
Diagonalizacin de matrices
El tratar de construir la forma casi diagonal (diagonal por bloques o forma de Jordan) se convierte en un proceso iterativo. 1.- se calculan propio valores y propio vectores de la forma tradicional. 2.- Si la multiplicidad algebraica es mayor que la geomtrica tratar de encontrar una cadena lo suficientemente larga de vectores generalizados para construir los vectores L.I. independientes faltantes, de lo contrario construir cadenas ms pequeas hasta completarlos
Matrices unitarias
Si P es no singular B=P-1AP transformacin de similaridad Sirven para cambio de bases Ms conveniente si las bases son ortogonales y ortonormales Si {x1,...,xp} es un conjunto ortonormal xiTxi=1 y xiTxj=0 Si hacemos que P=[x1,...,xp] PTP=I o PT=P-1
Matrices unitarias
Definicin. Una matriz P (de reales) para la cual PT=P1 tal que PTP=I, se dice ser unitaria. Teorema. a) P unitaria el conjunto de vectores columna es ortonormal b) P unitiaria |det(P)|=1 c) P unitaria <PX,Py>=<x,y> d) P unitaria si valor propio de P ||=1 Demo. Clara
Matrices unitarias
Teorema. Si B=P-1AP donde P es unitaria (se dice transformacin de similaridad unitaria) todo lo que se vi de propiedades de similaridad sigue valiendo.
Matrices unitarias
Teorema. Si A es una matriz de pxp. a) A es similar unitaria a una matriz triangular superior T; T=P-1AP con P unitaria y con los propiovalores de A en su diagonal principal. T es llamada la forma de Shur de A y la descomposicin A=PTP-1= PTPT es la descomposicin Shur de A. Demo. Si p=1 ya terminamos. Suponer que para p=k es cierto Para p=k+1 tenemos.
Matrices unitarias
1 es el propio valor asociado a x1, podemos normalizar este vector para que ||x1||2=1 Entonces x1 entra a la base que ya tenamos de propiovectores ortonormalizados {w1,...,wk} si no es otronormal a esta base, aplicamos Gram-Schmidt y tenemos la nueva base {x1,w1,...,wk} U= [x1,w1,...,wk]=[x1,W] A=UTAU=[x1,W]TA[x1,W]=[x1,W]T[Ax1 AW]= 1 bT 1 x1TAW 0 W AW
T
Matrices unitarias
Definicin. Una matriz A de pxp es normal si ATA=AAT Teorema. A normal D=PTAP, D es diagonal, y P es unitaria. Por tanto los propio vectores de A son p linealmente independientes
Matrices unitarias
Veamos ahora el caso en que A=UVT, con U y V unitarias de pxp y qxq, es pxq casi cero, excepto en la diagonal que vale ii=i que es un real no negativo.
2 0 0 0 0 0 4 3 0 0 2 0 0 0 0 0 6 0
As son
Matrices unitarias
Claramente se tendra AV=U Avi=iui para 1 i min(p,q), dende los ui, vi son las columnas de U y V respectivamente. Adems ATA= (UVT)T (UVT)=VTUTUVT=V(T)VT donde T=D=VTATAV es diagonal de qxq que los propio vectores de ATA sirven para construir V y D tiene los valores propios D=T Similarmente para el caso AAT=U(T)UT en este caso D= T
Matrices unitarias
Definicin. A la descomposicin que hemos venido manejando, A=UVT, se le conoce como descomposicin en valores singulares de A. Viendo lo que hicimos para la descomposicin de Schur, podemos ver que la descomposicin en valores singulares siempre existe. Los valores singulares de A son los i, y el nmero de valores no cero es el rango de A. Los ui son los vetores singulares izquierdos y los vi los vectores singulares derechos relacionados con i.
1
A=
1 2 2
ATA
2 2
9 9
9 9
propiovalores 18 y 0. 1=18(1/2) y 2=0 Un par de vectores propios de ATA normalizados son v1=[1.71/2 1.71/2]T y v2=[1.71/2 -1.71/2]T Entonces V=[V1 v2]
1
A=
1 2 2
AAT=
2 4 4
4 8 8
4 8 8
2 2
propiovalores 18 y 0. 1=18 y 2=0 Vectores propios de AAT normalizados son u1=[1/3 2/3 2/3]T u2=[(-2)51/2/5 51/2/5 0]T Entonces U=[u1 u2 u3] u3 =[(2)51/2/15 (4)51/2/15 (-1)51/2/3 ]T
1
A=
1 2 2
AAT=
2 4 4
4 8 8
4 8 8
2 2
3(2)1/2 0 0
0 0 0
Mnimos cuadrados
Suponer que A=UVT, es la descomposicin en valores singulares, donde A es de rango k. El problema es minimizar || Ax-b||2 con respecto a x. ||Ax-b||2=||UVTx-b||2=||y-UTb||2 y=VTx ||Ax-b||2 es mnimo cra x ssi ||y-UTb||2 es mnimo cra y. ||y-b||22=|1y1-b1|2+...+|kyk-bk|2+|bk+1|2+...+|bp|2 b=UTb Es minimizado si yi=bi/i
Mnimos cuadrados
Entonces para ||Ax-b||2 con respecto a x. Encontrar A=UVT Calcular b=UTb Calcular yi=bi/i para 1 i k, yi=0 otro caso x0=Vy y=VTx ||Ax-b||2 es mnimo cra x ssi ||y-UTb||2 es mnimo cra y. ||y-b||22=|1y1-b1|2+...+|kyk-bk|2+|bk+1|2+...+|bp|2 b=UTb Es minimizado si y =b /