You are on page 1of 54

Capítulo 1

Álgebra lineal y matricial: repaso

Prof. Holger Cevallos Valdiviezo


Vectores
• Un vector es un arreglo 𝐱 de 𝑛 números reales 𝑥1 , 𝑥2 , ⋯ , 𝑥𝑛
𝑥1
𝑥2
𝐱 = ⋮ , o, 𝐱 t = 𝑥1 , 𝑥2 , … , 𝑥𝑛 , o, 𝐱 = 𝑥1 , 𝑥2 , … , 𝑥𝑛 t

𝑥𝑛

• Un vector tiene dirección y longitud


• El espacio de todas las colecciones de números reales de tamaño fijo 𝑛
(vectores), que se pueden sumar y multiplicar por un escalar, se le llama
espacio vectorial o espacio lineal
Vectores: Norma Euclídea
• Longitud de un vector en un espacio vectorial Euclídeo
Vectores: Norma Euclídea
• Longitud de un vector en un espacio vectorial Euclídeo
• Comúnmente se representa como 𝑳𝐱 o como 𝐱 . Sea 𝐱 t =
𝑥1 , 𝑥2 , … , 𝑥𝑛 , entonces la norma Euclídea se define como:

𝑳𝐱 = 𝐱 = 𝑥1 2 + 𝑥2 2 + ⋯ + 𝑥𝑛 2

• Y si multiplicamos 𝐱 por un escalar 𝑐, ¿cómo cambia la norma?


¿Cómo cambia la dirección del vector? ¿el vector se expande o se
contrae?
Vectores: Vector unitario
• Tiene longitud o norma igual a 1:

−1 𝐱
𝑳𝐱 𝐱=
𝑥1 2 + 𝑥2 2 + ⋯ + 𝑥𝑛 2

• Conserva la misma dirección que 𝐱


Vectores: Producto interno o Producto Punto
• Considere 2 vectores (con el mismo número de entradas) en un
plano: 𝐱 t = 𝑥1 , 𝑥2 , 𝐲 t = 𝑦1 , 𝑦2
• El producto punto de 𝐱 y 𝐲 se denota 𝐱 ∙ 𝐲 y se lo obtiene:

𝐱 ∙ 𝐲 = 𝐱 t 𝐲 = 𝐲 t 𝐱 = 𝑥1 𝑦1 + 𝑥2 𝑦2

• La norma Euclídea se la obtiene con un producto interno:

𝑳𝐱 = 𝐱 = 𝐱 ∙ 𝐱 = 𝐱t𝐱
Vectores: Ángulo
• Considere 2 vectores en un plano: 𝐱 t = 𝑥1 , 𝑥2 , 𝐲 t = 𝑦1 , 𝑦2
• Considere el ángulo 𝜃 entre ellos:

• 𝜃 se puede obtener al calcular 𝜃2 − 𝜃1


Vectores: Ángulo

𝑥1 𝑦1 𝑥2 𝑦2
• cos(𝜃1 ) = ; cos(𝜃2 ) = ; sin(𝜃1 ) = ; sin(𝜃2 ) =
𝑳𝐱 𝑳𝐲 𝑳𝐱 𝑳𝒚
𝐱t𝐲
• cos(𝜃) = cos(𝜃2 −𝜃1 ) =
𝑳𝐱 𝑳𝐲
t
• Ya que cos 90° = cos 270°
t
= 0 y cos(𝜃) = 0 sólo si 𝐱 𝐲 = 0, 𝐱 y 𝐲 son
perpendiculares cuando 𝐱 𝐲 = 0
• 𝐱⊥𝐲
Ejercicio: Vectores
Dado los vectores 𝐱 t = 1,3,2 , 𝐲 t = −2,1, −1
a) encuentre 3𝐱
b) encuentre 𝐱 + 𝐲
c) Determine la norma Euclídea de 𝐱 y la norma Euclídea de 𝐲
d) Encuentre el ángulo entre 𝐱 y 𝐲
Vectores: Dependencia lineal
• Un conjunto de vectores 𝐱1 , 𝐱2 , ⋯ , 𝐱𝑘 son linealmente dependientes si existe
constantes 𝑐1 , 𝑐2 , ⋯ , 𝑐𝑘 , no todas igual a 0, tal que:

𝑐1 𝐱1 + 𝑐2 𝐱2 + ⋯ + 𝑐𝑘 𝐱𝑘 = 𝟎

• Dependencia lineal implica que al menos un vector en el conjunto puede


escribirse como una combinación lineal de los otros vectores.
• Si esta condición no se cumple, entonces los vectores en el conjunto son
linealmente independientes.
• Vectores mutuamente perpendiculares son linealmente independientes
• Cualquier conjunto de 𝑘 vectores linealmente independientes se le llama una
base para el espacio vectorial de todas las colecciones de números reales con
tamaño fijo 𝑘
Vectores: Dependencia lineal
• Un conjunto de vectores 𝐱1 , 𝐱 2 , ⋯ , 𝐱 𝑘 son linealmente dependientes si
existe constantes 𝑐1 , 𝑐2 , ⋯ , 𝑐𝑘 , no todas igual a 0, tal que:

𝑐1 𝐱1 + 𝑐2 𝐱 2 + ⋯ + 𝑐𝑘 𝐱 𝑘 = 𝟎

• Si 𝑘 es mayor que la dimensión de los vectores entonces los vectores son


linealmente dependientes
• Para la evaluación:
• Método de eliminación de Gauss
• Método de eliminación de Gauss-Jordan
• Si el determinante de la matriz formada al tomar los vectores en cuestión como sus
columnas es diferente de 0, entonces los vectores son linealmente independientes
Vectores: Sistema generador
• El vector 𝐲 = 𝑐1 𝐱1 + 𝑐2 𝐱 2 + ⋯ + 𝑐𝑘 𝐱 𝑘 es una combinación lineal de los
vectores 𝐱1 , 𝐱 2 , ⋯ , 𝐱 𝑘 . El conjunto de todas las combinaciones lineales de
𝐱1 , 𝐱 2 , ⋯ , 𝐱 𝑘 se lo denomina sistema generador.
• En otras palabras, dado un espacio vectorial 𝑉, se llama sistema generador
de 𝑉 a un conjunto de vectores, pertenecientes a 𝑉, a partir del cual se
puede generar el espacio vectorial 𝑉 completo.
• Esto también es válido para subconjuntos de V, en esos casos se habla de
subconjuntos generados, o más específicamente, subespacios generados
por el sistema generador en cuestión.
• No confundir este concepto con el de base, ya que si bien toda base es un
sistema generador, la implicación inversa no siempre es cierta. Mientras
que en una base todos sus elementos han de ser linealmente
independientes, un sistema generador puede ser linealmente dependiente.
Vectores: Base
Una base es un conjunto 𝐵 del espacio vectorial 𝑉 si se cumplen las
siguientes condiciones:
• Todos los elementos de 𝐵 pertenecen al espacio vectorial 𝑉.
• Los elementos de 𝐵 forman un sistema linealmente independiente.
• Todo elemento de 𝑉 se puede escribir como combinación lineal de los
elementos de la base 𝐵 (es decir, 𝐵 es un sistema generador de 𝑉).
Ejercicio: Vectores
• Considere los vectores 𝐱 t = 1,2,1 , 𝐲 t = 1,0, −1 , 𝐳 t = 1, −2,1 .
Identifique si estos vectores son linealmente dependientes

• Considere los vectores 𝐱 t = 1, 1 , 𝐲 t = −3,2 , 𝐳 t = 2,4 .


Identifique si estos vectores son linealmente dependientes
Vectores: Proyección
• La proyección (o sombra) de un vector 𝐱 sobre un vector 𝐲 se la define
como:

𝐱t𝐲
𝑃𝑟𝑜𝑦𝑒𝑐𝑐𝑖ó𝑛 𝐱 en 𝐲 = t 𝐲
𝐲𝐲

• La longitud de la proyección es:

𝐱t𝐲
𝐿𝑜𝑛𝑔𝑖𝑡𝑢𝑑 𝑑𝑒 𝑙𝑎 𝑝𝑟𝑜𝑦𝑒𝑐𝑐𝑖ó𝑛 = = 𝑳𝐱 cos(𝜃)
𝑳𝐲
Donde 𝜃 es el ángulo entre 𝐱 y 𝐲
Vectores: Proyección
𝐱t𝐲
𝑃𝑟𝑜𝑦𝑒𝑐𝑐𝑖ó𝑛 𝐱 en 𝐲 = t 𝐲
𝐲𝐲

𝐱t 𝐲
𝐿𝑜𝑛𝑔𝑖𝑡𝑢𝑑 𝑑𝑒 𝑙𝑎 𝑝𝑟𝑜𝑦𝑒𝑐𝑐𝑖ó𝑛 = = 𝑳𝐱 cos(𝜃)
𝑳𝐲
Vectores: Proyección
• Si 𝐲1 , 𝐲2 , ⋯ , 𝐲𝑟 son mutuamente perpendiculares, la proyección (o
sombra) de un vector 𝐱 en el sistema generador de 𝐲1 , 𝐲2 , ⋯ , 𝐲𝑟 se
define como:

𝐱 t 𝐲1 𝐱 t 𝐲2 𝐱 t 𝐲𝑟
t 𝐲1 + t 𝐲2 + ⋯ + t 𝐲𝑟
𝐲1 𝐲1 𝐲2 𝐲2 𝐲𝑟 𝐲𝑟
Vectores: Proceso Gram-Schmidt
• Sean los vectores linealmente independientes 𝐱1 , 𝐱 2 , ⋯ , 𝐱 𝑘 , existen vectores mutuamente
perpendiculares 𝐮1 , 𝐮2 , ⋯ , 𝐮𝑘 con el mismo sistema generador. Estos pueden ser construidos de
la siguiente manera:

𝐮1 = 𝐱1

𝐱 2t 𝐮1
𝐮2 = 𝐱 2 − t 𝐮1
𝐮1 𝐮1

⋮ ⋮

𝐱 𝑘t 𝐮1 𝐱 𝑘t 𝐮𝑘−1
𝐮𝑘 = 𝐱 𝑘 − t 𝐮1 − ⋯ − t 𝐮𝑘−1
𝐮1 𝐮1 𝐮𝑘−1 𝐮𝑘−1

• El proceso se basa en un resultado de la geometría Euclídea, el cual establece que la diferencia


entre un vector 𝐯 y su proyección sobre otro vector 𝐮 es perpendicular al vector 𝐮.
Vectores: Proceso Gram-Schmidt
𝐮1 = 𝐱1

𝐱 2t 𝐮1
𝐮2 = 𝐱 2 − t 𝐮1
𝐮1 𝐮1

⋮ ⋮

𝐱 𝑘t 𝐮1 𝐱 𝑘t 𝐮𝑘−1
𝐮𝑘 = 𝐱 𝑘 − t 𝐮1 − ⋯ − t 𝐮𝑘−1
𝐮1 𝐮1 𝐮𝑘−1 𝐮𝑘−1

• Podemos reescribir estas ecuaciones en términos de 𝐳𝑗 = 𝐮𝑗 / 𝐮𝑗t 𝐮𝑗


• De esa manera (𝐱 𝑘t 𝐳𝑗 )𝐳𝑗 es la proyección de 𝐱 𝑘 en 𝐳𝑗 mientras que σ𝑘−1 t
𝑗=1 (𝐱 𝑘 𝐳𝑗 )𝐳𝑗 es la proyección
de 𝐱 𝑘 en el sistema generador de 𝐳1 , 𝐳2 , ⋯ , 𝐳𝑘−1
Ejercicio: Vectores - Proceso Gram-Schmidt
Construya vectores perpendiculares para los vectores

4 3
0 1
𝐱1 = , 𝐱2 =
0 0
2 −1
Matrices
• Una matriz es un arreglo rectangular de números reales. Denotamos al
arreglo arbitrario de 𝑛 filas y 𝑘 columnas como:

𝑎11 𝑎12 ⋯ 𝑎1𝑘


𝑎21 𝑎22 ⋯ 𝑎2𝑘
𝐀(𝑛×𝑘) =
⋮ ⋮ ⋱ ⋮
𝑎𝑛1 𝑎𝑛2 ⋯ 𝑎𝑛𝑘

• Una matriz (𝑛 × 1) se le llama también vector columna.


• Una matriz (1 × 𝑛) se le llama también vector fila.
Matrices: Operaciones

𝑎11 𝑎12 ⋯ 𝑎1𝑘


𝑎21 𝑎22 ⋯ 𝑎2𝑘
𝐀(𝑛×𝑘) =
⋮ ⋮ ⋱ ⋮
𝑎𝑛1 𝑎𝑛2 ⋯ 𝑎𝑛𝑘

• Transpuesta: 𝐀t
• Para sumar o restar dos o más matrices, estas deben de tener la
misma dimensión
Matrices: Operaciones
𝑎11 𝑎12 ⋯ 𝑎1𝑘
𝑎21 𝑎22 ⋯ 𝑎2𝑘
𝐀 (𝑛×𝑘) =
⋮ ⋮ ⋱ ⋮
𝑎𝑛1 𝑎𝑛2 ⋯ 𝑎𝑛𝑘

• Para definir la multiplicación de dos matrices el número de elementos en una fila


de la primera matriz debe ser igual al número de elementos en una columna de la
segunda matriz:
𝐀 (𝑛×𝑘) 𝐁(𝑘×𝑝) = 𝐂(𝑛×𝑝)

𝑒𝑛𝑡𝑟𝑎𝑑𝑎 𝑖, 𝑗 𝑑𝑒 𝐀𝐁 = 𝑎𝑖1 𝑏1𝑗 + 𝑎𝑖2 𝑏2𝑗 + ⋯ + 𝑎𝑖𝑘 𝑏𝑘𝑗 = ෍ 𝑎𝑖𝑙 𝑏𝑙𝑗


𝑙=1
Matrices: Operaciones
𝑎11 𝑎12 ⋯ 𝑎1𝑘
𝑎21 𝑎22 ⋯ 𝑎2𝑘
𝐀 (𝑛×𝑘) =
⋮ ⋮ ⋱ ⋮
𝑎𝑛1 𝑎𝑛2 ⋯ 𝑎𝑛𝑘

• Para definir la multiplicación de dos matrices el número de elementos en una fila


de la primera matriz debe ser igual al número de elementos en una columna de la
segunda matriz:
𝐀 (𝑛×𝑘) 𝐁(𝑘×𝑝) = 𝐂(𝑛×𝑝)

𝑒𝑛𝑡𝑟𝑎𝑑𝑎 𝑖, 𝑗 𝑑𝑒 𝐀𝐁 = 𝑎𝑖1 𝑏1𝑗 + 𝑎𝑖2 𝑏2𝑗 + ⋯ + 𝑎𝑖𝑘 𝑏𝑘𝑗 = ෍ 𝑎𝑖𝑙 𝑏𝑙𝑗


𝑙=1
Matrices: Propiedades
Para todas las matrices 𝐀, 𝐁, 𝐂 de igual dimensión y escalares 𝑐 y 𝑑:
• 𝐀 + 𝐁 + 𝐂 = 𝐀 + (𝐁 + 𝐂)
• 𝐀+𝐁=𝐁+𝐀
• 𝑐 𝐀+𝐁 =
• 𝑐+𝑑 𝐀=
• (𝐀 + 𝐁)t =
• 𝑐𝑑 𝐀 =
• (𝑐𝐀)t =
Matrices: Propiedades
Para todas las matrices 𝐀, 𝐁, 𝐂 con dimensiones de tal manera que los
productos matriciales estén definidos, y escalar 𝑐:
• 𝑐 𝐀𝐁 = (𝑐𝐀)𝐁
• 𝐀 𝐁𝐂 =
• 𝐀 𝐁+𝐂 =
• 𝐁+𝐂 𝐀=
• (𝐀𝐁)t =
• En general 𝐀𝐁 ≠ 𝐁𝐀 (en general no conmutativa)
• 𝐀(𝑚×𝑛) 𝐁(𝑛×𝑘) = 𝟎(𝑚×𝑘) no implica 𝐀 = 𝟎 o 𝐁 = 𝟎. Sin embargo, si
𝐀 = 𝟎 o 𝐁 = 𝟎, entonces 𝐀(𝑚×𝑛) 𝐁(𝑛×𝑘) = 𝟎(𝑚×𝑘)
Matrices: Tipos
• Una matriz cuadrada tiene el mismo número de filas y columnas

1 0 0
𝐀 (3×3) = 0 1 0
0 0 1

• Una matriz simétrica es una matriz cuadrada en la cual se cumple que


𝐀 = 𝐀t
2 4
𝐁(2×2) =
4 1
Matrices: Determinante
El determinante de una matriz cuadrada 𝐀 (𝑘×𝑘) lo denotamos como
𝐀 y se define como el escalar:

• 𝐀 = 𝑎11 ; si 𝑘 = 1
• 𝐀 = σ𝑘𝑗=1 𝑎1𝑗 𝐀1𝑗 (−1) 1+𝑗 ; si 𝑘 > 1

donde 𝐀1𝑗 es la matriz (𝑘 − 1) × (𝑘 − 1) que se obtiene al eliminar


la primera fila y la 𝑗-enésima columna de 𝐀
Matrices: Determinante
Sean 𝐀 y 𝐁 matrices cuadradas de dimensión (𝑘 × 𝑘). Entonces se
cumple que:
• 𝐀 = 𝐀t
• Si cada elemento de una fila (o columna) de 𝐀 es cero, entonces
𝐀 =0
• Si cualquier par de filas (o columnas) de 𝐀 son idénticos, entonces
𝐀 =0
• Si 𝐀 es no singular, entonces 𝐀 = 1/ 𝐀−1 , esto es, 𝐀 𝐀−1 = 1
• 𝐀𝐁 =
• 𝑐𝐀 = … , donde 𝑐 es un escalar
Ejemplo: Matrices - Determinante
Obtenga el determinante de las siguientes matrices:

3 1 6
7 4 5
2 −7 1
1 1 1
2 5 −1
0 1 −1
Matrices: Rango
• El rango de una matriz 𝐀 es la dimensión del espacio vectorial
generado por sus columnas
• Esto corresponde al número máximo de columnas linealmente
independientes en 𝐀
• Un resultado fundamental en algebra lineal es que el rango columna y
el rango fila de cualquier matriz 𝐀 son siempre iguales. Este es el
rango de 𝐀
• Sea la matriz 𝐀(𝑚×𝑛) , entonces se cumple que:
rank(𝐀) ≤ min(𝑚, 𝑛)
Una matriz que tiene rango igual a min(𝑚, 𝑛) se la denomina de rango
completo. De lo contrario, se la denomina de rango deficiente.
Matrices: Rango
• Sólo la matriz cero tiene rango igual a 0
• Si 𝐀(𝑚×𝑛) es una matriz cuadrada (i.e. 𝑚 = 𝑛), entonces 𝐀 es
invertible si y sólo si el rango de 𝐀 es igual a 𝑛. Esto es, si 𝐀 es de
rango completo
• Para matrices reales se cumple que

rank 𝐀t 𝐀 = rank 𝐀𝐀t = rank 𝐀 = rank 𝐀t


Ejercicio: Matrices - Rango
Determine el rango de las siguientes matrices:

1 1 1
2 5 −1
0 1 −1
1 2 1
−2 −3 1
3 5 0

1 1 0 2
−1−1 0 −2
Matrices: Matriz no singular
• Una matriz cuadrada 𝐀(𝑘×𝑘) es no singular si 𝐀 (𝑘×𝑘) 𝐱(𝑘×1) = 𝟎(𝑘×1)
implica que 𝐱 = 𝟎. De lo contrario, es llamada matriz singular.
• De manera equivalente, una matriz cuadrada es no singular si su
rango es igual al número de filas (o columnas) que tiene. Esto es, si es
de rango completo.
• Note que 𝐀𝐱 = 𝑥1 𝐚1 + 𝑥2 𝐚2 + ⋯ + 𝑥𝑘 𝐚𝑘 , donde 𝐚𝑖 es la 𝑖-enésima
columna de 𝐀, de modo que la condición de no singularidad implica
que las columnas de 𝐀 son linealmente independientes.
Matrices: Matriz inversa
• Sea 𝐀 una matriz cuadrada no singular con dimensión (𝑘 × 𝑘).
Entonces existe una matriz única 𝐁 de dimensión (𝑘 × 𝑘) de tal
manera que:
𝐀𝐁 = 𝐁𝐀 = 𝐈
donde 𝐈 es la matriz identidad con dimensión (𝑘 × 𝑘).
• A la matriz 𝐁 se la denomina inversa de 𝐀 y se la denota como 𝐀−1
−1 𝐀𝑖𝑗
• En general, 𝐀 tiene entrada 𝑗, 𝑖 -enésima (−1)𝑖+𝑗 , en donde
𝐀
𝐀𝑖𝑗 es la matriz resultante de eliminar la 𝑖-enésima fila y la 𝑗-enésima
columna de 𝐀
• Es claro que 𝐀 ≠ 0 para que la inversa exista
Matrices: Matriz inversa
Note que para una matriz cuadrada 𝐀 (𝑘×𝑘) los siguientes postulados
son equivalentes:
• 𝐀(𝑘×𝑘) 𝐱 (𝑘×1) = 𝟎(𝑘×1) implica que 𝐱 = 𝟎 (𝐀 es no singular)
• 𝐀 ≠0
• Existe una matriz 𝐀−1 tal que 𝐀𝐀−1 = 𝐀−1 𝐀 = 𝐈(𝑘×𝑘)
Matrices: Matriz inversa
Sean 𝐀 y 𝐁 matrices cuadradas de la misma dimensión e invertibles. Lo
siguiente se cumple:
• (𝐀−1 )t =
• (𝐀𝐁)−𝟏 =
Ejercicio: Matrices - Matriz inversa
Obtenga la inversa (si es que existe) de las siguientes matrices:

3 2
4 1
2 −1 0
−1 2 −1
0 −1 2
Matrices: Traza
Sea 𝐀(𝑘×𝑘) = {𝑎𝑖𝑗 } una matriz cuadrada. La traza de la matriz 𝐀,
denotada como tr(𝐀), es la suma de los elementos en la diagonal, esto
es:
𝑘

tr 𝐀 = ෍ 𝑎𝑖𝑖
𝑖=1
Matrices: Matriz Ortogonal
Una matriz cuadrada 𝐀 es ortogonal si y sólo si 𝐀−1 = 𝐀t . Por tanto,
para una matriz ortogonal se cumple que 𝐀𝐀t = 𝐀t 𝐀 = 𝐈. Esto implica
que las filas son mutuamente perpendiculares y tienen longitud igual a
1 (𝐀𝐀t = 𝐈). Ya que también 𝐀t 𝐀 = 𝐈, las columnas siguen la misma
propiedad.
(ver lámina 8)
Ejercicio Matrices - Matriz Ortogonal
Verifique si la siguiente matriz es una matriz ortogonal:

−1/2 1/2 1/2 1/2


1/2 −1/2 1/2 1/2
1/2 1/2 −1/2 1/2
1/2 1/2 1/2 −1/2
Matrices: Valores y Vectores propios
• Sea 𝐀(𝑘×𝑘) una matriz cuadrada e 𝐈(𝑘×𝑘) la matriz identidad. Entonces
a los escalares 𝜆1 , 𝜆2 , ⋯ , 𝜆𝑘 que satisfacen la ecuación polinomial
𝐀 − 𝜆𝐈 = 0 se los denomina valores propios (o valores
característicos) de la matriz 𝐀.
• Sea 𝜆 un valor propio de 𝐀. Si 𝐱 no es un vector cero (𝐱 ≠ 𝟎) de tal
manera que se cumple que
𝐀𝐱 = 𝜆𝐱
entonces 𝐱 es un vector propio (vector característico) de la matriz 𝐀
asociado con el valor propio 𝜆.
• A la ecuación 𝐀 − 𝜆𝐈 = 0 (como función de 𝜆) se le llama ecuación
característica.
Matrices: Valores y Vectores propios
• Frecuentemente se normaliza a los vectores propios de tal manera que su longitud sea
igual a 1. Denotamos a los vectores propios normalizados como 𝐞𝑖 y definimos:
𝐱𝑖
𝐞𝑖 =
𝐱 𝑖t 𝐱 𝑖
• Sea 𝐀 (𝑘×𝑘) una matriz cuadrada y simétrica. Entonces 𝐀 tiene 𝑘 pares de valores y
vectores propios, a saber:

𝜆1 𝐞1 𝜆2 𝐞2 ⋯ 𝜆𝑘 𝐞𝑘

• Los vectores propios satisfacen 1 = 𝐞1t 𝐞1 = ⋯ = 𝐞t𝑘 𝐞𝑘 y son mutuamente


perpendiculares, i.e. 𝐞t𝑖 𝐞𝑗 = 0, ∀ 𝑖 ≠ 𝑗.
• Los vectores propios son únicos si 𝜆𝑖 ≠ 𝜆𝑗 ∀ 𝑖 ≠ 𝑗.
Ejercicios: Matrices - Valores y Vectores
propios
Considere las matrices simétricas:

13 −4 2
𝐀 = −4 13 −2
2 −2 10
2 0 0
𝐁= 0 3 4
0 4 9

Obtenga los vectores y valores propios asociados a cada matriz.


Matrices: Descomposición espectral
• Cualquier matriz cuadrada y simétrica puede ser reconstruida a partir
de sus valores y vectores propios
• Sea 𝐀(𝑘×𝑘) una matriz cuadrada y simétrica. Entonces 𝐀 puede ser
expresada en términos de sus 𝑘 pares de valores y vectores propios:

𝐀 = ෍ 𝜆𝑖 𝐞𝑖 𝐞t𝑖
𝑖=1
Matrices: Forma cuadrática
• Una forma cuadrática 𝑄(𝐱) en las 𝑘 variables 𝑥1 , 𝑥2 , ⋯ , 𝑥𝑘 se la define
como
𝑄 𝐱 = 𝐱 t 𝐀𝐱
donde 𝐱 t = 𝑥1 , 𝑥2 , … , 𝑥𝑘 y 𝐀 es una matriz simétrica con dimensión (𝑘 ×
𝑘).
• Ya que 𝐱 t 𝐀𝐱 posee sólo términos cuadráticos 𝑥𝑖2 y productos 𝑥𝑖 𝑥𝑘 , se le
llama forma cuadrática
• Note que una forma cuadrática puede ser escrita también así:
𝑘 𝑘

𝑄 𝐱 = ෍ ෍ 𝑎𝑖𝑗 𝑥𝑖 𝑥𝑗
𝑖=1 𝑗=1
Matrices: Forma cuadrática
• Cuando la matriz simétrica 𝐀(𝑘×𝑘) cumple con
𝐱 t 𝐀𝐱 ≥ 0
para todo 𝐱 t = 𝑥1 , 𝑥2 , … , 𝑥𝑘 , la forma cuadrática y la matriz 𝐀 se dicen
semidefinida positiva
• La matriz simétrica 𝐀(𝑘×𝑘) y la forma cuadrática se dice definida positiva si
𝐱 t 𝐀𝐱 > 0
para todos los vectores 𝐱 ≠ 𝟎 (no nulos)
• Usando la descomposición espectral, podemos mostrar que una matriz
simétrica 𝐀 (𝑘×𝑘) es definida positiva si y sólo si cada valor propio de 𝐀 es
positivo
• 𝐀 es semidefinida positiva si y sólo si todos sus valores propios son iguales
o mayores que 0.
Matrices: Descomposición en valores
singulares
• Las ideas que se usan en la descomposición espectral de una matriz
cuadrada pueden ser extendidas para la descomposición de una matriz
rectangular
• Sea 𝐀(𝑚×𝑘) una matriz de números reales. Entonces existe una matriz
ortogonal 𝐔(𝑚×𝑚) y una matriz ortogonal 𝐕(𝑘×𝑘) tal que

𝐀 = 𝐔𝚲𝐕 t

donde 𝚲 es una matriz con dimensión (𝑚 × 𝑘) con entrada (𝑖, 𝑖) 𝜆𝑖 ≥ 0


para 𝑖 = 1,2, ⋯ , min(𝑚, 𝑘) y las demás entradas son cero.
• A las constantes positivas 𝜆𝑖 se las denomina valores singulares de 𝐀
Matrices: Descomposición en valores
singulares
• La descomposición en valores singulares puede también ser expresada
como una expansión matricial que depende del rango 𝑟 de 𝐀.
• Específicamente, existe 𝑟 constantes positivas 𝜆1 , 𝜆2 , ⋯ , 𝜆𝑟 , 𝑟 vectores
ortonormales con dimensión (𝑚 × 1) 𝐮1 , 𝐮2 , ⋯ , 𝐮𝑟 y 𝑟 vectores
ortonormales con dimensión (𝑘 × 1) 𝐯1 , 𝐯2 , ⋯ , 𝐯𝑟 tal que
𝑟

𝐀 = ෍ 𝜆𝑖 𝐮𝑖 𝐯𝑖t = 𝐔𝑟 𝚲𝑟 𝐕𝑟t
𝑖=1
donde 𝐔𝑟 = [𝐮1 , 𝐮2 , ⋯ , 𝐮𝑟 ], 𝐕𝑟 = 𝐯1 , 𝐯2 , ⋯ , 𝐯𝑟 y 𝚲𝑟 es una matriz
diagonal con dimensión (𝑟 × 𝑟) y entradas diagonales 𝜆𝑖 .
Matrices: Descomposición en valores
singulares
• Los vectores en la expansión son los vectores propios de las matrices
cuadradas 𝐀𝐀t y 𝐀t 𝐀
• 𝐀𝐀t tiene pares de valores y vectores propios (𝜆2𝑖 , 𝐮𝑖 ), por lo que se
cumple:
𝐀𝐀t 𝐮𝑖 = 𝜆2𝑖 𝐮𝑖
con 𝜆12 , 𝜆22 , ⋯ , 𝜆2𝑟 > 0 = 𝜆2𝑟+1 , 𝜆2𝑟+2 , ⋯ , 𝜆2𝑚 (si 𝑚 > 𝑘)
Los 𝐯𝑖 son los vectores propios de 𝐀t 𝐀 con los mismos valores propios no
ceros 𝜆2𝑖
Matrices: Descomposición en valores
singulares
• La expansión matricial para la descomposición en valores singulares
escrita en términos de matrices con dimensión completa 𝐔, 𝚲, 𝐕 es

t
𝐀(𝑚×𝑘) = 𝐔(𝑚×𝑚) 𝚲(𝑚×𝑘) 𝐕(𝑘×𝑘)
donde 𝐔 contiene 𝑚 vectores propios ortogonales de 𝐀𝐀t en sus
columnas y 𝐕 tiene 𝑘 vectores propios ortogonales de 𝐀t 𝐀 en sus
columnas.
Matrices: Raíz cuadrada de una matriz
• La descomposición espectral nos permite expresar la inversa de una matriz cuadrada en
términos de sus valores propios y vectores propios
• Sea 𝐀 (𝑘×𝑘) una matriz cuadrada, definida positiva, con la descomposición espectral 𝐀 =
σ𝑘𝑖=1 𝜆𝑖 𝐞𝑖 𝐞t𝑖 . Sean los vectores propios normalizados las columnas de otra matriz 𝐏 =
𝐞1 , 𝐞2 , ⋯ , 𝐞𝑘 , Entonces podemos escribir:
𝑘

𝐀(𝑘×𝑘) = ෍ 𝜆𝑖 𝐞𝑖 (𝑘×1) 𝐞t𝑖 (1×𝑘) = 𝐏(𝑘×𝑘) 𝚲(𝑘×𝑘) 𝐏 t (𝑘×𝑘)


𝑖=1
donde 𝐏𝐏 t = 𝐏 t 𝐏 = 𝐈 y 𝚲 es la matriz diagonal

𝜆1 0⋯ 0
0 𝜆2 ⋯ 0
𝚲(𝑘×𝑘) =
⋮ ⋮ ⋱ ⋮
0 0⋯ 𝜆𝑘

𝜆𝑖 > 0
Matrices: Raíz cuadrada de una matriz
• Como resultado obtenemos:
𝑘
1
𝐀= 𝐏𝚲−1 𝐏t = ෍ 𝐞𝑖 𝐞t𝑖
𝜆𝑖
𝑖=1
ya que 𝐏𝚲−1 𝐏 t 𝐏𝚲𝐏t = 𝐏𝚲𝐏t 𝐏𝚲 𝐏 −1 t
= 𝐏𝐏 t = 𝐈
• Denotemos ahora 𝚲1/2 a la matriz diagonal con 𝜆𝑖 como 𝑖-enésimo
elemento diagonal. La matriz raíz cuadrada de 𝐀 se define entonces
como:
𝑘

𝐀1/2 = ෍ 𝜆𝑖 𝐞𝑖 𝐞t𝑖 = 𝐏𝚲1/2 𝐏t


𝑖=1
Matrices: Raíz cuadrada de una matriz
La matriz raíz cuadrada cumple con las siguientes propiedades:
1/2 t
• 𝐀 = 𝐀1/2 -> (𝐀1/2 es simétrica)
• 𝐀1/2 𝐀1/2 = 𝐀
−1 𝑘 1
• 𝐀1/2 = σ𝑖=1 𝐞𝑖 𝐞t𝑖 = 𝐏𝚲−1/2 𝐏t , donde 𝚲−1/2 es una matriz
𝜆𝑖
1
diagonal con como 𝑖-enésimo elemento diagonal.
𝜆𝑖
• 𝐀1/2 𝐀−1/2 = 𝐀−1/2 𝐀1/2 =𝐈
−1
• 𝐀−1/2 𝐀−1/2 = 𝐀−1 , donde 𝐀−1/2 = 𝐀1/2

You might also like