Professional Documents
Culture Documents
𝑥𝑛
𝑳𝐱 = 𝐱 = 𝑥1 2 + 𝑥2 2 + ⋯ + 𝑥𝑛 2
−1 𝐱
𝑳𝐱 𝐱=
𝑥1 2 + 𝑥2 2 + ⋯ + 𝑥𝑛 2
𝐱 ∙ 𝐲 = 𝐱 t 𝐲 = 𝐲 t 𝐱 = 𝑥1 𝑦1 + 𝑥2 𝑦2
𝑳𝐱 = 𝐱 = 𝐱 ∙ 𝐱 = 𝐱t𝐱
Vectores: Ángulo
• Considere 2 vectores en un plano: 𝐱 t = 𝑥1 , 𝑥2 , 𝐲 t = 𝑦1 , 𝑦2
• Considere el ángulo 𝜃 entre ellos:
𝑥1 𝑦1 𝑥2 𝑦2
• cos(𝜃1 ) = ; cos(𝜃2 ) = ; sin(𝜃1 ) = ; sin(𝜃2 ) =
𝑳𝐱 𝑳𝐲 𝑳𝐱 𝑳𝒚
𝐱t𝐲
• cos(𝜃) = cos(𝜃2 −𝜃1 ) =
𝑳𝐱 𝑳𝐲
t
• Ya que cos 90° = cos 270°
t
= 0 y cos(𝜃) = 0 sólo si 𝐱 𝐲 = 0, 𝐱 y 𝐲 son
perpendiculares cuando 𝐱 𝐲 = 0
• 𝐱⊥𝐲
Ejercicio: Vectores
Dado los vectores 𝐱 t = 1,3,2 , 𝐲 t = −2,1, −1
a) encuentre 3𝐱
b) encuentre 𝐱 + 𝐲
c) Determine la norma Euclídea de 𝐱 y la norma Euclídea de 𝐲
d) Encuentre el ángulo entre 𝐱 y 𝐲
Vectores: Dependencia lineal
• Un conjunto de vectores 𝐱1 , 𝐱2 , ⋯ , 𝐱𝑘 son linealmente dependientes si existe
constantes 𝑐1 , 𝑐2 , ⋯ , 𝑐𝑘 , no todas igual a 0, tal que:
𝑐1 𝐱1 + 𝑐2 𝐱2 + ⋯ + 𝑐𝑘 𝐱𝑘 = 𝟎
𝑐1 𝐱1 + 𝑐2 𝐱 2 + ⋯ + 𝑐𝑘 𝐱 𝑘 = 𝟎
𝐱t𝐲
𝑃𝑟𝑜𝑦𝑒𝑐𝑐𝑖ó𝑛 𝐱 en 𝐲 = t 𝐲
𝐲𝐲
𝐱t𝐲
𝐿𝑜𝑛𝑔𝑖𝑡𝑢𝑑 𝑑𝑒 𝑙𝑎 𝑝𝑟𝑜𝑦𝑒𝑐𝑐𝑖ó𝑛 = = 𝑳𝐱 cos(𝜃)
𝑳𝐲
Donde 𝜃 es el ángulo entre 𝐱 y 𝐲
Vectores: Proyección
𝐱t𝐲
𝑃𝑟𝑜𝑦𝑒𝑐𝑐𝑖ó𝑛 𝐱 en 𝐲 = t 𝐲
𝐲𝐲
𝐱t 𝐲
𝐿𝑜𝑛𝑔𝑖𝑡𝑢𝑑 𝑑𝑒 𝑙𝑎 𝑝𝑟𝑜𝑦𝑒𝑐𝑐𝑖ó𝑛 = = 𝑳𝐱 cos(𝜃)
𝑳𝐲
Vectores: Proyección
• Si 𝐲1 , 𝐲2 , ⋯ , 𝐲𝑟 son mutuamente perpendiculares, la proyección (o
sombra) de un vector 𝐱 en el sistema generador de 𝐲1 , 𝐲2 , ⋯ , 𝐲𝑟 se
define como:
𝐱 t 𝐲1 𝐱 t 𝐲2 𝐱 t 𝐲𝑟
t 𝐲1 + t 𝐲2 + ⋯ + t 𝐲𝑟
𝐲1 𝐲1 𝐲2 𝐲2 𝐲𝑟 𝐲𝑟
Vectores: Proceso Gram-Schmidt
• Sean los vectores linealmente independientes 𝐱1 , 𝐱 2 , ⋯ , 𝐱 𝑘 , existen vectores mutuamente
perpendiculares 𝐮1 , 𝐮2 , ⋯ , 𝐮𝑘 con el mismo sistema generador. Estos pueden ser construidos de
la siguiente manera:
𝐮1 = 𝐱1
𝐱 2t 𝐮1
𝐮2 = 𝐱 2 − t 𝐮1
𝐮1 𝐮1
⋮ ⋮
𝐱 𝑘t 𝐮1 𝐱 𝑘t 𝐮𝑘−1
𝐮𝑘 = 𝐱 𝑘 − t 𝐮1 − ⋯ − t 𝐮𝑘−1
𝐮1 𝐮1 𝐮𝑘−1 𝐮𝑘−1
𝐱 2t 𝐮1
𝐮2 = 𝐱 2 − t 𝐮1
𝐮1 𝐮1
⋮ ⋮
𝐱 𝑘t 𝐮1 𝐱 𝑘t 𝐮𝑘−1
𝐮𝑘 = 𝐱 𝑘 − t 𝐮1 − ⋯ − t 𝐮𝑘−1
𝐮1 𝐮1 𝐮𝑘−1 𝐮𝑘−1
4 3
0 1
𝐱1 = , 𝐱2 =
0 0
2 −1
Matrices
• Una matriz es un arreglo rectangular de números reales. Denotamos al
arreglo arbitrario de 𝑛 filas y 𝑘 columnas como:
• Transpuesta: 𝐀t
• Para sumar o restar dos o más matrices, estas deben de tener la
misma dimensión
Matrices: Operaciones
𝑎11 𝑎12 ⋯ 𝑎1𝑘
𝑎21 𝑎22 ⋯ 𝑎2𝑘
𝐀 (𝑛×𝑘) =
⋮ ⋮ ⋱ ⋮
𝑎𝑛1 𝑎𝑛2 ⋯ 𝑎𝑛𝑘
1 0 0
𝐀 (3×3) = 0 1 0
0 0 1
• 𝐀 = 𝑎11 ; si 𝑘 = 1
• 𝐀 = σ𝑘𝑗=1 𝑎1𝑗 𝐀1𝑗 (−1) 1+𝑗 ; si 𝑘 > 1
3 1 6
7 4 5
2 −7 1
1 1 1
2 5 −1
0 1 −1
Matrices: Rango
• El rango de una matriz 𝐀 es la dimensión del espacio vectorial
generado por sus columnas
• Esto corresponde al número máximo de columnas linealmente
independientes en 𝐀
• Un resultado fundamental en algebra lineal es que el rango columna y
el rango fila de cualquier matriz 𝐀 son siempre iguales. Este es el
rango de 𝐀
• Sea la matriz 𝐀(𝑚×𝑛) , entonces se cumple que:
rank(𝐀) ≤ min(𝑚, 𝑛)
Una matriz que tiene rango igual a min(𝑚, 𝑛) se la denomina de rango
completo. De lo contrario, se la denomina de rango deficiente.
Matrices: Rango
• Sólo la matriz cero tiene rango igual a 0
• Si 𝐀(𝑚×𝑛) es una matriz cuadrada (i.e. 𝑚 = 𝑛), entonces 𝐀 es
invertible si y sólo si el rango de 𝐀 es igual a 𝑛. Esto es, si 𝐀 es de
rango completo
• Para matrices reales se cumple que
1 1 1
2 5 −1
0 1 −1
1 2 1
−2 −3 1
3 5 0
1 1 0 2
−1−1 0 −2
Matrices: Matriz no singular
• Una matriz cuadrada 𝐀(𝑘×𝑘) es no singular si 𝐀 (𝑘×𝑘) 𝐱(𝑘×1) = 𝟎(𝑘×1)
implica que 𝐱 = 𝟎. De lo contrario, es llamada matriz singular.
• De manera equivalente, una matriz cuadrada es no singular si su
rango es igual al número de filas (o columnas) que tiene. Esto es, si es
de rango completo.
• Note que 𝐀𝐱 = 𝑥1 𝐚1 + 𝑥2 𝐚2 + ⋯ + 𝑥𝑘 𝐚𝑘 , donde 𝐚𝑖 es la 𝑖-enésima
columna de 𝐀, de modo que la condición de no singularidad implica
que las columnas de 𝐀 son linealmente independientes.
Matrices: Matriz inversa
• Sea 𝐀 una matriz cuadrada no singular con dimensión (𝑘 × 𝑘).
Entonces existe una matriz única 𝐁 de dimensión (𝑘 × 𝑘) de tal
manera que:
𝐀𝐁 = 𝐁𝐀 = 𝐈
donde 𝐈 es la matriz identidad con dimensión (𝑘 × 𝑘).
• A la matriz 𝐁 se la denomina inversa de 𝐀 y se la denota como 𝐀−1
−1 𝐀𝑖𝑗
• En general, 𝐀 tiene entrada 𝑗, 𝑖 -enésima (−1)𝑖+𝑗 , en donde
𝐀
𝐀𝑖𝑗 es la matriz resultante de eliminar la 𝑖-enésima fila y la 𝑗-enésima
columna de 𝐀
• Es claro que 𝐀 ≠ 0 para que la inversa exista
Matrices: Matriz inversa
Note que para una matriz cuadrada 𝐀 (𝑘×𝑘) los siguientes postulados
son equivalentes:
• 𝐀(𝑘×𝑘) 𝐱 (𝑘×1) = 𝟎(𝑘×1) implica que 𝐱 = 𝟎 (𝐀 es no singular)
• 𝐀 ≠0
• Existe una matriz 𝐀−1 tal que 𝐀𝐀−1 = 𝐀−1 𝐀 = 𝐈(𝑘×𝑘)
Matrices: Matriz inversa
Sean 𝐀 y 𝐁 matrices cuadradas de la misma dimensión e invertibles. Lo
siguiente se cumple:
• (𝐀−1 )t =
• (𝐀𝐁)−𝟏 =
Ejercicio: Matrices - Matriz inversa
Obtenga la inversa (si es que existe) de las siguientes matrices:
3 2
4 1
2 −1 0
−1 2 −1
0 −1 2
Matrices: Traza
Sea 𝐀(𝑘×𝑘) = {𝑎𝑖𝑗 } una matriz cuadrada. La traza de la matriz 𝐀,
denotada como tr(𝐀), es la suma de los elementos en la diagonal, esto
es:
𝑘
tr 𝐀 = 𝑎𝑖𝑖
𝑖=1
Matrices: Matriz Ortogonal
Una matriz cuadrada 𝐀 es ortogonal si y sólo si 𝐀−1 = 𝐀t . Por tanto,
para una matriz ortogonal se cumple que 𝐀𝐀t = 𝐀t 𝐀 = 𝐈. Esto implica
que las filas son mutuamente perpendiculares y tienen longitud igual a
1 (𝐀𝐀t = 𝐈). Ya que también 𝐀t 𝐀 = 𝐈, las columnas siguen la misma
propiedad.
(ver lámina 8)
Ejercicio Matrices - Matriz Ortogonal
Verifique si la siguiente matriz es una matriz ortogonal:
𝜆1 𝐞1 𝜆2 𝐞2 ⋯ 𝜆𝑘 𝐞𝑘
13 −4 2
𝐀 = −4 13 −2
2 −2 10
2 0 0
𝐁= 0 3 4
0 4 9
𝐀 = 𝜆𝑖 𝐞𝑖 𝐞t𝑖
𝑖=1
Matrices: Forma cuadrática
• Una forma cuadrática 𝑄(𝐱) en las 𝑘 variables 𝑥1 , 𝑥2 , ⋯ , 𝑥𝑘 se la define
como
𝑄 𝐱 = 𝐱 t 𝐀𝐱
donde 𝐱 t = 𝑥1 , 𝑥2 , … , 𝑥𝑘 y 𝐀 es una matriz simétrica con dimensión (𝑘 ×
𝑘).
• Ya que 𝐱 t 𝐀𝐱 posee sólo términos cuadráticos 𝑥𝑖2 y productos 𝑥𝑖 𝑥𝑘 , se le
llama forma cuadrática
• Note que una forma cuadrática puede ser escrita también así:
𝑘 𝑘
𝑄 𝐱 = 𝑎𝑖𝑗 𝑥𝑖 𝑥𝑗
𝑖=1 𝑗=1
Matrices: Forma cuadrática
• Cuando la matriz simétrica 𝐀(𝑘×𝑘) cumple con
𝐱 t 𝐀𝐱 ≥ 0
para todo 𝐱 t = 𝑥1 , 𝑥2 , … , 𝑥𝑘 , la forma cuadrática y la matriz 𝐀 se dicen
semidefinida positiva
• La matriz simétrica 𝐀(𝑘×𝑘) y la forma cuadrática se dice definida positiva si
𝐱 t 𝐀𝐱 > 0
para todos los vectores 𝐱 ≠ 𝟎 (no nulos)
• Usando la descomposición espectral, podemos mostrar que una matriz
simétrica 𝐀 (𝑘×𝑘) es definida positiva si y sólo si cada valor propio de 𝐀 es
positivo
• 𝐀 es semidefinida positiva si y sólo si todos sus valores propios son iguales
o mayores que 0.
Matrices: Descomposición en valores
singulares
• Las ideas que se usan en la descomposición espectral de una matriz
cuadrada pueden ser extendidas para la descomposición de una matriz
rectangular
• Sea 𝐀(𝑚×𝑘) una matriz de números reales. Entonces existe una matriz
ortogonal 𝐔(𝑚×𝑚) y una matriz ortogonal 𝐕(𝑘×𝑘) tal que
𝐀 = 𝐔𝚲𝐕 t
𝐀 = 𝜆𝑖 𝐮𝑖 𝐯𝑖t = 𝐔𝑟 𝚲𝑟 𝐕𝑟t
𝑖=1
donde 𝐔𝑟 = [𝐮1 , 𝐮2 , ⋯ , 𝐮𝑟 ], 𝐕𝑟 = 𝐯1 , 𝐯2 , ⋯ , 𝐯𝑟 y 𝚲𝑟 es una matriz
diagonal con dimensión (𝑟 × 𝑟) y entradas diagonales 𝜆𝑖 .
Matrices: Descomposición en valores
singulares
• Los vectores en la expansión son los vectores propios de las matrices
cuadradas 𝐀𝐀t y 𝐀t 𝐀
• 𝐀𝐀t tiene pares de valores y vectores propios (𝜆2𝑖 , 𝐮𝑖 ), por lo que se
cumple:
𝐀𝐀t 𝐮𝑖 = 𝜆2𝑖 𝐮𝑖
con 𝜆12 , 𝜆22 , ⋯ , 𝜆2𝑟 > 0 = 𝜆2𝑟+1 , 𝜆2𝑟+2 , ⋯ , 𝜆2𝑚 (si 𝑚 > 𝑘)
Los 𝐯𝑖 son los vectores propios de 𝐀t 𝐀 con los mismos valores propios no
ceros 𝜆2𝑖
Matrices: Descomposición en valores
singulares
• La expansión matricial para la descomposición en valores singulares
escrita en términos de matrices con dimensión completa 𝐔, 𝚲, 𝐕 es
t
𝐀(𝑚×𝑘) = 𝐔(𝑚×𝑚) 𝚲(𝑚×𝑘) 𝐕(𝑘×𝑘)
donde 𝐔 contiene 𝑚 vectores propios ortogonales de 𝐀𝐀t en sus
columnas y 𝐕 tiene 𝑘 vectores propios ortogonales de 𝐀t 𝐀 en sus
columnas.
Matrices: Raíz cuadrada de una matriz
• La descomposición espectral nos permite expresar la inversa de una matriz cuadrada en
términos de sus valores propios y vectores propios
• Sea 𝐀 (𝑘×𝑘) una matriz cuadrada, definida positiva, con la descomposición espectral 𝐀 =
σ𝑘𝑖=1 𝜆𝑖 𝐞𝑖 𝐞t𝑖 . Sean los vectores propios normalizados las columnas de otra matriz 𝐏 =
𝐞1 , 𝐞2 , ⋯ , 𝐞𝑘 , Entonces podemos escribir:
𝑘
𝜆1 0⋯ 0
0 𝜆2 ⋯ 0
𝚲(𝑘×𝑘) =
⋮ ⋮ ⋱ ⋮
0 0⋯ 𝜆𝑘
𝜆𝑖 > 0
Matrices: Raíz cuadrada de una matriz
• Como resultado obtenemos:
𝑘
1
𝐀= 𝐏𝚲−1 𝐏t = 𝐞𝑖 𝐞t𝑖
𝜆𝑖
𝑖=1
ya que 𝐏𝚲−1 𝐏 t 𝐏𝚲𝐏t = 𝐏𝚲𝐏t 𝐏𝚲 𝐏 −1 t
= 𝐏𝐏 t = 𝐈
• Denotemos ahora 𝚲1/2 a la matriz diagonal con 𝜆𝑖 como 𝑖-enésimo
elemento diagonal. La matriz raíz cuadrada de 𝐀 se define entonces
como:
𝑘