You are on page 1of 54

Matrices

Definicin

Una matriz es un arreglo bidimensional de nmeros (llamados entradas de la matriz) ordenados


en filas (o renglones) y columnas, donde una fila es cada una de las lneas horizontales de la matriz y
una columna es cada una de las lneas verticales. A una matriz con n filas y m columnas se le denomina
matriz n-por-m (escrito ) donde . El conjunto de las matrices de
tamao se representa como , donde es el campo al cual pertenecen las
entradas. El tamao de una matriz siempre se da con el nmero de filas primero y el nmero de columnas
despus.

Dos matrices se dice que son iguales si tienen el mismo tamao y los mismos elementos en las mismas
posiciones. A la entrada de una matriz que se encuentra en la fila sima y la columna sima se le
llama entrada o entrada -simo de la matriz. En estas expresiones tambin se consideran
primero las filas y despus las columnas.

Se denota a las matrices con letra mayscula, mientras que se utiliza la correspondiente letra en
minsculas para denotar a las entradas de las mismas, con subndices que refieren al nmero de fila y
columna del elemento. Por ejemplo, al elemento de una matriz de tamao que se encuentra
en la fila sima y la columna sima se le denota como , donde y .

Cuando se va a representar explcitamente una entrada la cual est indexada con un o un con dos
cifras se introduce una coma entre el ndice de filas y de columnas. As por ejemplo, la entrada que est
en la primera fila y la segunda columna de la matriz de tamao se representa
como mientras que la entrada que est en la fila nmero 23 y la columna 100 se representa como
.

Adems de utilizar letras maysculas para representar matrices, numerosos autores representan a las
matrices con fuentes en negrita para distinguirlas de otros objetos matemticos As es una matriz,
mientras que es un escalar en esa notacin. Sin embargo esta notacin generalmente se deja para
libros y publicaciones, donde es posible hacer esta distincin tipogrfica con facilidad. En otras notaciones
se considera que el contexto es lo suficientemente claro como para no usar negritas.

Otra notacin, en s un abuso de notacin, representa a la matriz por sus entradas, i.e. o
incluso .

Como caso particular de matriz, se definen los vectores fila y los vectores columna. Un vector
fila o vector rengln es cualquier matriz de tamao mientras que un vector columna es
cualquier matriz de tamao .

A las matrices que tienen el mismo nmero de filas que de columnas, , se les llama matrices
cuadradas y el conjunto se denota
Es una matriz de tamao . La entrada es 7.

La matriz

Es una matriz de tamao : un vector fila con 9 entradas.

Algunos tipos de matrices

Matriz Cuadrada: Es aquella que tiene igual nmero n de filas que de columnas (n=m). En ese
caso se dice que la matriz es de orden n. Por ejemplo, la matriz
1 3 2

A 0 3 3
4 0.2
1
Es cuadrada de orden
3.

Denotaremos el conjunto de todas las matrices cuadradas de orden n por Mn . As, en el

Ejemplo A M 3.
anterior,

Los elementos de la diagonal principal de una matriz cuadrada son aquellos que estn situados
en la diagonal que va desde la esquina superior izquierda hasta la inferior derecha. En otras
palabras, la diagonal principal de una matriz A=( aij ) est compuesta por los elementos
a11 , a22 ,..., ann . En el ejemplo anterior la diagonal principal est compuesta por los elementos:
a11 1 , a22 3, a33 1.

Matriz Nula: Una matriz es nula si todos sus elementos son iguales a cero. En el siguiente ejemplo
se muestra la matriz nula de orden 32.

0 0

O 0 0
0
0

Ms adelante veremos que la matriz nula, respecto a la adicin y multiplicacin de matrices,


juega un papel similar al nmero cero respecto a la adicin y multiplicacin de nmeros reales.


Matriz Diagonal: Una matriz cuadrada, A= ( aij ), es diagonal aij =0, para i j . Es decir, si
si
Todos los elementos situados fuera de la diagonal principal son cero. Por ejemplo, la siguiente
matriz es diagonal:
0 0 0

D 0 6 0

0 0 3

Matriz Unidad: Es una matriz diagonal cuyos elementos de la diagonal son todos 1. A
continuacin mostramos la matriz unidad de orden 2.

1 0
I

0 1
Ms adelante veremos que la matriz unidad, respecto a la multiplicacin de matrices, juega un papel
similar al nmero 1 respecto a la multiplicacin de nmeros reales.

Matriz triangular: Es una matriz cuadrada en la que todos los elementos situados por debajo (o
por encima) de la diagonal principal son cero. Por ejemplo, la siguiente matriz es triangular:

2 1 1
3

T 0 6 4
0 0 1

Este tipo de matrices tambin se conoce como matriz escalonada. En algunos casos se hace la
distincin entre las matrices triangulares superiores o inferiores en dependencia de los elementos
nulos de la matriz; los que estn por debajo o por encima de la diagonal principal.

Segn se puede ver en el Math-block sobre sistemas de ecuaciones lineales, el concepto de matriz
triangular (o escalonada) es de vital importancia en el estudio de los sistemas de ecuaciones
lineales.

Ms adelante, despus de estudiar las operaciones con matrices, veremos algunos tipos
importantes de matrices como es el caso de las simtricas y las ortogonales.

O Adicin de matrices
Sean A, B M nm . La matriz C (cij ) M nm Es la suma de las A (aij) y
matrices

B (bij), y se denota C A B, si sus elementos cumplen:


cij aij bij (I 1, 2,..., n, J 1, 2,..., m)

Ejemplo

Consideremos las siguientes matrices:

2 4 4 4 1 3 4

A 1 3 B 2 4 M 2 0 2

2 1 0 1 3 5
0

Las matrices A y B son de orden 32, mientras la matriz M es cuadrada de orden 3. Por tanto, no
podemos calcular la suma de A y M y tampoco la suma de B y M, en cambio, s podemos sumar A
y B ya que tienen el mismo orden. Esto es,

2 4 4 4 2 4 4 4 6 8

A B 1 3 2 4
(1) 3 4 1 7
02 2

2 1 0 (1) 2 0 1
0

Es fcil deducir las siguientes propiedades de la adicin de matrices de orden nm:

Conmutativa: A B B A, A, B M nm
1

Asociativa: A (B C) (A B) C, A, B, C M nm

1
: Cuantificador universal. Se lee Para todo. : Cuantificador existencial. Se lee Existe
Elemento neutro (la matriz nula): O M nm A M nm : A O O A A

Elemento opuesto: A M nm ( A) M nm : A ( A) ( A) A O

En virtud de las propiedades anteriores de la adicin de matrices, +, (ley interna) resulta que
M nm , tiene estructura de grupo conmutativo. (Ver [8] para profundizar en la estructura de
Grupo)

O Multiplicacin de una matriz por un nmero


Se denomina producto de una matriz A (aij ) M nm Por un nmero a una matriz
2

B (bij) M nm Cuyos elementos son de la forma

bij aij (I 1,..., J 1,...,m)


n;

Es decir, la matriz producto, B, es la que se obtiene multiplicando el nmero por cada uno de
los elementos de A. De aqu en adelante consideraremos que es un nmero real.


Ejemplo
2 0 1

Consideremos la matriz A 2 0 4 y el nmero 5. Entonces, el producto de A


5 7 0
Por
es:

2 0 1 10 0 5

A 5 2 0 4 10 0 20


5 7 0
25 35 0

El producto de una matriz por un nmero es una ley de composicin externa que cumple las
siguientes propiedades (Ver [8] para profundizar en leyes de composicin):

Distributiva mixta del producto respecto a la suma de matrices

(A B) A B R, A, B M nm
Distributiva mixta del producto respecto a la suma de nmeros reales

( ) A A A , R, A M nm

Asociativa mixta

( ) A (A) , R, A M nm

Elemento neutro para la ley externa

2
En esta definicin damos por supuesto que se cumple la propiedad conmutativa de la multiplicacin
del nmero por los elementos de A.
1A A A M nm y 1 R

En virtud de estas propiedades y de las anteriores de la suma de matrices, resulta que el conjunto
M nm de las matrices de orden nm, respecto a la ley de composicin interna, +, y a la ley de

composicin externa, producto de una matriz por un nmero, tiene estructura de espacio vectorial
sobre el cuerpo de los nmeros reales (Ver [W7] y [2] para profundizar en la estructura de espacio
vectorial).

O Multiplicacin de matrices

Se denomina matriz producto de la matriz A (aij ) M nm por la matriz B (b jk ) M m p a

una matriz C (cik ) M n p cuyos elementos son de la forma


m
cik ai1b1k ai 2 b2 k aimbmk aij b jk
j 1

Es decir, los elementos que ocupan la posicin ik, en la matriz producto, se obtienen sumando

Los productos que resultan de multiplicar los elementos de la fila i en la primera matriz por los
elementos de la columna k de la segunda matriz. Observemos en detalle cmo se obtiene el
elemento c23 en el siguiente ejemplo:

1 3 7 2 14
1 2 5
AB 2 1 3 0 4 7 C

2 0 8 0 12
0 4

Fila 2 por columna 3 = elemento que ocupa la posicin 23

c23 a2 j b j 3 a21b13 a22 b23 25 (1)3 10 3 7


j 1

Dos matrices se pueden multiplicar slo cuando el nmero de columna de la primera matriz sea
igual al nmero de filas de la segunda. En ese caso se dice que las matrices son enlazadas.

En el siguiente ejemplo podemos ver adems cul es el orden del matriz producto.

2 2
2 3 4 4
1 1
A 1 2 2 1 B
0 1 0 6 0 2
34
3 2 42

4
0
2 AB 1 3 4
2 2 1 2 2
1 23
1 0 34 1 6 1 9
0
2 10
13

342 2 7 3

1 2
4=4

9
Ntese, adems, que no podemos calcular BA.

2 2
2 3 4 4
1 1
BA 1 2
2
2 1
0 0 1 0 6
34
3 2 42

Hay casos, como veremos en el siguiente ejemplo, en los que se pueden calcular ambos
productos aunque se obtienen resultados diferentes.

Consideremos las siguientes matrices:


0 2
4 3 2
A
Y B 1 3
1 2 3 0
3
Entonces, por un lado,

0 2
4 3 2 9 17
1
AB 2 3 3
1 3 0 11 8


y por otro lado,

0 2 2 4 6
4 3 2
BA 1 3
7 9 11

1 2 3 12 9 6
3 0

Segn se pudo comprobar a travs de los ejemplos anteriores, para la multiplicacin de matrices
no se cumple la propiedad conmutativa. Veamos algunas propiedades de esta operacin:

Asociativa
A (BC) (AB) A, B, C: A M nm, B M mk , C M k p
C,

Elemento neutro (Es la matriz unidad)


I M n A M n : AI I A A

Distributiva (mixta) A C
A (B C) AB , A, B, C:
A M nm B, C M
mk

En virtud de estas propiedades y de las anteriores de la suma de matrices, resulta que el


Conjunto M n, , de las matrices cuadradas de orden n, respecto a las dos leyes de

Composicin interna, + y , tiene estructura de anillo unitario no conmutativo (Ver [8] para
profundizar en la estructura de anillo).

Otras observaciones importantes:


Existen divisores de cero: En general, AB 0 no implica que A 0 o B 0. Por
ejemplo,

1 0 0 0 0 0
.
2 0 8 1 0 0

No se cumple la propiedad cancelativa: En general, AB AC no implica B C. Por


ejemplo,

1 01 0 1 01 0

2 0 8 1 2 0 5 3

No se cumple la frmula del binomio: En general, ( A B)2 A 2 2 AB B 2 Ya que el


Producto no es conmutativo.

O Matriz invertible

Una matriz cuadrada A es invertible si existe una matriz, que denotaremos por A1 , que cumple
AA1 A1 A I ,

Donde I es la matriz unidad. En ese caso se dice A1 es la inversa de A .


que

Por ejemplo, la matriz


2 4 3

A 1 3 4
3 0 1

Es invertible y su inversa
es

3 31
4 7
31 31

A1 13 7 11
31
31 31

9 12 10
31 31 31
Ya
que

2 4 3 31
3
31
4 7 1 0 0
31
4
11
AA1 1 3 13
31 7
31 31
0 1 0 I.

1 9
12 10 0 0 1
3 0

31 31 31

Para un estudio detallado sobre matriz inversa recomendamos el math-block titulado Matriz
Inversa.

O Matriz traspuesta

La traspuesta de una matriz A (aij ) M nm , es la matriz A (a ji ) M mn , que se obtiene


T

a partir de la matriz A al intercambiar las filas por las columnas (o viceversa).


4 1
3 2
La traspuesta de la matriz A 4
T
es A 3 2 .
1 2 3
2 3

Propiedades:

Dada una matriz, siempre existe la traspuesta y adems es nica


A
T T
A
A B T AT BT

AT AT , con R
AB T BT AT
A A
1 T T 1

O Otros tipos de matrices

Matriz simtrica: Es una matriz igual a su traspuesta:

A es simtrica AT A

Un ejemplo de matriz simtrica es el siguiente:

1 9 3

A 9 2 1 AT .

3 1 5

Las matrices simtricas tienen ese nombre debido a que presentan simetra respecto a la
Diagonal principal. En otras palabras, una A (aij ) M n Es simtrica si cumple
matriz

Aij A Para i 1,..., n, J 1,..., n.


ji y

Matriz anti simtrica: Es una matriz igual a la opuesta de su traspuesta. En otras palabras,

A es anti simtrica A.
AT

La siguiente matriz es anti simtrica:

1 9 3

A 9 2 1

3 1 5

Matriz ortogonal: Es aquella cuya traspuesta es igual a su inversa. Es decir, es aquella que
multiplicada por su traspuesta da como resultado la matriz unidad. Esto es,

A es ortogonal AAT I AT A1

La siguiente matriz de funciones es ortogonal:


Senx cos x

cos x senx

Para comprobarlo es suficiente con aplicar la definicin y tener en cuenta que


sen2 x cos2 x 1.
Las matrices ortogonales de orden 2 son de la forma:

A b A b
A o A ,

B a b a

Donde a y b son nmeros reales tales que a 2 b 2 1.


Matriz involutiva: Es una matriz que coincide con su inversa. Esto es,

A es involutiva A2 I

La siguiente matriz es involutiva:

1 0 2 1 0 1 0 1 0
A , A
0 1 0 1 0 1 0 1

Es evidente que esta matriz tambin es ortogonal.

Matriz idempotente: Es una matriz igual a su cuadrado. Es decir,

A es idempotente A2 A.

La siguiente matriz es idempotente:

1 0
A
1 0

Matriz nilpotente: Si A es una matriz cuadrada y Ak 0 Para algn nmero natural k, se dice

Que A es nilpotente. Si k es tal Ak 1 0 Y 0, se dice que A es nilpotente de orden


que Ak

k. A continuacin mostramos una matriz nilpotente de orden 2.

0 8 0

A 0 0 0,

0 0 5
0 0 0

A2 0 0 0

0 0 0




Definicin de determinante

Dados los nmeros 1, 2,3,....n existen n! formas distintas de ordenarlos. Cada una de dichas
ordenaciones se llama permutacin. El conjunto de todas las permutaciones se representa por
Pn y la permutacin (1, 2, 3,..., n) se llama permutacin principal.

Por ejemplo, el conjunto {(1 2 3), (1 3 2), (2 1 3), (2 3 1), (3 1 2), (3 2 1)} contiene las 6
permutaciones diferentes de la terna (1 2 3).

Diremos que dos elementos de una permutacin forman una sucesin si estn colocados en el
mismo orden que en la permutacin principal. En caso contrario, diremos que forman una
inversin.

Por ejemplo: (2 3 1 4 5 6) tiene dos inversiones (n de pasos a realizar para obtener la


permutacin principal).

Llamaremos signatura de una permutacin al valor (-1) donde es el nmero de inversiones de


dicha permutacin.

Se define el determinante de una matriz cuadrada A, denotado por A o por det(A), como:
a11 a12 a1n
a 21 a 22 a 21
Si A A a 11 a 2 2 a n n signatura (1 2 n)
(1 2 n )Pn

a n1 an2 a nn

[W2]
Clculo de determinantes

Determinantes de orden 2 (asociados a matrices 2x2)

Cuando A es una matriz 2x2 hay 2! = 2 permutaciones del par (1 2); estas son:
{(1 2), (2 1)}. Entonces, el determinante de A contendr los dos trminos:

a11 a22 signatura (1 2) y a12 a21 signatura (2 1)


0 1
Como signatura (1 2) = (-1) = 1 y signatura(2 1) = (-1) = -1, el determinante de orden 2 ser:
a11 a12 a11 a12
= a11 a22 - a12 a21
a 21 a 22 a 21 a 22

Ejemplo:
2 5
2. (4) 5.3 8 15 23
3 4

Determinantes de orden 3 (asociados a matrices 3x3)

Si A es una matriz 3x3, su determinante (de orden 3) vendr dado por:


a11 a12 a13
a 21 a 22 a 23 = a11a22a33 + a12a23a31 + a21a32a13 - a13a22a31 - a12a21a33 - a11a23a32
a31 a32 a33

a11 a12 a13 a11 a12 a13


a 21 a 22 a 23 a 21 a 22 a 23
a 31 a32 a 33 a 31 a32 a 33

Ejemplo:
1 4 3
3 2 1 1. (2).5 3. (1). (3) 4.4.1 (3). (2).4 1.(1).1 3.4.5
4 1 5

10 9 16 24 (1) 60 15 83 68
Determinantes de orden superior a 3 (asociados a matrices nxn con n>3)

En el caso de determinantes de orden superior a 3 (es decir, asociados a matrices de tamao


nxn con n > 3), la expresin resultante tiende a complicarse, por lo que recurriremos al mtodo
de desarrollo por adjuntos para su clculo.

Primero de todo, fijmonos en la disposicin de signos siguientes (similar a las casillas blancas y
negras en un tablero de ajedrez):

Para calcular el determinante de una matriz 4x4 (o superior) se debe hacer:

1. Elegir aquella fila o columna que tenga el mayor nmero de ceros (si ninguna lnea tiene
ceros, se coge una lnea cualquiera).

2. Cada uno de los elementos de la lnea dar lugar a un sumando, el cual se obtendr
como se explica en el paso siguiente.

3. Para cada elemento de la lnea seleccionada, ste se multiplica por su correspondiente


determinante adjunto (aquel determinante resultante de eliminar la fila y la columna a las
que pertenece el elemento seleccionado). A dicho adjunto le preceder el signo que
corresponda a la posicin ocupada por el elemento seleccionado (segn la tabla de
signos arriba indicada).

Ejemplo matriz 4x4:


+
1 1 3 2 1 1 3 2
-
2 4 7 2 2 4 7 2
{elegimos la 1 columna y la desarrollamos} +
3 2 9 1 3 2 9 1
-
1 3 1 1 1 3 1 1

4 7 2 1 3 2 1 3 2 1 3 2
1 2 9 1 (2) 2 9 1 3 4 7 2 (1) 4 7 2 ... 15
3 1 1 3 1 1 3 1 1 2 9 1
Ejemplo matriz 5x5:

2 2 2 1 1 2 2 2 1 1
0 0 0 1 1 + - -
- +
0 0 0 1 1
1 1 1 1 1 {desarrollamos por la 2 fila} 1 1 1 1 1
1 1 1 1 2 1 1 1 1 2
3 3 3 4 4 3 3 3 4 4

2 2 1 1 2 2 1 1 2 2 1 1 2 2 2 1 2 2 2 1
1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1
0 0 0 1 1
1 1 1 2 1 1 1 2 1 1 1 2 1 1 1 2 1 1 1 1
3 3 4 4 3 3 4 4 3 3 4 4 3 3 3 4 3 3 3 4

= {al multiplicar por 0, los 3 primeros sumandos se eliminan; el ltimo determinante tambin se
anula} =

2 2 2 1
1 1 1 1
{desarrollamos por la 2 lnea}
1 1 1 2
3 3 3 4

2 2 1 2 2 1 2 2 1 2 2 2
(1) 1 1 2 1 1 1 2 1 1 1 2 1 1 1 1
3 3 4 3 3 4 3 3 4 3 3 3

= {los dos primeros determinantes se anulan mutuamente, pues son iguales pero de signo
cambiado; el ltimo determinante tambin se anula} =
2 2 1
1 1 2 2.1.4 1.3. (1) 2.2.3 (1).1.3 2.2.3 4.2.1
3 3 4

8 3 12 (3 12 8) 17 17 0
Propiedades de los determinantes [W3]

Para el clculo de algunos determinantes, puede ser muy til recurrir a algunas de las siguientes
propiedades:

1. El determinante de una matriz es igual al de su traspuesta.

Por ejemplo,

1 2 3 1 1 0
1 0 0 2 0 0 2
0 0 1 3 0 1

2. Si en un determinante se cambian entre s dos lneas paralelas (filas o columnas), el signo de


su valor tambin cambiar.

Por ejemplo,

1 2 3 1 2 3 1 2 3 1 2 3
0 0 1 1 0 0 en efecto: 0 0 1 2 y 1 0 0 2
1 0 0 0 0 1 1 0 0 0 0 1

3. Un determinante que tiene dos lneas paralelas (filas o columnas) iguales vale 0.

Por ejemplo,

1 2 3
1 2 3 0
1 0 0

4. Si un determinante tiene todos los elementos de una lnea nulos, el determinante vale 0.

Por ejemplo,

1 2 3
0 0 0 0
1 4 3

5. Multiplicar un determinante por un n real es equivalente a multiplicar cualquier linea (fila o


columna) por dicho nmero.

Por ejemplo,

1 2 3 1 2 3 2
2 0 0 1 0 0 1 2
1 0 0 1 0 02

Dada una matriz A de tamao nxn, y un n real , esta propiedad implica que:
A n A

6. Si todos los elementos de una fila o columna estn formados por dos sumandos, dicho
determinante se descompone en la suma de dos determinantes.

Por ejemplo,

2 45 3 2 4 3 2 5 3
0 3 3 2 0 3 2 0 3 2
0 1 2 5 0 1 5 0 2 5

7. Si los elementos de una lnea son combinacin lineal de las otras, entonces, el determinante
vale 0.

Por ejemplo,
1 3 2 1 3
2 0 22 0 0 (la 2 columna es combinacin lineal de la 1 y 3 columna).
3 1 23 1

8. Si a los elementos de una lnea se le suman los elementos de otra paralela multiplicados
previamente por un n real el valor de la determinante no vara.

Por ejemplo,

1 5 2 1 3 1 5 3
2 3 22 0 2 3 0
3 4 23 1 3 4 1

9. El determinante de un producto de matrices es el producto de los determinantes de cada una


de ellas.
A B A B
Espacio vectorial

Definicin 1.1 Un espacio vectorial es una terna (V, +, ), donde V es un conjunto no vaco y +,
son dos operaciones del tipo +: V V R, : R V V a las

Que llamaremos suma de vectores y producto por escalares respectivamente y con las siguientes
propiedades: denotando +(u, v) = u + v y (, v) = v,

1. u + (v + w) = (u + v) + w, u, v, w V (asociativa).

2. u + v = v + u, u, v V (conmutativa).

3. Existe e V tal que e + v = v + e = v, v V (elemento neutro).

4. Para cada v V existe w tal que v + w = w + v = e (elemento opuesto).

5. (v) = () v, v V, , R (seudo-asociativa).

6. (u + v) = u + v y ( + ) v = v + v, u, v V y , R (distributiva).

7. 1v = v,v V (unimodular).

De forma abreviada, diremos que V es un espacio vectorial. A los elementos de V

Lo llamamos vectores y a los de R, escalares.

Proposicin 1.1 En un espacio vectorial V,

1. El elemento neutro es
nico. Se denotara por 0.

2. El elemento opuesto de un vector es


unico. Si v es un vector, su opuesto lo denotamos por
v.

Proposicin 1.2 En un espacio vectorial se tiene las siguientes propiedades:

1. 0 = 0, R.

2. 0v = 0, v V.

3. () v = (v), R, v V.

4. Si v = 0, entonces = 0 o v = 0.

A continuaci
n, damos algunos ejemplos de espacios vectoriales:

n
m ero natural, se considera el espacio eucldeo R
1. Si n es un n = {(x1 , . . . , xn ); xi

R} con la suma y producto por escalares siguientes:

(X1..., xn ) + (y1 , . . ., yn )0(x1 + y1 , . . ., xn + yn ).


(x1 , . . ., xn ) = (x1,. . ., xn ).

n
Siempre se supondrque R tiene esta estructura vectorial y que llamaremos

Usual.

2
2. Sea V = {(x, y) R ; x y = 0} con la suma y producto por escalares como antes.

3. Sea V = {p} un conjunto con un unico elemento y con p + p = p y p = p.

4. Sea V = {f: R R; f es aplicaci


n} y

(f + g)(x) = f (x) + g(x), (f )(x) = f (x), x R.

5. W = {f : R R; f es una funcion diferenciable} y la suma y el producto por

escales esta definido de forma an loga a la del ejemplo anterior.

6. Se considera el conjunto de los polinomios de grado n N: un polinomio de grado n N es


una expresin del tipo p(X ) = a0 + a1 X + . . . + an X n ;

i=1
Abreviaremos p(X ) = n ai X i , donde por convenio X 0 = 1 y en vez de

i=1
escribir a0 1 = a0 . Dos polinomios p(X ) = n ai X i y q(X ) = ni=1 b X i se
i
diran iguales si ai = bi para cada i. El conjunto de polinomios de grado n

Entonces Pn [X ] es un espacio vectorial.

7. Sea X = {a1 , . . . , an } un conjunto con n elementos. Se define una palabra formada por el
conjunto X como una expresi n del tipo x1 a1 + . . . + xn an ,

Donde xi R. Dos palabras x1 a1 + . . . + xn an y y1 a1 + . . . + yn an son iguales

Si xi = yi . Se define V el conjunto de todas las palabras y se define

(x1 a1 + . . . + xn an ) + (y1 a1 +... + yn an ) = (x1 + y1 ) a1 +... + (xn + yn )an . (x1 a1 + . . . +


xn an ) = (x1 )a1 + . . . + (xn )an .

Entonces V es un espacio vectorial. Como ejemplo, el conjunto de palabras definidas por {1,
X, . . . , X n } constituyen el espacio Pn [X ].

A continuaci
n definimos estructuras de espacio vectorial a partir de la teora de conjuntos.
Concretamente, a partir del producto cartesiano, aplicaciones biyectivas, espacios cocientes y
subconjuntos.

Definicin 1.2 Sean V1 y V2 dos espacios vectoriales. Se define en V1 V2 =

{(v1 , v2 ); vi Vi } las siguientes operaciones:

(v1 , v2 ) + (u1 , u2 ) = (v1 + u1 , v2 + u2 )

(v1 , v2 ) = (v1 , v2 ).

Con esta suma y producto por escalares, V1 V2 es un espacio vectorial y se llama espacio
producto.

2
Como caso particular, se tiene R = R R (comprobad que ambos espacios vecto- riales
n m
coinciden!). De la misma forma, se puede definir el espacio vectorial R R .

Definicin 1.3 Se considera V un espacio vectorial y V un conjunto biyectivo con


V . Sea f : V V una biyeccion entre ambos. Se defineen V la siguiente estructura

de espacio vectorial:

1 1 1
u + v = f (f (u ) + f (v )). v = f (f (v )).

Se dice V tiene la estructura vectorial inducida de V por la biyeccion f .

1. La estructura vectorial cambia si cambia la biyeccion f .

2. Sea X = {a1 , . . . , an } un conjunto de n elementos y V el conjunto de palabras definidas a


n
partir de X . Se considera la siguiente biyeccion entre R y V :

f (x1 , . . . , xn ) = x1 a1 + . . . + xn an .

n
Entonces la estructura vectorial inducida en V de R (con la estructura usual) y de la biyeccion
f coincide con la estructura de espacio vectorial que ya se haba definida en el conjunto de
palabras definidas por X .

+
3. Se considera R con su estructura usual y R el conjunto de los n
m eros reales positivos. Se
+ x
considera la siguiente biyeccion: f : R R , f (x) = e .

+
Entonces la estructura de espacio vectorial inducida en R es:


x + y = xy x = x .

La estructura vectorial inducida en un subconjunto de un espacio vectorial motiva el estudio


de subespacio vectorial.

2 Subespacio vectorial

Definicin 2.1 Sea V un espacio vectorial y U un subconjunto suyo. Se dice que

U es un subespacio vectorial de V si satisface las siguientes propiedades:

1. Si u, v U , entonces u + v U .

2. Si R y u U , entonces u U .

3. Con la suma y producto por escalares de V , U es un espacio vectorial.

Proposicion 2.1 Sea U un subconjunto de un espacio vectorial V. Entonces U es un subespacio


vectorial si y solo si

1. Si u, v U, entonces u + v U .

2. Si R y u U , entonces u U .

Demostracion : Supongamos que U satisface las propiedades 1 y 2. Veamos que con

estas son suficientes para probar todas las propiedades de espacio vectorial. Todas
estas son ciertas de forma trivial, excepto dos: la existencia de elemento neutro y opuesto. Pero
para ello basta con probar que el elemento neutro de V se encuentra en U y lo mismo sucede
con el elemento opuesto de un vector de U .

Por hipotesis, si u U , 0u = 0 U . De la misma forma, si u U , 1u =

(1u) = u U .

En particular, todo subespacio vectorial debe contener el elemento neutro del espacio ambiente,
ascomo los elementos opuestos de todos los vectores del sube- espacio.

Proposicion 2.2 1. Si U1 y U2 son subespacios vectoriales, entonces U1 U2

tambi
n es subespacio vectorial.

2. Si U1 y U2 son subespacios vectoriales de V y U1 U2 , entonces U1 es un

Subespacio vectorial de U2 .

1. Si V es un espacio vectorial, {0} y V son subespacios vectoriales, llamados

Subespacios vectoriales triviales.

2 2
2. U = {(x, y) R ; x y = 0} es un subespacio vectorial de R .

3. En general, si a1 , . . . , an son n
m eros reales, no todos nulos, el conjunto U =

{(x1 , . . . , xn ) Rn ; a1 x1 + . . . + an xn = b} es un subespacio vectorial de Rn si

y so
lamente si b = 0.

4. Si V1 y V2 son espacios vectoriales, entonces V1 {0} y {0}V2 son subespacios vectoriales del
espacio producto V1 V2 .

5. Si V es un espacio vectorial, V es un conjunto biyectivo con V con la estructura de espacio


vectorial inducida por una biyeccion f : V V , entonces U V

es un subespacio vectorial si y solo si f (U ) es un subespacio vectorial de V .

Definicion 2.2 Sean U y W subespacios vectoriales de V . Se define la suma de U

Con W como el conjunto

U + W = {u + w; u U, w W }.

Entonces U +W es un subespacio vectorial. Ademas se tienen las siguientes propiedades:

1. U + W = W + U .

2. U + U = U .

3. U U + W .

4. U + W es el menor subespacio (con respecto a la inclusion de conjuntos) que contiene a U y


a W.
Definicion 2.3 Un espacio vectorial V es suma directa de dos subespacios vectori- ales U y W
suyo, y se denota por V = U W , si V = U + W y U W = {0}.

Con el concepto de subespacio vectorial podemos definir una estructura de espacio vectorial
en un conjunto cociente.

Definicion 2.4 Sea U un subespacio vectorial de V . En V se define la siguiente relaci


n binaria
R:

vRw si v w U.

Entonces R es una relacion de equivalencia en V . Al conjunto cociente se denota por V /U . Es


evidente que la clase de equivalencia de un vector v es

[v] = v + U = {v + u; u U }.

En V /U se define la siguiente suma y producto por escalares: (v + U ) + (w + U ) = (v + w) + U.

(v + U ) = (v) + U.

Estas operaciones estn bien definidas: por ejemplo, si v + U = v + U y w + U =

w + U , v v U , w w U y por tanto, (v + w) + U = (v + w ) + U .

Proposicion 2.3 V /U es un espacio vectorial. El elemento neutro es 0 + U y si

v + U V /U , su elemento opuesto es (v) + U .

3 Sistema de generadores. Dependencia lineal

Definicion 3.1 Sean X = {v1 , . . . , vn } un conjunto de vectores de un espacio vec torial V . Una
combinacion lineal de X es una suma del tipo

a1 v1 + . . . + an vn , ai R

Se llama subespacio vectorial generados por X al conjunto de combinaciones lineales:

N < X >=< v1 , . . ., vn >= L({X }) = L({v1 , . . . , vn }) = { ai vi ; ai R}.

i=1

Proposicion 3.1 Se tienen las siguientes propiedades:

1. < X > es un subespacio vectorial. Si el cardina de X es 1, se dice que < v >

Es la recta vectorial generada por v.

2. Si X U , donde U es un subespacio vectorial, entonces < X > U .

3. Si X Y , entonces < X >< Y >.

Como ejemplos tenemos:


3 3
1. En R , < (1, 0, 1), (0, 1, 1) >= {(x, y, z) R ; x z = 0, y z = 0}.

2
2. R =< (1, 1), (0, 2) >.

n
3. R =< (1, 0, . . . , 0), . . . , (0, 0, . . . , 1) >.

4. Si X es Y son dos conjuntos finitos de vectores, entonces < X > + < Y >=< X Y >.

Definicion 3.2 Un espacio vectorial V se llama finitamente generado si existe un conjunto finito
de vectores X tal que < X >= V . A X se llama un sistema de generadores de V .

De esta forma, {1, X, . . . , X n } es un sistema de generadores de Pn [X ].

Proposicion 3.2 1. SI X es un sistema de generadores, y X Y , entonces Y

tambien es un sistema de generadores.

2. Si {v1 , . . . , vn } es un sistema de generadores y v1 es combinaci


n lineal de los demas, entonces
{v2 , . . . , vn } es un sistema de generadores de V .

3. Si {v1 , . . . , vn } es un sistema de generadores y v = 1 v1 + . . . + n vn , con

1 = 0. Entonces {v, v2 , . . . , vn } es un sistema de generadores de V .

4. Un subespacio vectorial de un espacio vectorial finitamente generado, tambien es finitamente


generado.

Definicin 3.3 Un conjunto de vectores {v1 , . . . , vn } se dice que es linealmente in- dependiente
(o que forman un conjunto de vectores libre) si la unica combinacion lineal nula de ellos es la
trivial, es decir, si siempre que se tenga i=1 i vi = 0, entonces i = 0 para cada i. En
caso contrario, se dice que son linealmente depen- dientes.

Proposicion 3.3 1. {v} es linealmente independiente si y y solo si es no nulo.

2. Dos vectores son linealmente independientes si no son proporcionales.

3. Todo subconjunto de un conjunto de vectores linealmente independiente, tambien es linealmente


independiente.

4. Un conjunto de vectores es linealmente dependiente si alguno de ellos es com- binacion lineal


de los demas.

3
1. {(1, 0, 1), (0, 1, 1)} R son linealmente independientes.

n
2. {(1, 0, . . . , 0), . . . , (0, 0, . . . , 1)} R es linealmente independientes.

3. {1, 1 + X, 1 + X 2 } P2 [X ] es linealmente independiente.

Definicion 3.4 Una base de un espacio vectorial es un sistema de generadores y linealmente


independiente.

3
1. {(1, 0, 1), (0, 1, 1)} R no es base.
n
La base usual de R .
2. {(1, 0, . . . , 0), . . . , (0, 0, . . . , 1)} Rn es base. Se llamar

3. {1, 1 + X, 1 + X 2 } P2 [X ] es base.

Se tiene la siguiente caracterizacion de base.

Proposicion 3.4 Sea B = {v1 , . . . , vn } un conjunto de vectores de un espacio vec- torial.


Entonces este conjunto es una base si y solamente si para cada v V , existen
i=1
unicos i R tales que v = n i vi . A estos numeros se le llaman coordenadas
de v respecto de la base B y se escribira (1 , . . . , n ).

A partir de ahora vamos a demostrar que en un espacio vectorial dado, el cardinal de las
bases de dicho espacio es siempre el mismo. Primero resolvemos el problema de la existencia
de bases en un espacio finitamente generado.

Proposicion 3.5 Sean X e Y dos conjuntos finitos de un espacio vectorial, tales que X Y
, X es linealmente independiente e Y es un sistema de generadores. Entonces existe una
base B de V tal que X B Y .

Como consecuencia

Corolario 3.1 Si v es un vector no nulo, v pertenece a una base.

Corolario 3.2 Dado un conjunto de vectores linealmente independientes, siempre es posible


a
a dir vectores hasta tener una base (completacion).

Corolario 3.3 En todo sistema de generadores, existe un subconjunto suyo que es base.
Teorema 3.1 (de la base) Sea V un espacio vectorial finitamente generado. En- tonces
todas las bases de V tienen el mismo cardinal, al que se llamara dimension de V .

Corolario 3.4 Sea V un espacio vectorial de dimension n. Sea X = {e1 , . . . , em }

un conjunto de vectores linealmente independiente (resp. Sistema de generadores). Entonces


m n (resp. m n). Ademas se tiene la igualdad si y solamente si X
es base.

Corolario 3.5 Si U es un subespacio vectorial de un espacio vectorial V , entonces


dim(U ) dim(V ) y la igualdad se tiene si y solamente U = V .

Se tiene los siguiente ejemplos de dimensiones de espacios vectoriales:

1. Por definicion dim(0) = 0.


n
2. La dimension de R es n.

3. La dimension de Pn [X ] es n + 1.

TRANSFORMACIONES LINEALES
Definicin: Sean V y W espacios vectoriales. Una transformacin lineal T de V en W (T: VW) es
una funcion que asigna a cada vector v V un vector unico T(v) W y que satisface:
A.1) v1 , v2
V [T (v1 v2 ) T (v1 ) T (v2 )]
A.2) Rv V [T (v) T (v)]
Ejemplo:
A) Probar que T sea una transformacin lineal:

V C[ a , b ] W
T :V W
b
T ( f ) f ( x)dx
a

1. f , g V ; T ( f g ) T ( f ) T ( g ) 1
b b
T ( f ) f ( x)dx T ( g ) g ( x)dx
a a

( f g )( x) f ( x) g ( x)
b
T ( f g ) ( f g )( x)dx
a
b
T ( f g ) [ f ( x) g ( x)]dx
a
b b
T ( f ) T ( g ) f ( x)dx g ( x)dx
a a

2. R, f V ; T (f ) T ( f ) 1
(f )( x) f ( x)
b b
T ( f ) f ( x)dx T (f ) f ( x)dx
a a
b b

f ( x)dx f ( x)dx T ( f )
a a

T es una transformacin lineal.

B) Probar que T es una transformacin lineal:


T : R2 R2
x x h
T
y y k
v1 , v 2 V ; T (v1 v 2 ) T (v1 ) T (v 2 ) 0
x x
v1 1 v 2 2
y1 y2
T (v`1 v 2 ) T (v1 ) T (v 2 )
x x2 x x
T 1 T 1 T 2
y1 y2 y1 y2
x1 x 2 h x1 h x 2 h

y1 y 2 k y1 k y 2 k
x1 x 2 h x1 x 2 2h

y1 y 2 k y1 y 2 2k
No se cumple el primer axioma, por lo tanto T no es una transformacin lineal.
Teoremas:
Si T de V en W es una transformacin lineal entonces:
A) La imagen del cero vector de V es el cero vector de W.
T V W
Demostracin:
V es un E.V . X V .X (sabemos que)
X X V T (X ) T ( X )
entonces :
T (V ) T ( . X ) .T ( X )
W
B) La imagen del inverso de X es el inverso de X.


T X T(X )
Demostracin:
V es un E.V . X V X 1. X ( sabemos que)
entonces :
T ( X ) T (1. X ) 1.T ( X )
T(X )
C) La transformada de la combinacin lineal es la combinacin lineal de la transformada.
T (1V1 2V2 ... NVN ) 1T (V1 ) 2T (V2 ) ... NT (VN )
Demostracin:
Induccin matemtica
paso basico : P(1) 1
P(n)
paso inductivo : P( K ) P( K 1)

P( N ) T (1V1 2V2 ... NVN ) 1T (V1 ) 2T (V2 ) ... NT (VN )


P(1) : T (1V1 ) 1T (V1 )
P(1) 1 P de la transformacion

Suponer: P(K) 1
T ( 1V1 2V2 ... K V K ) 1T (V1 ) 2 T (V2 ) ... K T (V K )

X

T ( X ) 1T (V1 ) 2 T (V2 ) ... K T (V K )


P( K 1 ) T ( 1V1 2V2 ... K V K K 1V K 1 )

T ( X K 1VK 1 ) T ( X ) T ( X 1VK 1 )
T ( X ) K 1T (VK 1 )

1T (V1 ) 2T (V2 ) ... K T (VK ) K 1T (VK 1 )

P( K 1) 1
P( K ) P( K 1) 1
AP (n) N

Ojo: en la induccin matemtica solo se trata naturales.


Nota: T ( X ) W X V FALSO porque no me asegura que se cumpla esto.
Ncleo de una transformacin lineal:
Definicin: sea T de V en W una transformacin lineal entonces el ncleo de la transformacin
denotada por Nu(T) se define como Nu(T ) X V / T ( X ) W .
A la dimensin del ncleo de T se lo conoce como nulidad de T y se denota por (T ) dim Nu(T ) .
Imagen de una transformacin:
Definicin: sea T de V en W una transformacin lineal entonces la imagen de la transformacin

denotada por Im(T) y se define como Im(T ) X W / T X Y para a lg un X V .
A la dimensin de la imagen de T se lo conoce como rango de T y se denota por (T ) dim Im(T )
.
Teoremas:
Sea T de V en W una transformacin lineal entonces:
1. El ncleo de T es un subespacio de V.
Demostracin:
i) V es un E.V. X 1 , X 2 Nu(T )X 1 X 2 Nu(T )
X V / T ( X 1 ) 0W X 2 V / T ( X 2 ) 0W
X Nu(T ) / T ( X ) 0W
1
1 1

X Nu(T ) / T ( X ) 0W
2 2

X1 X 2 T ( X1 X 2 ) T ( X1) T ( X 2 )
ii) , X Nu(T ) X Nu(T)0W 0W
0W
X Nu(T ) T ( X ) 0W
T (X ) .T ( X ) .0W 0W
Nu(T ) es un subespacio de V .

2. La imagen de T es un subespacio de V.

Demostracin:
i) Y1 , Y2 Im(T ) Y1 Y2 Re(T )
Y1 Im( T ) Y1 W / T ( X 1 ) Y1 para a lg un X 1 V
Y2 Im( T ) Y2 W / T ( X 2 ) Y2 para a lg un X 2 V
Y1 Y2 T ( X 1 X 2 ) Y1 Y2

pero X 1V X 2 V

( X 1 X 2 ) V luego Y1 Y2 Re(T )
ii) , Y Im(T ).Y Re(T )

Y Im( T ) Y W / Y T ( X ) para a lg un X V
.Y T ( X )
T (X ) donde X V
Y Im( T )
Im(T) es un subespacio de V.
3. Sea T : V W una transformacin lineal, se cumple:
i ) Nu(T ) V
ii ) Im( T ) W
iii ) dim( V ) dim Nu(T ) dim Im( T )
4. Sea T : V W una transformacin lineal
Nu(T ) { } T Es inyectiva.

5. Sea T : V V una transformacin lineal que se conoce como endomorfismo, se cumple:


Nu(T ) { } T Es inyectiva T es sobreyectiva.

Demostracin:
T es inyectiva si, T (u ) T (v)
u v
i) :
Sean u , v V talque:
T (u ) T (v)
T (u ) T (v) 0
T (u v) 0
(u v) Nu(T )
uv 0
u v
ii) :
T es inyectiva, Nu(T ) { }?
{ } Nu (T ) (Afirmacin)
Nu (T ) { } (Probar)
Sea u Nu(T ) T (u ) 0
T ( 0) 0
T (u ) T (0) u 0
u { } Nu (T ) { }
Nu (T ) { }
iii) :
dim( V ) dim Nu(T ) dim Im( T ); dim Nu(T ) 0
Im( T ) V
dim Im( T ) dim V Im( T ) V
T Es sobreyectiva.
Ejemplo:
Determine si la transformacin dada es inyectiva, sobreyectiva, o ambas.
x x y
T : 2 2 T
y 2x y
Solucin:
x x y 0 x y 0 y0
Nu(T ) /
y 2 x y 0 x y
0
Nu(T ) T es inyectiva.
0
dim Nu(T ) 0 dim Im( T ) x
Im( T ) 2 T es sobreyectiva.
Representacin matricial:
Sea T : una transformacin lineal finita. Entonces existe una matriz nica de mxn AT tal
n m

que T(x)=AT.x , x .
n

Dicha matriz se denomina, matriz de informacin correspondiente a T o representacin matricial de


T.
Teoremas:
Sea T de Rn en Rm una transformacin lineal. Si AT es la matriz asociada a T, entonces:
1. Nu(T ) Nu( AT )
2. dim Nu(T ) dim Nu( AT )
3. Im( T ) Im( AT )
4. dim Im( T ) dim Im( AT )
5. dim Nu(T ) dim Im( T ) n

Ejemplo:
Sea T :
3 3

x x 2y z

T : y 2 x y z ; Determine A(T), Nu(T), Im(T), dim Nu(T ) , dim Im( T ) :
z x 3y 2z

x 1 2 1 x 1 2 1

T : y 2 1 1 y A(T ) 2 1 1
z 1 3 2 z 1 3 2

1 2 1 0 1 2 1 0

Nu (T ) 0 5 3 0 0 5 3 0
0 5 3 0 0 0 0 0

5 y 3z 0
3
y z
5
x 2y z 0
3
x 2 z z
5
z
x
5
z / 5

Nu(T ) 3z / 5 / z
z

dim Nu(T ) 1
a x a x

Im( T ) b / T y b para a lg un y
c z c z

1 2 1 x a 1 2 1 a

2 1 1 y b 2 1 1 b
1 2 z c 1 2 c
3 3

1 2 1 a

0 5 3 b 2a c a
0 0 c a
0

a

Im( T ) b / a, b dim Im( T ) 2
a

Autovalores y autovectores

Definicin de autovalor: R (o a C, aunque no lo consideraremos) es un autovalor de una matriz


A, cuadrada, n n, si existe un vector n (a n ) , 0 tal que = .
A se le llama autovector asociado a .
Tambin se utilizan los nombres valor propio y vector propio, respectivamente, para autovalor y
autovector.
Observaciones:
1. Si = 2 = = 2
. n = n

n
Por tanto, para determinar cmo acta n resulta til conocer y , pues el estudio de es mucho
ms sencillo.
2. Si es un autovector asociado a , entonces
es otro autovector asociado a .
En efecto: si = () = k() = () = ()

Diagonalizacion
Una matriz cuadrada A, de orden n, se dice que es diagonalizable si existe una matriz invertible P, de
orden n, y una matriz diagonal, tal que 1 = .
Otra manera de decirlo es: Una matriz cuadrada A es diagonalizable si es semejante a una matriz
diagonal.
Caso 1. Cuando todos los autovalores son distintos y pertenecen a los
reales:
Si una matriz cuadrada A, de orden n, tiene n autovalores reales distintos diferentes de cero,
entonces el conjunto {1 , 2, , . , } es linealmente independiente. Luego, la matriz A es
diagonalizable.
Puede observarse que si {1 , 2, , . , } son L.i la matriz P={1 , 2, , . , } es
inversible. Luego puede escribise que 1 = .
Ejemplos:
3 1 0
1. Diagonalizacin de 1 = [1 2 1]
0 1 3

3 1 0
|1 I| = [ 1 2 1 ] = 0 ( 3)( 1)( 4) = 0
0 1 3

Autovalores: = 3; = 1; = 4 . Los tres autovalores son simples la matriz es


diagonalizable.
Si = 3,
0 1 0 0
(1 I) =
0 [1 1 1] [ ] = [0]
0 1 0 0

= 0 =
= 0 =0
= 0 =
1
1 = [ 0 ]
1
Si = 1,
2 1 0 0
(1 I) = 0 [1 1 1] [] = [0]
0 1 2 0

2 = 0 =
+ = 0 = 2
+ 2 = 0 =
1
2 = [2]
1
Si = 4,
1 1 0 0
(1 I) = 0 [1 2 1] [] = [0]
0 1 1 0

= 0 =
2 = 0 =
= 0 =
1
3 = [ 1 ]
1

1 1 1 3 0 3
1
La matriz = [ 0 2 1] 1 = 6 [ 1 2 1 ]
1 1 1 2 2 2

3 0 0
1 1 = = [0 1 0]
0 0 4

3 0 2
2. Diagonalizacin de 2 = [ 1 2 3]
2 5 1

3 0 2
|2 I| = [ 1 2 3 ] = 0 ( + 6.341)( + 2.251)( 2.592) = 0
2 5 1

Autovalores: = 6.341; = 2.251; = 2.592 . Los tres autovalores son


simples la matriz es diagonalizable.
Si =6.341,
3.341 0 2 0
(2 I) = 0 [ 1 4.341 3 ] [] = [0]
2 5 5.341 0

3.341 + 2 = 0 = 0.598
+ 4.341 3 = 0 = 0.828
2 5 + 5.341 = 0 =

0.598
1 = [ 0.828 ]
1

Si = 2.251,
0.749 0 2 0
(2 I) = 0 [ 1 0.251
3 ] [ ] = [0]
2 5 1.251 0

0.749 + 2 = 0 = 2.669
+ 0.251 3 = 0 = 1.317
2 5 + 1.251 = 0 =

2.669
2 = [1.317]
1

Si = 2.592 ,
5.592 0 2 0
(2 I) = 0 [ 1 4.592 3 ] [] = [0]
2 5 3.592 0

5.592 + 2 = 0 = 0.357
4.592 3 = 0 = 0.575
2 5 3.592 = 0 =
0.357
3 = [0.575]
1

0.598 2.669 0.357


La matriz = [ 0.828 1.317 0.575]
1 1 1
3.374 0.457 0.396
1 = [ 0.277 0.189 0.009]
0.096 0.646 0.593

= 6.341 0 0
1 2 = = [ 0 2.251 0 ]
0 0 2.592

Caso 2. Cuando hay autovalores repetidos (multiplicidad) y


pertenecen a los reales:
Si una matriz cuadrada A, de orden n, es diagonalizable si y slo si todos sus autovalores son
reales y diferentes de cero, adems, la multiplicidad geometrica de cada uno coincide con su
multiplicidad algebraica.
La multiplicidad algebraica es la del autovalor: solucin doble, triple de la ecuacin () =
| I| = 0.
La multiplicidad geometrica es la de los autovectores respectivos: la dimension del espacio
vectorial solucion del autosistema ( I) = 0
Ejemplos:

4 1 1
3. Diagonalizacin de 3 = [2 5 2]
1 1 2

4 1 1
|3 I| = [ 2 5 2 ] = 0 ( 3)2 ( 5) = 0
1 1 2

Autovalores: = 3; multiplicidad=2
= 5; multiplicidad=1

Si = 3,
1 1 1 0
(3 I) = 0
[2 2 2] [ ] = [0]
1 1 1 0
+ =0 = =0
2 + 2 2 = 0 =0 =
+ =0 = =
1 0
1 = [0] 2 = [1]
1 1

( = 3) = multiplicidad = 2 Si es diagonalizable

Si =5,
1 1 1 0
(3 I) = 0 [ 2 0 2] [] = [0 ]
1 1 3 0

+ = 0 =
2 2 = 0 = 2
+ 3 = 0 =

1
3 = [2]
1

1 0 1 1 1 1
1
La matriz = [0 1 2] 1 = 2 [2 0 2]
1 1 1 1 1 1

3 0 0
1 3 = = [0 3 0]
0 0 5
3 1 1
4. Diagonalizacin de 4 = [7 5 1]
6 6 2

4 1 1
|4 I| = [ 2 5 2 ] = 0 ( + 2)2 ( 4) = 0
1 1 2
Autovalores: = -2; multiplicidad=2
= 4; multiplicidad=1

Si = -2,
1 1 1 0
(4 I) = 0 [7 7 1] [] = [0 ]
6 6 0 0

+ =0 =
7 + 7 = 0 =
6 + 6 = 0 =0
1
1 = [1]
0
( = 2) multiplicidad No es diagonalizabe

Si =4,
7 1 1 0
(4 I) =
0 [7 1 1] [] = [0]
6 6 6 0

7 + = 0 =0
7 + = 0 =
6 + 6 6 = 0 =
0
2 = [1]
1
4 2
, , , 4

Caso 3. Cuando hay autovalores que pertenecen a los complejos:


Si una matriz cuadrada A, de orden n, tiene n autovalores complejos distintos diferentes de
cero, entonces el conjunto {1 , 2, , . , } es linealmente independiente. Luego, la matriz
A es diagonalizable.
Puede observarse que si {1 , 2, , . , } son L.i la matriz P={1 , 2, , . , } es
1
inversible. Luego puede escribise que = .
Ejemplos:
1 5 4
5. Diagonalizacin de 5 = [1 1 3]
3 4 1

1 5 4
|5 I| = [ 1 1 3 ]=0
3 4 1
( 7.228)( + 2.114 0.308)( + 2.114 + 0.308) = 0

Autovalores: = 7.228; = 2.114 0.308; = 2.114 + 0.308 . Los


autovalores son simples la matriz es diagonalizable.

Si = 7.228,
6.228 5 4 0
(5 I) = 0 [ 1 6.228
3 ] [ ] = [0]
3 4 6.228 0

6.228 + 5 + 4 = 0 = 1.181
6.228 + 3 = 0 = 0.671
3 + 4 6.228 = 0 =

1.181
1 = [0.671]
1
Si = 2.114 0.308,

3.114 + 0.308 5 4 0
(5 I) = 0 [ 1 3.114 + 0.308 3 ] [] = [0]
3 4 3.114 + 0.308 0

(3.114 + 0.308) + 5 + 4 = 0 = (0.374 0.424)


+ (3.114 + 0.308) + 3 = 0 = (1.059 + 0.241)
3 + 4 + (3.114 + 0.308) = 0 =

0.374 0.424
2 = [1.059 + 0.241 ]
1

Si = 2.114 + 0.308 ,

3.114 0.308 5 4 0
(5 I) = 0 [ 1 3.114 0.308 3 ] [] = [0]
3 4 3.114 0.308 0

(3.114 0.308) + 5 + 4 = 0 = (0.374 + 0.424)


+ (3.114 0.308) + 3 = 0 = (1.059 0.241)
3 + 4 + (3.114 0.308) = 0 =

0.374 + 0.424
3 = [1.059 0.241 ]
1

1.181 0.374 0.424 0.374 + 0.424


La matriz = [00.671 1.059 + 0.241 1.059 0.241 ]
1 1 1
0.259 + 3.927x1017 0.456 + 2.775x1017 0.386 2.775x1017
1
= [ 0.129 + 0.931 0.228 0.433 0.306 0.808 ]
0.129 0.931 0.228 + 0.433 0.306 + 0.808

7.228 0 0
1 5 = = [ 0 2.114 0.308 0 ]
0 0 2.114 + 0.308

1 1 1
6. Diagonalizacin de 6 = [1 2 1]
1 1 3

1 1 1
|6 I| = [ 1 2 1 ]=0
1 1 3
( + 2)( + (2 + 2))( (2 + 2)) = 0

Autovalores: =2; =(2 + 2); = (2 + 2) . Los autovalores son


simples la matriz es diagonalizable.

Si = 2,
1 1 1 0
(6 I) =
0 [1 0 1 ] [] = [0]
1 1 1 0

+ =0 =
= 0 =0
=0 =

1
1 = [0]
1
Si = (2 + 2),

(2 + 2) 1 1 0
(6 I) = 0 [ 1 (2 + 2) 1 ] [] = [0]
1 1 (2 + 2) 0

1
(2 + 2) + = 0 = 3 (1 22)
1
+ (2 + 2) + = 0 = 3 (2 + 2)
+ (2 + 2) = 0 =

1
(1 22)
3
2 = [1 (2 + 2) ]
3
1

Si =(2 + 2),

(2 + 2) 1 1 0
(6 I) =
0 [ 1 (2 + 2) 1 ] [] = [0]
1 1 (2 + 2) 0

1
(2 + 2) + = 0 = 3 (1 + 22)
1
(2 + 2) + = 0 = 3 (2 + 2)
(2 + 2) = 0 =

1
(1 + 22)
3
3 = [ (2 + 2)]
1
3
1
1 1
1 (1 22) (1 + 22)
3 3
La matriz = [0 1
(2 + 2) 3 (2 + 2))]
1
3
1 1 1

1 1
1
2 2
1 1 1 1
= ( + 2) 4 (2 + 2) (1 2)
4 4
1 1 1
[ 4 ( + 2) 4
(2 + 2)
4
(1 + 2)]

2 0 0
6 = = [ 0 (2 + 2)
1 0 ]
0 0 (2 + 2)

Caso 4. Cuando hay autovalores que son iguales a cero:


2 3 5
7. Diagonalizacin de 7 = [0 3 0]
6 9 15

2 3 5
|7 I| = [ 0 3 0 ]=0 ( 3)( 17) = 0
6 9 15

Autovalores: = 0; = 3; = 17 . Los tres autovalores son simples la matriz


es diagonalizable.
Si = 0,
2 3 5 0

(7 I) = 0 [0 3 0 ] [] = [0]
6 9 15 0

2 + 3 + 5 = 0 = 5
3 = 0 =0
6 + 9 + 15 = 0 = 2
5
1 = [ 0 ]
2

Si = 3,
1 3 5 0
(7 I) = 0 [ 0 0 0 ] [] = [0]
6 9 12 0

+ 3 + 5 = 0 = 3
0=0 = 14
6 + 9 + 12 = 0 = 9

3
2 = [14]
9
Si = 17,
15 3 5 0
(7 I) = 0 [ 0 12 0 ] [] = [0]
6 9 2 0

15 + 3 + 5 = 0 =
12 = 0 =0
6 + 9 2 = 0 = 3
1
3 = [0]
3

3 1
17 0
5 3 1 17
1
La matriz = [ 0 14 0] 1 = 0 14 0
2 9 3 2 3 5
[ 17 14 17]
0 0 0
1
7 = = [0 3 0]
0 0 17

CONCLUSIONES:
- En matrices aprendimos conceptos generales sobre dicho arreglo
matemtico, as como sus propiedades y aplicaciones.
- Se estudi la determinante como una funcin que le asigna a una matriz de
orden n, un nico nmero real de la matriz. As como sus aplicaciones y
propiedades.
- Podemos decir que un espacio vectorial es una estructura algebraica creada
a partir de un conjunto no vaco y se estudi sus propiedades a partir de los
vectores que contena.
- En las transformaciones lineales estudiamos el cambio que sufre un vector al
ser representado en otro espacio vectorial. Tambin los mtodos de
conversin y propiedades de las matrices de transicin que representan a la
transformacin lineal.

BIBLIOGRAFA:

- Algebra de Matrices - Cristina Steelman Pasqual UOC.


- Algebra Linea - Hall Bernard Kolman, David R. Hill.
Captulo 1:..matrices y determinantes

Capitulo2:sistema de ecuaciones lineales

Capitulo3..espacios vectoriales

Captulo 4.transformaciones lineales

Captulo 5..valor propio y vector propio

You might also like