You are on page 1of 13

REPÚBLICA BOLIVARIANA DE VENEZUELA.

UNIVERSIDAD PEDAGÓGICA EXPERIMENTAL LIBERTADOR


INSTINTUTO DE MEJORAMIENTO PROFESIONAL DEL MAGISTERIO
ESPECIALIDAD: MATEMÁTICA
EXTENSIÓN ACADÉMICA --- HIGUEROTE

Profesor: Integrantes:
Carpio Freddy Rivas Lilian. C.I.: 12.597.199
Morales Elvin. C.I.: 23.651.072
González Jean C. C.I.: 16.910.000
Pinto Adrian. C.I.: 20.995.418

Higuerote, enero de 2016


INDICE.

Pág.

Introducción………………………………………………………………………….3
Espacios Vectoriales de Matrices…………………………………………………4
Transformaciones Lineales y Matrices…………………………………………...4
Rango de una Matriz………………………………………………………………..6
Cambio de Base…………………………………………………………………….7
Equivalencia y Similaridad…………………………………………………………7
Matrices Invertibles…………………………………………………………………9
Conclusión…………………………………………………………………….……12
Bibliografía………………………………………………………………………….13
INTRODUCCIÓN.

Las matrices aparecen por primera vez hacia el año 1850, introducidas
por J.J. Sylvester. El desarrollo inicial de la teoría se debe al matemático
W.R. Hamilton en 1853. En 1858, A. Cayley introduce la notación matricial
como una forma abreviada de escribir un sistema de m ecuaciones lineales
con n incógnitas. Las matrices se utilizan en el cálculo numérico, en la
resolución de sistemas de ecuaciones lineales, de las ecuaciones
diferenciales y de las derivadas parciales. Además de su utilidad para el
estudio de sistemas de ecuaciones lineales, las matrices aparecen de forma
natural en geometría, estadística, economía, informática, física, etc...
Espacios Vectoriales: Un espacio vectorial es aquel conjunto de vectores
que cumple las propiedades o axiomas de la suma de vectores y la
multiplicación por un escalar dichas propiedades vistas en espacios n-
dimensiónales Rn o R2. Un espacio vectorial es un espacio no vacío.
Podríamos decir que un espacio vectorial es la abstracción de las
propiedades de un espacio n-dimensional, debe tomarse en cuenta que en el
espacio vectorial no se especifica operaciones ni vectores entonces se
puede usar cualquier vector y cualquier operación se puede sustituir la suma
de vectores y la multiplicación por un escalar, pero siempre cumpliendo todos
las propiedades, siempre seria un espacio vectorial.
Un espacio vectorial cumple con cuatro partes que son: un conjunto de
vectores, un conjunto de escalares, y dos operaciones. Estos forman un
cuerpo que es igual a las estructuras algebraicas de dos operaciones
<conjunto, operación, operación> (un cuerpo). Para comprobar que
determinado conjunto es un espacio vectorial es preciso definir o especificar
las propiedades de suma multiplicación por un escalar como vimos
anteriormente tenemos que definir el elemento que actúa como cero (0) y el
negado de cada elemento.
Cuerpo: Es el conjunto de números y operaciones cualesquiera que deben
obedecer las diez propiedades algebraicas que mencionamos en
operaciones básicas de espacios vectoriales.
Sub cuerpo: Si se operan escalares en forma de sub cuerpo C y se operan
bajo la suma y la multiplicación por un escalar estos escalares no deben
salirse del sub espacio determinado y las operaciones de prueba son las
mismas que se han mencionado con anterioridad.
TRANSFORMACIONES LINEALES: Notación estándar de la transformada
lineal es: V se denomina de T. Si v pertenece a V y w esta en W, T(v) = w
donde w será la imagen de v bajo T, el conjunto de todas las imágenes se
llama contra dominio de T y el conjunto de v de V tales que T(v) = w se llama
pre imagen de w. La definición de transformación lineal es que todo espacio
vectorial en V y W se puede hacer transformación lineal si cumplen con los
axiomas de la distribución bajo la suma (T (U + V) = T (U) + T (v)) y la
multiplicación por un escalar (T(cU)= cT(u)). Cumpliendo con lo anterior la
transformada lineal tiene sus propiedades que son:
 T (0) = 0
 T (-v) = - T(v)
 T (v-u) = T(v)-T(u)
 Sí v = c1v1 + c2v2 +... + cnvn entonces v = c1 T (v1)+ c2 T (v2)+... +
cn T (vn).
Para definir una transformación lineal por una matriz esta se notara así:
siendo a la matriz m x n la función T se definirá T (v) = Av que suma
transformación lineal de Rn en Rm.
El núcleo se puede encontrar definiendo la transformada así. T (v) = 0
esto también se denomina como Kernel de T y se denota Ker (T) para que
sea núcleo esta debe cumplir que Ax = 0. La dimensión del núcleo se llama
nulidad y la dimensión del contra dominio de T se llama rango (si A = matriz
entonces el rango de T va ser = rango de A). Dimensión del dominio =
dimensión del rango + dimensión del núcleo. Las transformaciones lineales
puede ser uno a uno que son aquellas que la pre imagen de W consta de un
solo vector, o sea, será uno a uno para toda u y v en V, T(u) = T(v), también
hay que tomar en cuenta que Ker(T) = 0. También las transformadas lineales
puede ser sobre si y solo si el rango de T es igual a la dimensión de W. Y un
transformación lineal es biyectiva si es uno a uno y sobre.
Existencia de una transformación inversa:
Sea T: Rn! Rn una transformada de una matriz estándar. Debe cumplir las
siguientes condiciones:
T es invertible
T es un isomorfismo
A es invertible
Si T es invertible con matriz estándar A, entonces la matriz estándar de T-1
es A-1. Un caso especial seria cuando V 0 W y B = B', don de la matriz A que
se denomina matriz de T con respecto a la base B. En este caso la matriz de
la transformación identidad es simplemente In. La matriz de transición de un
transformada lineal depende del espacio V. Las matriz de transición T con
respecto a la base B es diferente a la matriz T con respecto a otra base B'.
A'[(V)] B’! [T (V)]B' es la forma directa a través de la matriz A'.
P-1AP [V] B’ = T [(V)] B’ forma indirecta.
A' = P-1AP
Donde a es la matriz de T con respecto a B, A' es la matriz T con
respecto a B', P es la matriz de transición de B' a B, P-1 es la matriz de
transición B a B'
Rango de la matriz: el número de vectores fila linealmente
independientes coincide con el nº de vectores columna linealmente
independientes, puesto que la misma matriz A puede entenderse como una
colección de m vectores de n componentes o como n vectores columna de m
componentes.
Para calcular el rango de una matriz es conveniente seguir los pasos que se
enuncian a continuación:
 Primero. Es necesario realizar algunas transformaciones. Escogemos
un elemento pivote, en el ejemplo de abajo he escogido el , y sobre él
realizaremos una serie de operaciones para conseguir que el resto de
la fila esté compuesta única y exclusivamente por ceros.
 Segundo. Para obtener un cero en el elemento será necesario restar
entre columnas a fin de conseguir que
 Tercero. El resultado obtenido en el paso anterior lo colocamos en la
segunda columna; y así sucesivamente.
 Cuarto. Se deja la primera columna sin modificar, ya que en ella ha
habido un elemento pivote ya. Del resto de elementos de la matriz,
escogemos un nuevo elemento pivote (que no sea cero) para que
haga las veces de pivote. En la matriz ejemplo se ha escogido el .
 Quinto. Ya hemos concluido, pues el procedimiento ha finalizado. Es
importante saber que si el procedimiento que se ha de llevar a cabo se
realiza para las filas en lugar de las columnas, obtendremos como
resultado final lo mismo. Ejemplo: dados los vectores calcula el rango
de su matriz. Escogemos él como elemento pivote e igualamos a
cero.
Para ello hacemos las operaciones convenientes. Para que se vea más
claro, primero lo hacemos con los vectores y después ya lo haremos en las
matrices: Es el resultado y se coloca así: El significa, ya que la columna I
equivale al vector y la columna II equivale al vector. A partir de aquí
seguimos hasta que: Repetimos el proceso, pero ahora con un elemento
pivote tal que no pertenezca a la primera columna, en lenguaje matemático.
Escogemos, por ejemplo, Todos estos pasos se puede unir en uno único,
basta con mencionar en la flecha que estamos haciendo más de una
operación en un paso: Seguimos haciendo transformaciones hasta el final,
cambiando de pivote: Ya hemos finalizado. ¿Cuál es el rango? Pues es aquél
que coincide con el número de vectores fila linealmente independientes, es
decir, que esté compuesto de ceros. En este caso, sólo hay un vector
columna linealmente independiente, el. Así que el rango de esta matriz es 1.
Cambio de Base, En un espacio vectorial V, dadas dos bases B y B’, se
llama matriz de cambio de base (o de cambio de coordenadas) de B a B’ a la
matriz que contiene en sus columnas las coordenadas de los vectores de la
base B expresados en función de la base B’. Equivalencia y Similaridad,
En álgebra lineal, se dice que dos matrices A y B de n-por-n sobre el cuerpo
K son semejantes si existe una matriz invertible P de n-por-n sobre K tal
que: P −1AP = B. Uno de los significados del término transformación de
semejanza es una transformación de la matriz A en la matriz B. Las matrices
semejantes comparten varias propiedades:
 poseen el mismo rango,
 el mismo determinante,
 la misma traza,
 los mismos valores propios (aunque los vectores propios, en general,
serán distintos),
 el mismo polinomio característico, y
 el mismo polinomio mínimo.
Hay dos razones para estas características:
1. dos matrices semejantes pueden pensarse como dos descripciones de
una misma transformación lineal, pero con respecto a bases distintas;
2. la transformación X P−1XP es un Automorfismo del álgebra
asociativa de todas las matrices de n-por-n.
Debido a esto, para una matriz A dada, estamos interesados en encontrar
una "forma normal" sencilla B que sea semejante a A: el estudio de A se
reduce de esta manera al estudio de la matriz semejante (y más sencilla) B.
Por ejemplo, A se llama diagonalizable si es similar a una matriz diagonal. No
todas las matrices son diagonalizable, pero por lo menos sobre los números
complejos (o cualquier cuerpo algebraicamente cerrado), toda matriz es
semejante a una matriz en forma de Jordán. Otra forma normal, la forma
canónica racional, se aplica en cualquier campo. Observando las formas de
Jordán o las formas canónicas racionales de A y B, puede decidirse
inmediatamente si A y B son semejantes. La semejanza de matrices no
depende del cuerpo base: si L es un cuerpo conteniendo a K como
subcuerpo, y A y B son dos matrices en K, entonces A y B son semejantes
como matrices sobre K si y solo si son semejantes como matrices sobre L.
Esto es bastante útil: uno puede agrandar en forma segura el cuerpo K, por
ejemplo para obtener un cuerpo algebraicamente cerrado; las formas de
Jordán pueden computarse sobre el cuerpo grande y puede usarse para
determinar si las matrices dadas son semejantes sobre el cuerpo pequeño.
Este método puede usarse, por ejemplo, para mostrar que toda matriz es
semejante a su traspuesta. Si en la definición de semejanza, la matriz P
puede elegirse para que sea una matriz de permutación, entonces A y B son
semejantes en permutación; si P puede elegirse para que sea una matriz
unitaria, entonces A y B son unitariamente equivalentes. El teorema
espectral establece que toda matriz normal es unitariamente equivalente a
alguna matriz diagonal. Matrices Invertibles, Se dice que una matriz
cuadrada A es invertible, si existe una matriz B con la propiedad de que AB
= BA = I .Siendo I la matriz identidad. Denominamos a la matriz B la inversa
de A y la denotamos por A-1. Ejemplo:

Puesto que AB = BA = I, A y B son invertibles, siendo cada una la


inversa de la otra
Ejemplos de Matriz: Dadas las Matrices:
2 0 1 1 0 1
𝐴 = [3 0 0] ; 𝐵 = [1 2 1]
5 1 1 1 1 0

Calcular: A + B; A – B; A x B; B x A; At
2 0 1 1 0 1 2+1 0+0 1+1 3 0 2
𝐴 + 𝐵 = [3 0 0] + [1 2 1] =[3 + 1 0 + 2 0 + 1]= [4 2 1]
5 1 1 1 1 0 5+1 1+1 1+0 6 2 1

2 0 1 1 0 1 2−1 0−0 1−1 1 0 0


𝐴 − 𝐵 = [3 0 0] = [1 2 1] = [3 − 1 0 − 2 0 − 1] = [2 −2 −1]
5 1 0 1 1 0 5−1 1−1 0−0 4 0 0
2 0 1 1 0 1
𝐴 ∗ 𝐵 = [3 0 0] ∗ [1 2 1]
5 1 0 1 1 0
2∗1+0∗2+1∗1 2∗0+0∗2+1∗1 2∗0+0∗1+1∗0
= [3 ∗ 1 + 0 ∗ 1 + 0 ∗ 1 3 ∗ 0 + 0 ∗ 2 + 0 ∗ 1 3 ∗ 1 + 0 ∗ 1 + 0 ∗ 0]
5∗1+1∗1+1∗1 5∗0+1∗2+1∗1 1∗0+0∗0+1∗0
3 1 2
= [3 0 3]
7 3 6

1 0 1 2 0 1
𝐵 ∗ 𝐴 = [1 2 1 ] ∗ [3 0 0]
1 1 0 5 1 1

1∗2+0∗3+1∗5 1∗0+0∗0+1∗1 1∗1+0∗0+1∗1


= [1 ∗ 2 + 2 ∗ 3 + 1 ∗ 5 1∗0+2∗0+1∗1 1 ∗ 0 + 2 ∗ 0 + 1 ∗ 1]
1∗2+1∗3+0∗5 1∗0+1∗0+0∗1 1∗1+1∗0+0∗1
7 1 2
= [13 1 2]
5 0 1

2 3 5
𝐴𝑡 = [0 0 1]
1 0 1

Ejercicio de transformación lineal:


Determine si la transformación dada de V en W es lineal.
𝑇: 𝑅 3 → 𝑅 2

𝑋
1
𝑇 [𝑌 ] = [ ]
𝑍
𝑍
Comprobamos la primera la primera propiedad: 𝑇 (𝑈 + 𝑉) = 𝑇𝑢 + 𝑇𝑣
Sea el vector 𝑈 = (𝑈1, 𝑈2, 𝑈3 ) y 𝑉 = (𝑉1, 𝑉2, 𝑉3 ) ⟹ 𝑈 + 𝑉 = (𝑈1 + 𝑉1 , 𝑈2 +
𝑉2 , 𝑈3 + 𝑉3 )
𝑇 (𝑈 + 𝑉) = 𝑇𝑢 + 𝑇𝑣

𝑈1 + 𝑉1 𝑈1 𝑉1
𝑇 (𝑈2 + 𝑉2 ) = 𝑇 (𝑈2 ) + 𝑇 (𝑉2 )
𝑈3 + 𝑉3 𝑈3 𝑉3

1 1 1
( )= ( )+ ( )
𝑈3 + 𝑉3 𝑈3 𝑉3

1 2
( )= ( ) ⟹ 𝐿𝑎 𝑇𝑟𝑎𝑛𝑠𝑓𝑜𝑟𝑚𝑎𝑐𝑖ó𝑛 𝑛𝑜 𝑒𝑠 𝐿𝑖𝑛𝑒𝑎𝑙
𝑈3 + 𝑉3 𝑈3 + 𝑉3

Rango de Una matriz:


Calcular por el método de Gauss el rango de la matriz siguiente:
2 −1 0 7 0 −1 −2 1 0 −1 −2 1
(1 0 1 3) 𝐹1 − 2 𝐹2 (1 0 1 3) 𝐹3 − 3 𝐹2 (1 0 1 3)
3 2 7 7 3 2 7 7 0 2 4 −2

0 −1 −2 1
𝐹3 + 2 𝐹1 (1 0 1 3) Por lo tanto 𝑟 (𝐴) = 2
0 0 0 0
CONCLUSIÓN.

Al realizar este trabajo hemos llegado a la conclusión de las matrices


son importante y necesarias para el cálculo numérico en la resolución de
sistemas de ecuaciones lineales, de las ecuaciones diferenciales y de las
derivadas parciales. Un espacio vectorial es aquel conjunto de vectores que
cumple las propiedades o axiomas de la suma de vectores y la multiplicación por un
escalar dichas propiedades vistas en espacios n-dimensiónales Rn o R2.
También encontramos otros puntos como, Matrices invertida, Rango de una
Matriz entre otros.
BIBLIOGRAFÍA.

www.buenastareas.com
www.elrincondelvago.com
www.wilkipedia.com
www.monografia.com