You are on page 1of 35

1.1 Definicin y origen de los nmeros complejos.

=Historia de los nmeros complejos= La primera referencia conocida a races cuadradas de nmeros negativos proviene del trabajo de los matemticos griegos, como Hern de Alejandra en el siglo I antes de Cristo, como resultado de una imposible seccin de una pirmide. Los complejos se hicieron ms patentes en el Siglo XVI, cuando la bsqueda de frmulas que dieran las races exactas de los polinomios de grados 2 y 3 fueron encontradas por matemticos italianos como Tartaglia, Cardano. Aunque slo estaban interesados en las races reales de este tipo de ecuaciones, se encontraban con la necesidad de lidiar con races de nmeros negativos. El trmino imaginario para estas cantidades fue acuado por Descartes en el Siglo XVII y est en desuso. La existencia de nmeros complejos no fue completamente aceptada hasta la ms abajo mencionada interpretacin geomtrica que fue descrita por Wessel en 1799, redescubierta algunos aos despus y popularizada por Gauss. La implementacin ms formal, con pares de nmeros reales fue dada en el Siglo XIX. =Definicin= Un nmero complejo z es una combinacin lineal de la forma z=(a+bi) en donde a y b son nmeros reales. Al nmero a se le llama la parte real de z, a = Re(z), y al nmero b la parte imaginaria de z, b = Im(z). A la expresin a + bi de un nmero complejo z se le conoce como la forma estndar de z.

Ejemplos:

Decimos que dos nmeros complejos z = a + bi, w = c + di, son iguales z = w, si y solo si a = c y b = d.

Los conjuntos de la forma (a;0) son nmeros reales puros (CR) y se encuentran en el eje real. Los conjuntos de la forma (0;b) se denominan complejos imaginarios puros(CI) y se encuentran en el eje imaginario.

=Opuesto y conjugado de un numero complejo= Dado: z=(a;b) su opuesto es -z=(-a;-b) Dado: z=(a;b) su conjugado es z=(a;-b)

=Complejo nulo= z=(a;b) es nulo si a=b=0, anotndose z=(0;0)

=Interpretacin geomtrica= Los nmeros complejos se representan en unos ejes cartesianos. El eje x se llama eje real y el eje y se llama eje imaginario

=Nmero imaginario= La unidad imaginaria es el nmero y se designa por la letra i.

1.2 Operaciones fundamentales con nmeros complejos. =Adiccin = Dados los complejos Z1 = (a;b) y Z2 = (c ;d). Se define Z1 + Z2 = (a; b) + (c; d) = (a +c; b+ d) =Sustraccin= Se obtiene sumando al minuendo el opuesto del sustraendo : Z1 + (-22) = (a; b) + (-c ; d) = (a c ; b-d) =Multiplicacin= Dados los complejos Z1 = (a ; b) y Z2 = (c ; d), se define Z1 * Z2 = (a*c-b*d; a*d + b*c) =Potenciacin= La potenciacion de un numero complejo con potencia natural, se resuelve como una multiplicacion reiterada: Zn = (a ; b)n = (a ;b)1.(a ; b)2(a ; b)n asociado de a dos pares los pares ordenados. =Forma Binomica= La forma Binomica de un numero complejo es: Z = a + bi

Operaciones de nmeros complejos en su forma Binomica: La suma y diferencia de numeros complejos se realiza sumando y restando partes reales entre si y partes imaginarias entre si. +(a +bi) + (c + di) = (a+c) + (b+d) i -(a +bi) - (c + di) = (a-c) + (b-d) i =Multiplicacin con nmeros complejos= El producto de los nmeros complejos se realiza aplicando la propiedad distributiva del producto respecto de la suma y teniendo en cuenta que i2 = -1 (a + bi) (c + di) = (ac-bd) + (ad + bc) i

=Divisin con nmeros complejos= El cociente de nmeros complejos se hace racionalizando el denominador; esto es, multiplicando numerador y denominador por el conjugado de este.

=Ejemplo= (3 + 2i) + 8-7-i) = (3-7) + (2i i) = -4 + i

= (5 + 3i) + {(-1 + 2i) + (7-5i)}

=(5 + 3i) + {(-1 + 7) + (2i 5i)}

= (5 + 3i) + (6 3i)

= (5 + 6) + (3i 3i)

= 11 1.3 Potencias de i, mdulo o valor absoluto de un nmero complejo. =Potencias de la unidad imaginaria= i0 = 1 i1 = i i2 = 1 i3 = i i4 = 1

Los valores se repiten de cuatro en cuatro, por eso, para saber cunto vale una determinada potencia de i, se divide el exponente entre 4, y el resto es el exponente de la potencia equivalente a la dada.

=Ejemplo i22

i22 = (i4)5 i2 = 1

=Valor absoluto= El valor absoluto, mdulo o magnitud de un nmero complejo z viene dado por la siguiente expresin: Si pensamos en z como un punto en el plano; podemos ver, por el teorema de Pitgoras, que el valor absoluto de un nmero complejo coincide con la distancia eucldea desde el origen del plano. Si el complejo est escrito en forma polar z = r ei, entonces |z| = r. Podemos comprobar con facilidad estas tres importantes propiedades del valor absoluto para cualquier complejo z y w. Por definicin, la funcin distancia queda como sigue d(z, w) = |z - w| y nos provee de un espacio mtrico con los complejos gracias al que se puede hablar de lmites y continuidad. La suma, la resta, la multiplicacin y la divisin de complejos son operaciones continuas. Si no se dice lo contrario, se asume que sta es la mtrica usada en los nmeros complejos.

1.4 Forma polar y exponencial de un nmero complejo. Forma Polar El producto de dos nmero complejos diferente de cero est dado en la forma polar por el producto de sus valores absolutos y la suma de sus argumentos. El cociente de dos nmeros complejos diferentes de cero est dado por el cociente de sus valores absolutos y la diferencia de sus argumentos.

=Argumento de un nmero complejo= El argumento de un nmero complejo es el ngulo que forma el vector con el eje real. Se designa por arg(z).

Forma exponencial

A veces, y por simple comodidad se prefiere trabajar con la forma trigonomtrica en vez de con la forma binomica: Sea Z un nmero complejo cualquiera su representacin prdra experesarse de las siguientes maneras:

1.5 Teorema de De Moivre, potencias y extraccin de races de un nmero complejo. Teorema de DeMoivre y Potencias

De la figura 1.1. tenemos dada la representacin polar de un nmero complejo

Donde la formula se usa cuando

en este caso

En general, para cualquier entero positivo k

a esto se le conoce como Teorema de DeMoivre aplicable as mismo a las potencias de nmeros complejos

Races de un nmero complejo

Dado un nmero complejo que se define tal que i2=-1. Utilizando esta notacin podemos pensar en i como la raz cuadrada de 1, pero notamos que tambin tenemos (-i2)2=i2=-1, as que (i) es tambin una raz cuadrada de 1. Semejantemente a los nmeros reales, decimos que la raz

cuadrada principal de 1 es i, o, en general, si x es cualquier nmero real positivo, entonces en la raz cuadrada principal de x se cumple la siguiente igualdad:

es decir, la raz cuadrada de un nmero negativo es necesariamente imaginario. Eso es debido a que i2=-1, por lo que entonces:

Si se desea encontrar la raz de un nmero imaginario es posible demostrar la igualdad

Por los argumentos dados, i no puede ser ni positivo ni negativo. Esto crea un problema: para el nmero complejo z, no podemos definir para ser la raz cuadrada positiva de Z. Para cada nmero complejo diferente a cero z existen exacto dos nmeros W tales que w2=Z . Por ejemplo, las races cuadradas de i son:

La definicin general de est introduciendo el siguiente punto de rama: si z = rei es representado en coordenadas polares con < , despus fijamos el valor principal a:

As definido, la funcin de la raz es holomorfa en todas partes excepto en los nmeros reales no positivos, donde no es incluso continua. La antedicha serie de Taylor para siendo vlida para el resto de los nmeros complejos x con |x| < 1.. En general, para un nmero complejo expresado en forma rectangular, se obtiene: sigue

Donde (el valor absoluto o mdulo del nmero complejo), y el signo de la parte imaginaria de la raz coincide con el signo de la parte imaginaria del radicando. 1.6 Ecuaciones polinmicas. Los nmeros complejos surgen ante la imposibilidad de hallar todas las soluciones de las ecuaciones polinmicas de tipo

Dados los valores apropiados de los coeficientes an a a0 , esta ecuacin tendr n soluciones reales si que permitirn reescribir el polinomio de la siguiente forma:

Sin embargo, ecuaciones incluso tan sencillas como x2 + 1 = 0 desafan esta regla, ya que su solucin, que tericamente vendra dada por

que no existe en el campo de los reales ya que la raz cuadrada no est definida para argumentos negativos.

Los nmeros complejos sin embargo permiten ampliar an ms el concepto de "nmero", definiendo la unidad imaginaria o i como i = raz de -1, lo que significara que la ecuacin anterior s tendra dos soluciones, que seran x1= i y x2= - i.

La introduccin de los nmeros complejos permite probar el teorema fundamental del lgebra, que dice que cualquier ecuacin polinmica de grado n tiene exactamente n soluciones complejas.

De esta manera, se define genricamente un nmero complejo como un nmero compuesto por dos partes, una parte real a y una parte imaginaria b, escribindose como sigue: z = a + bi.

Por ejemplo, 2-3i, 4+8i, 3-i, etc.

Con los nmeros complejos se opera como se operara con productos de sumas ordinarios, teniendo en cuenta siempre que i2 = -1: (a + bi)(c + di) = ac +adi +bci + bdi2 = (ac - bd) + (ad+bc)i.

La divisin es un poco ms sofisticada debido a la necesidad de eliminar la unidad imaginaria del de nominador de la fraccin:

2.1 Definicin de matriz, notacin y orden. DEFINICION: Se llama MATRIZ a todo cuadro de nmeros distribuidos en filas y columnas. Las matrices aparecen por primera vez hacia el ao 1850, introducidas por J.J. Sylvester. El desarrollo inicial de la teora se debe al matemtico W.R. Hamilton en 1853. En 1858, A. Cayley introduce la notacin matricial como una forma abreviada de escribir un sistema de m ecuaciones lineales con n incgnitas.

Los trminos horizontales son las filas de la matriz y los verticales son sus columnas. Una matriz con m filas y n columnas se denomina matriz m por n, o matriz m n.

Las matrices se denotarn usualmente por letras maysculas, A, B, ..., y los elementos de las mismas por minsculas, a, b, ...

Ejemplo:

donde sus filas son (1, -3, 4) y (0, 5, -2) y sus

CLASES DE MATRICES

Segn el aspecto de las matrices, stas pueden clasificarse en:

=Matrices cuadradas = Una matriz cuadrada es la que tiene el mismo nmero de filas que de columnas. Se dice que una matriz cuadrada n n es de orden n y se denomina matriz n-cuadrada. Ejemplo: Sean las matrices

Entonces, A y B son matrices cuadradas de orden 3 y 2 respectivamente.

=Matriz identidad= Sea A = (ai j ) una matriz n-cuadrada. La diagonal (o diagonal principal) de A consiste en loselementos a11, a22, ..., ann. La traza de A, escrito trA, es la suma de los elementos diagonales.

La matriz n-cuadrada con unos en la diagonal principal y ceros en cualquier otra posicin, denotada por I, se conoce como matriz identidad (o unidad). Para cualquier matriz A,

A I = I A = A.

=Matrices triangulares= Una matriz cuadrada A = (ai j ) es una matriz triangular superior o simplemente una matriz triangular, si todas las entradas bajo la diagonal principal son iguales a cero. As pues, las matrices

son matrices triangulares superiores de rdenes 2, 3 y 4.

=Matrices diagonales= Una matriz cuadrada es diagonal, si todas sus entradas no diagonales son cero o nulas. Se denota por D = diag (d11, d22, ..., dnn ). Por ejemplo,

son matrices diagonales que pueden representarse, respectivamente, por diag(3,-1,7) diag(4,-3) y diag(2,6,0,-1).

=Traspuesta de una matriz= La traspuesta de una matriz A consiste en intercambiar las filas por las columnas y se denota por AT. As, la traspuesta de

En otras palabras, si A = (ai j ) es una matriz m n, entonces AT = (aTij) es la matriz n m. La trasposicin de una matriz cumple las siguientes propiedades

=Matrices simtricas= Se dice que una matriz real es simtrica, si AT = A; y que es antisimtrica, si AT = -A. Ejemplo: Consideremos las siguientes matrices:

Podemos observar que los elementos simtricos de A son iguales, o que AT = A. Siendo as, A es simtrica. Para B los elementos simtricos son opuestos entre s, de este modo B es antisimtrica. A simple vista, C no es cuadrada; en consecuencia, no es ni simtrica ni antisimtrica.

=Matrices ortogonales= Se dice que una matriz real A es ortogonal, si AAT = AT A = I. Se observa que una matriz ortogonal A es necesariamente cuadrada e invertible, con inversa A-1 = AT. Consideremos una matriz 3x3 arbitraria:

Si A es ortogonal, entonces:

=Matrices normales= Una matriz es normal si conmuta con su traspuesta, esto es, si AAT = ATA. Obviamente, si A es simtrica, antisimtrica u ortogonal, es necesariamente normal.

Ejemplo

=Matriz numrica= Conjunto de nmeros colocados en filas y en columnas.

=Matriz de orden (m,n)= Conjunto de nmeros reales, dispuestos en filas m, i en columnas n. Cada uno de los nmeros que consta la matriz es un elemento, que se distingue entre los otros, por su posicin.

=Subndices= Cada elemento tiene unos subndices que sirven para indicar su posicin dentro de la matriz. El primer indica la fila, y el segunda indica la columna.

=Orden de la matriz= El nmero de filas y columnas de una matriz determina el orden de la matriz. El orden de la matriz est determinado por un par de nmeros naturales; m y n.

Las filas son los nmeros dispuestos en m horizontales. En el ejemplo, la primera fila estara formada por los nmeros [ 1 2 3 ]. Las columnas son los nmeros dispuestos en n verticales. En el ejemplo, la primera columna estara formada por los nmeros [ 1 1 4 6 ].

Una matriz de orden (m,n) es el conjunto de nmeros dispuestos en m filas y n columnas. Siguiendo el mismo ejemplo, vemos que es una matriz 4x3. Se clasifica as porque la matriz contiene 4 filas y 3 columnas.

Si queremos sealar un elemento de la matriz, estos se distinguen por su posicin, la cual queda definida por su fila y su columna. Por ejemplo, si queremos dar la posicin del nmero 7 (figura 1.1), sera de la siguiente forma: am,n es a2,3; m indica la fila en la cual se encuentra el nmero. Pasa exactamente lo mismo n, que indica la columna en la que se encuentra. 2.2 Operaciones con matrices. =Suma=

Las matrices se pueden sumar y restar entre s, con la condicin que sean del mismo orden. La suma se obtiene sumando los elementos de dos matrizes que pertenecen a la misma fila y a la misma columna. Dada las matrices A y B del mismo orden, la matriz sumante se obtiene sumando cada trmino de A correspondiente en B:

=Propiedades de la suma= Asociativa: (A+B)+C = A + (B+C) Conmutativa: A + B= B + A

Elemento neutro: A + 0 = A Elemento simtrico: A - B = A + ( - B )

=Producto por un escalar=

Con un nombre real k y la matriz A de orden (m,n), definimos el producto de K por A el producto de cada elemento que les forma cada uno. Igual que la siguiente forma: cuando K=2

=Propiedades del producto escalar= k ( A + B ) = kA + kB ( k + h )A = kA + hA k ( hA) = ( kh ) A 1A = A 2.3 Clasificacin de las matrices. =Triangular superior= En una matriz triangular superior los elementos situados por debajo de la diagonal principal son ceros.

=Triangular inferior=

En una matriz triangular inferior los elementos situados por encima de la diagonal principal son ceros.

=Diagonal= En una matriz diagonal todos los elementos situados por encima y por debajo de la diagonal principal son nulos.

=Escalar= Una matriz escalar es una matriz diagonal en la que los elementos de la diagonal principal son iguales.

=Identidad= Una matriz identidad es una matriz diagonal en la que los elementos de la diagonal principal son iguales a 1.

=Potencia= Se llama potencia k-sima de una matriz cuadrada A, donde k OE , un entero positivo, al producto de A por s misma, repetido k veces.

Ak =AAA......k veces ...... A

Se conviene en que:

A- k = (A- 1) k " k OE

A0 = I

=Traspuesta= Dada una matriz A, se llama matriz traspuesta de A a la matriz que se obtiene cambiando ordenadamente las filas por las columnas

=Simtrica= Una matriz simtrica es una matriz cuadrada que verifica: A = At.

=Antisimetrica= Una matriz antisimtrica o hemisimtrica es una matriz cuadrada que verifica: A = -At.

=Compleja= Sus elementos son nmeros complejos aij e

=Conjugada=

Matriz conjugada de una matriz A Aquella que se obtiene sustituyendo cada elemento por su complejo conjugado (igual parte real, pero la parte imaginaria cambiada de signo).

=Hermitiana o hermitica= Una matriz hermitiana (o hermtica) es una matriz cuadrada de elementos complejos que tiene la caracterstica de ser igual a su propia traspuesta conjugada. Es decir, el elemento en la i-sima fila y j-sima columna es igual al conjugado del elemento en la j-sima fila e i-sima columna, para todos los ndices i y j:

2.5 Clculo de la inversa de una matriz. Sabemos ya multiplicar matrices y hemos visto algunas de las propiedades de esta operacin. Recordemos, en primer lugar, que no siempre es posible efectuar la multiplicacin de dos matrices, y en segundo lugar, que aunque sea posible hacer esta multiplicacin, en general no es conmutativo, es decir AB es distinto de B*A.

En el caso particular de que tratemos con matrices cuadradas del mismo orden A y B, es claro que podemos efectuar los productos AB y BA, que darn como resultado otra matriz del mismo orden, aunque, como ya se ha dicho, las matrices resultantes sern, en general, distintas.

Sabemos tambin que el elemento neutro del producto de matrices es la matriz identidad In. Por analoga con el caso de los nmeros reales, podemos plantearnos la siguiente cuestin: Si tenemos un nmero real, por ejemplo el 2, podemos interesarnos en buscar el inverso del 2 para el producto, es decir un nmero real x tal que 2x = 1, el producto de 2 por x sea igual al elemento neutro, el 1.

Evidentemente, en el caso de los nmeros reales es bien fcil despejar x para obtener, en nuestro caso, que x =12, es decir, el inverso de un nmero real es otro nmero que multiplicado por el da el elemento neutro, el 1.

Todo nmero real, salvo el 0, tiene inverso.

Trasladando esto a las matrices, nos podemos plantear si dada una matriz cuadrada A de orden n, cualquiera, existe su inversa X para el producto de matrices, tal que A X = In es decir, el producto de A por su inversa produce el elemento neutro matricial, la matriz identidad In. Sin embargo, hay algunas diferencias con respecto al caso de los nmeros reales: No podemos despejar la matriz X del modo X = In A, porque no hemos definido la divisin de matrices. No todas las matrices cuadradas no nulas tienen matriz inversa (sea lo que sea, por analoga con los nmeros).

Definamos, en primer lugar, el trmino de matriz inversa: Dada una matriz cuadrada de orden n , A, se dice que A es invertible (o que posee inversa o que es no singular o que es regular ), si existe otra matriz del mismo orden, denominada matriz inversa de A y representada por A1 y tal que: A * A1 = In y A1 * A = In

Si A no tiene inversa, se dice que es singular o no invertible.

Si una matriz tiene inversa, dicha matriz inversa es nica (slo hay una). 2.6 Definicin de determinante de una matriz. El determinante de una matriz cuadrada es un nmero real cuya definicin exacta es bastante complicada. Por ello, definiremos primero el determinante de matrices pequeas, y estudiaremos mtodos y tcnicas para calcular determinantes en general. Solamente se puede calcular el determinante a matrices cuadradas.

En cuanto a la notacin, a veces el determinante se escribe con la palabra det, y otras veces se indica sustituyendo los parntesis de la matriz por barras verticales.

El determinante de una matriz determina si los sistemas son singulares o mal condicionados. En otras palabras, sirve para determinar la existencia y la unicidad de los resultados de los sistemas de ecuaciones lineales.

El determinante de una matriz es un nmero.

Un determinante con valor de cero indica que se tiene un sistema singular. Un determinante con valor cercano a cero indica que se tiene un sistema mal condicionado.

Un sistema singular es cuando en el sistema de ecuaciones se tiene a ms de una ecuacin con el mismo valor de la pendiente. Por ejemplo ecuaciones que representan lneas paralelas o ecuaciones que coinciden en los mismos puntos de graficacin.

En un sistema mal condicionado es difcil identificar el punto exacto en que las lneas de las ecuaciones se interceptan.

2.7 Propiedades de los determinantes. 1.- |At|= |A| El determinante de una matriz A y el de su traspuesta At son iguales.

2.-|A|=0 Si: Posee dos lneas iguales

Todos los elementos de una lnea son nulos.

Los elementos de una lnea son combinacin lineal de las otras.

3.-Un determinante triangular es igual al producto de los elementos de la diagonal principal

4.-Si en un determinante se cambian entre s dos lneas paralelas su determinante cambia de signo.

5.-Si a los elementos de una lnea se le suman los elementos de otra paralela multiplicados previamente por un n real el valor del determinante no vara.

6.-Si se multiplica un determinante por un nmero real, queda multiplicado por dicho nmero cualquier lnea, pero slo una.

7.-Si todos los elementos de una fila o columna estn formados por dos sumandos, dicho determinante se descompone en la suma de dos determinantes.

8.-|AB| =|A||B| El determinante de un producto es igual al producto de los determinantes. 2.8 Inversa de una matriz cuadrada a travs de la adjunta. Sea A una matriz de nxn. Entonces A es invertible si y solo si detA0. Si detA0, entonces

Si detA0, entonces se demuestra que (1/detA)(adjA) es la inversa de A multiplicndola por A y obteniendo la matriz identidad:

Si AB=I, entonces B=A-1. As, (1/detA)adjA=A-1

2.8 Inversa de una matriz cuadrada a travs de la adjunta. Sea A una matriz de nxn. Entonces A es invertible si y solo si detA0. Si detA0, entonces

Si detA0, entonces se demuestra que (1/detA)(adjA) es la inversa de A multiplicndola por A y obteniendo la matriz identidad:

Si AB=I, entonces B=A-1. As, (1/detA)adjA=A-1

4.1 Definicin de espacio vectorial. Sean K un cuerpo dado y V un conjunto no vacio, con reglas de suma y producto por escalar que asigna a cada par u, vV una suma u+vV y a cada par uV, kK un producto kuV. V recibe el nombre de espacio vectorial sobre K (y los elementos de V se llaman vectores) si satisfacen los siguientes axiomas.

[A1] para toda terna de vectores u, v, wV, (u+v)+w=u+(v+w).

[A2] existe un vector en V, denotado por 0 y denominado el vector cero, tal que u+0=u para todo vector uV. [A3] para todo vector uV existe un nico vector en V, denotado por u, tal que u+(-u)=0. [A4] para todo par de vectores u, vV, u+v=v+u. [M1] para todo escalar kK y todo par de vectores u, vV, k(u+v)=ku+kv. [M2] para todo par de escalares a, bK y todo vector uV, (a+b)u=au+bu. [M3] para todo par de escalares a, bK y todo vector uV, (ab)u=a(bu). [M4] el escalar unidad 1K cumple 1u=u para todo vector uV.

Los axiomas precedentes se desdoblan de forma natural en dos categoras. Los cuatro primeros ataen nicamente a la estructura aditiva de V y pueden resumirse diciendo que V es un grupo conmutativo bajo la suma. De ello se deriva que cualquier suma de vectores de la forma v1+v2++vm no requieren parntesis y no depende del orden de los sumandos, que el vector cero, 0, es nico, que el opuesto u de u es nico y que se verifica la ley de cancelacin; esto es, para tres vectores cualesquiera u, v, wV.

U+w=v+w implica u=v. Asimismo, la resta se define segn u-v=u+(-v).

Por otra parte, los cuatro axiomas restantes se refieren a la <<accin>> del cuerpo K sobre V. observece que la rotulacin de los axiomas refleja este desdoblamiento. Empleando estos axiomas adicionales probaremos las siguientes propiedades elementales de un espacio vectorial.

Teorema: sea V un espacio vectorial sobre un cuerpo K. Para todo escalar kK y 0V, k0-0. Para 0K y todo vector uV, 0u=0. Si ku=0, donde kK y uV, entonces k=0 o u=0. Para todo kK y todo uV, (-k)u=-ku.

4.2 Definicin de subespacio vectorial y sus propiedades. Sea W un subconjunto de un espacio vectorial V sobre un cuerpo K. W se denomina un subespacio de V si es a su vez un espacio vectorial sobre K con respecto a las operaciones de V, suma vectorial y producto por un escalar. Un criterio simple para identificar subespacios es el siguiente.

Teorema: supongamos que W es un subconjunto de un espacio vectorial V. entonces W es un subespacio de V si y solo si se cumple: 0W W es cerrado bajo la suma de vectores, es decir: para todo par de vectores u, vW, la suma u+vW. W es cerrado bajo el producto por un escalar, esto es: para todo uW y para todo kK el mltiplo kuW.

Corolario: W es un subespacio de V si y solo si: 0W. au+bvW para todos los u, vW y a, bK.

Ejemplo: sean U y W subespacios de un espacio vectorial V. probemos que la interseccin UW es tambin subespacio de V. claramente, 0U y 0W, porque U y W son subespacios, de donde 0UW. supongamos ahora que u, vUW. entonces u, vU y u, vE y, dado que U y W son subespacios, u+v, kuU y u+v, kuW para cualquier escalar k. as u+v, kuUW y por consiguiente UW es un subespacio de V. El resultado del ejemplo precedente se generaliza como sigue.

Teorema: la interseccin de cualquier nmero de subespacios de un espacio vectorial V es un subespacio de V.

Recurdese que toda solucin de un sistema de ecuaciones lineales con n incgnitas AX=B puede verse como un punto en Kn y por tanto el conjunto solucin de tal sistema es un subconjunto de

Kn. Supongamos que el sistema homogneo, es decir, supongamos que el sistema tiene la forma AX=0. Denotemos por W su conjunto solucin. Como A0=0, el vector cero 0W adems, si u y v pertenecen a W, esto es, si u y v son soluciones de AX=0, necesariamente Au=0 y Av=0. Por esta razn, para todo par de escalares a y b en K, tendremos A(au+bv)=aAu+bAv=a0+b0=0+0=0. De esta manera, au + bv es tambin una solucin de AX=0 o, dicho de otro modo, au+bvW. En consecuencia, segn el corolario, hemos demostrado:

Teorema: el conjunto solucin W de un sistema homogneo con n incgnitas AX=0 es un subespacio de kn.

Hacemos nfasis en que el conjunto solucin de un sistema inhomogneo AX=B no es subespacio de Kn. De hecho, el vector cero, 0, no pertenece a dicho conjunto solucin. 4.3 Combinacin lineal. Independencia lineal. COMBINACIN LINEAL

Sean v1, v2, , vn, vectores en un espacio vectorial V. entonces cualquier vector de la forma: a1v1+a2v2++anvn, donde a1,a2,,an son escalares se denomina una combinacin lineal de v1, v2,,vn.

Una combinacin lineal en M23

Conjunto generador.

Se dice que los vectores v1, v2, , vn de un espacio vectorial V generan a V si todo vector en V se puede escribir como una combinacin lineal de los mismo. Es decir, para todo vV, existen escalares a1, a2, , an tales que v=a1v1+a2v2++anvn

Cuatro vectores que generan a M22

Espacio generado por un conjunto de vectores.

Sean v, v2, , vk, k vectores de un espacio vectorial V. el espacio generado por ,v1, v2, , vk- es el conjunto de combinaciones lineales v1,

Teorema: si v1, v2, , vk son vectores en un espacio vectorial V, entonces gen,v1, v2, , vk- es un subespacio de V.

Ejemplo: el espacio generado por dos vectores en R3

Sea v1=(2,-1,4) y v2=(4,1,6). Entonces H=gen{v1, v2}={v:v=a1(2,-1,4)+a2(4,1,6)}. Cul es la apariencia de H? si v=(x, y,z)H, entonces tiene x=2a1+4a 2, y=-a1+a2 y z=4a 1+6 2. Si se piensa que (x, y, z) esta fijo, entonces estas ecuaciones se pueden ver como un sistema de tres ecuaciones con tres incognitas a1, a2. Este sistema se resuelve en la forma usual:

INDEPENDENCIA LINEAL En el estudio del algebra lineal, una de las ideas centrales es la de dependencia o independencia lineal de los vectores. En esta seccin se define el significado de independencia lineal y se muestra su relacin con la teora de sistemas homogneos de ecuaciones y determinantes.

En otras palabras, el vector cero se puede escribir como una combinacin no trivial de v1 y v2 (es decir, donde los coeficientes en la

combinacin lineal no son ambos cero). Qu tienen de especial los vectores ? La respuesta a esta pregunta es ms difcil a simple vista. Sin embargo, es sencillo verificar que v3=3v1+2v2; rescribiendo esto se obtiene.

4.4 Base y dimensin de un espacio vectorial, cambio de base. Se ha visto en R2 conviene escribir vectores como una combinacin lineal de los vectores

Puesto que los vectores e, son las columnas d una matriz identidad (que tiene determinante 1) ,es un conjunto linealmente independiente y, por lo tanto, constituye una base en Rn. Esta base especial se denomina base canonica en Rn. Ahora se encontraran bases para otros espacios. 4.5 Espacio vectorial con producto interno y sus propiedades. Un espacio vectorial complejo V se denomina espacio con producto interno si para cada par ordenado de vectores u y v en V, existe un numero complejo nico (u,v), denominado producto interno de u y v, tal que si u, v y w estn en V y C, entonces

La barra es las condiciones v) y vii) denota el conjugado complejo. Nota. Si (u,v) es real, entonces (u,v)=(u,v) y se puede eliminar la barra en v).

EJEMPLO: producto interno de dos vectores en C3 En C3 sean x=(1+i, -3, 4-3i) y y=(2-i, -i, 2+i). entonces

Sea V un espacio con producto interno y suponga que u y v estn en V. entonces

Nota 1. Aqu se usa la doble barra en lugar de una sola para evitar confusin con el valor absoluto. Por ejemplo sen t denota la norma de sen t como un vector en C*0, 2+ mientras que |sen t| denota el valor absoluto de la funcin sen t. Nota 2. La ecuacin anterior tiene sentido ya que (u, u)0. 4.6 Base ortonormal, proceso de ortonormalizacin de Gram-Schmidt. Conjunto ortonormal en Rn Se dice que un conjunto de vectores S=,u1, u2, , uk- en Rn es un conjunto ortonormal si (1) (2)

Si solo satisface la ecuacin (1), se dice que el conjunto es ortogonal. Si u, v y w en Rn y es un numero real, entonces (3) (4) (5) (6)(7)

Ahora se presenta otra definicin til Si vRn, entonces la longitud o norma de v, denotada por |v|, esta dada por (8)

Nota. Si (9)

entonces v*v=

Esto significa que

De esta forma se puede obtener la raz cuadrada en (8), y se tiene (10)(11)

TEOREMA: si S= es un conjunto ortogonal de vectores diferentes de cero, entonces S es linealmente independiente. Suponga que Entonces, para cualquier i=1,2,,k

Como v0 por hiptesis |v|2>0 y se dice que c=0. Esto es cierto para i=1,2,,k, lo que completa la prueba.

Proceso de ortonormalizacion de Gram-Schmidt Sea H un subespacio de dimensin m de Rn. Entonces H tiene una base ortonormal. Sea S= una base de H. se probara el teorema construyendo una base ortonormal a partir de vectores en S. antes de dar los pasios para esta construccion, se observa el hecho sencillo de que un conjunto de vectores linealmente independiente no contiene al vector cero.

You might also like