You are on page 1of 40

Vamos a resolver uno de los problemas pendientes ms importantes: la existencia y unia cidad de soluciones para una EDO de primer

orden. Sea el problema de valores iniciales y = f (x, y), y(x0 ) = y0 . (7.1)

En el apartado 2.7.1 de aproximaciones nmericas vimos algunos ejemplos donde la solucin u o o bien no era unica o bien no correspond con la solucin exacta. Vamos a dar aqu algunas a o condiciones bajo las cuales podemos garantizar que el PVI (7.1) tiene solucin unica. o Lo primero que asumiremos es que la funcin f (x, y) es continua en el rectngulo R o a denido por R = {(x, y) : |x x0| a, |y y0 | b}, a, b > 0. (7.2) Proposicin 7.1 El PVI (7.1) es equivalente a la siguiente ecuacin integral o o
x

y(x) = y0 +
x0

f (, y())d.

(7.3)

at

ww w.

Para la norma tenemos la desigualdad evidente u 0, y u = 0 si y slo si u(x) = 0 en o I. Adems, se tiene la desigualdad triangular a u+v u + v . Obviamente si u(x) es continua u < +. Proposicin 7.4 (Teorema de unicidad local de soluciones) o Sea f (x, y) una funcin de la clase de Lipschitz con constante K y sea d (0, 1/K). Si y 1 (x) o e y2 (x) son dos soluciones del PVI (7.1) denidas en Id = {x : |x x0| < d} tales que y1 (x0) = y2 (x0) = y0 , entonces y1 (x) = y2(x) en todo Id . Sea M = mx |f (x, y)|. a (x,y)R Como f es continua en R, M siempre est denida. a Sea y0 (x) una funcin continua denida en un entorno de x0 tal que la imagen de y0 (x) o est contenida en R. Vamos a denir una sucesin de funciones yn (x) de la siguiente forma e o
x

em

Denicin 7.3 Dada una funcin u(x) denida en un intervalo cerrado y acotado I R, o o deniremos la norma de u(x) a la cantidad u = sup |u(x)|.
xI

at

Es fcil comprobar que toda funcin f (x, y) de la clase de Lipschitz segn la denicin a o u o anterior es continua en y. Adems, una condicin suciente para que una funcin f (x, y) sea a o o de la clase de Lipschitz es que su derivada parcial f sea continua en R. y

ic

a1

|f (x, y) f (x, z)| K|y z|.

om

Denicin 7.2 Diremos que una funcin f (x, y) es de la clase de Lipschitz o lipschitziana o o (en la variable y) en R si existe cierta constante positiva K > 0 tal que para todos (x, y) R y (x, z) R se cumple

.c

(7.4)

(7.5)

yn+1 (x) = y0 +
x0

f (, yn ())d,

n = 0, 1, 2, . . . .

(7.6)

La sucesin anterior se conoce como sucesin de Picard. o o

Proposicin 7.5 Sea y0(x) una funcin continua denida en Id = {x : |x x0| < d = o o m n(a, b/M )} tal que su imagen est contenida en R. Entonces, para todo n 0, las imgenes e a de yn (x) estn contenidas en R. a Proposicin 7.6 (Teorema de existencia local de soluciones) o Sea y0 (x) una funcin continua denida en Id = {x : |x x0| < d = m o n(a, b/M, 1/K)} tal que su imagen est contenida en R, i.e., |y0 (x) y0 | b. Entonces, la sucesin de Picard e o (7.6) converge cuando n tiende a innito a una funcin y(x) que es solucin del PVI (7.1) o o en Id . Corolario 7.7 (Teorema local de existencia y unicidad) Sea el PVI (7.1) con f lipschitziana de constante K en R (7.2), y M = mx(x,y)R |f (x, y)|. a Entonces, el PVI (7.1) tiene solucin unica en el intervalo Id = {x : |x x0 | < d = o m n(a, b/M, 1/K)}, es decir existe una unica funcin y(x) tal que y (x) = f (x, y(x)) e o y(x0 ) = y0 . Los teoremas anteriores son slo condiciones sucientes. Por ejemplo si consideramos la o EDO lineal y = y sabemos que su solucin existe y es unica en todo R (es la exponencial) o sin embargo si escogemos x R cualquiera y tomamos b > 0 cualquiera tenemos f (x, y) = y, luego f es lipschitziana con constante K = 1, M = b, y el teorema anterior nos garantiza slo la solucin en el intervalo Id = {x : |x x0| < d = m o o n(a, b/b, 1/1) = 1}.

|f (x, y) f (x, z)| = y 2 z 2 = |y + z||y z|. Sea x R por ejemplo. Escojamos un valor cualquiera para y, digamos que |y| b > 0. n(a, b/M, 1/K) = m n(a, b/(1 + b2 ), 1/b). Entonces K = 2b y M = 1 + b2 , por tanto d = m 2 Ahora bien, mx b/(1 + b ) = 1/2 y se alcanza en b = 1, por lo que como mucho asegurar a que la solucin existe en el intervalo |x| < 1/2. Ntese que en este caso el teorema es util o o pues para x > 1/2 no nos garantiza la existencia de la solucin como ocurre en la prctica. o a El procedimiento anterior es fcilmente extensible a sistemas. Para ello basta denir una a norma en RN y el valor absoluto de un vector. Para este ultimo podemos usar la denicin o N |Y (x)| = k=1 |yk |. Si ahora usamos, por ejemplo, la norma

ww

w.

entonces las demostraciones anteriores se adaptan perfectamente para el caso general. Ntese o que con esta eleccin se tiene que si |Y (x)| M entonces Y N M . Las correspondientes o demostraciones se dejan como ejercicio.

7.1.

Problemas

Problema 7.8 Prueba las propiedades anteriores para la norma u . Problema 7.9 Sea la EDO y = x y 2 con y(0) = 0. Encuentra el intervalo donde se puede garantizar la existencia y unicidad de la solucin. Encuentra las tres primeras aproximacioo nes de la solucin. o

M at em at
N

=
k=1

ic

Como ultimo ejemplo veamos el caso de la EDO y = 1 + y 2 con y(0) = 0. En este caso la solucin es y = tan x denida slo en [0, /2). Como f (x, y) = 1 + y 2 , entonces o o

a1
yk ,

.c om

Problema 7.10 Prueba que la solucin de cada uno de los siguientes PVI existe en el o intervalo indicado 1. y = y 2 + cos x2 , y(0) = 0, x [0, 1/2] 2. y = y 3 + e5x , y(0) = 2/5, x [0, 3/10] 3. y = x + y 2 , y(0) = 0, x [0, 1/2] Problema 7.11 Encuentra las tres primeras iteraciones de la sucesin de Picard para el o PVI y = y 2 + ex , y(0) = 0. Problema 7.12 Encuentra las cuatro primeras iteraciones de la sucesin de Picard para el o 2 PVI y = 1 + y , y(0) = 0. Compralas con la solucin exacta. a o

ww

w.

at

em

at ic a1

.c o

8.

La transformada de Laplace

Denicin 8.1 Sea f una funcin denida en [0, ). La transformada de Laplace [f ] o o o F(t) es la transformada integral F(t) = [f ](t) =

etx f (x)dx,

(8.1)

donde la integral se entiende en el sentido impropio, o sea


0 z

etx f (x)dx = l m

etx f (x)dx.
0

Denicin 8.2 Diremos que una funcin f es de orden exponencial si existen dos constantes o o no negativas c y M tales que |f (x)| M ecx para todo x 0. Teorema 8.3 Si f es una funcin continua a trozos de orden exponencial entonces f tiene o transformada de Laplace para todo t sucientemente grande. En la siguiente tabla incluimos algunas de las transformadas de Laplace ms comunes incluida a la de la funcin escaln c (s) denida como 1 si x [0, c] y 0 en el resto. o o

f (x) c xn eax

F(t) = [f ](t)

at e

Tabla 5: Transformadas de Laplace de algunas funciones Proposicin 8.4 Si F(t) = [f ](t) entonces o 1. [f ](t) = t [f ](t)f (0) = tF(t)f (0) y en general [f (n) ](t) = tn F(t) 2. [eax f (x)](t) = F(t a)

ww

cos(ax)

senh(ax) cosh(ax) x1/2 c (x)

w.

sen(ax)

m at

1 , t>a ta a 2 + a2 t t 2 + a2 t a , t>a t2 a 2 t , t>a 2 a2 t , t>0 t ect , t>0 t

ic
tn+1

a1
c t n!

.c om

n1 k (nk1) (0) k=0 t f

4. [c (x)f (x c)] = ect F(t). 5. Deniremos la convolucin de dos funciones f y g como la funcin h(x) = (f g)(x) o o denida por
x

(f g)(x) =

Entonces, [(f g)(x)](t) = [f (x)](t) [g(x)](t).

8.1.

Problemas

Problema 8.5 Calcula las transformadas de Laplace de las funciones de la tabla 8. Problema 8.6 Calcula las transformadas de Laplace de las funciones x cos(x) y x sen(x). Usando lo anterior encuentra la transformada de las funciones t2 , (t2 + 2 )2 (t2 1 + 2 )2

3. y + y = xex , y(0) = y (0) = 0, 4. y + 2y + 5y = 3ex sen x, y(0) = 0, y (0) = 1, 5. y + 2y + y = [1 /2 (x)] sen(2x), y(0) = 1, y (0) = 0, 6. y + 3y + 2y = /2 (x)e3x, y(0) = 1, y (0) = 1. Resuelve los mismos problemas usando las tcnicas aprendidas en el cap e tulo 4. Problema 8.9 La EDO xy + y + xy = 0, se conoce como ecuacin de Bessel de orden 0. o Prueba que si Y(t) es la transformada de Laplace de la solucin de esta EDO con y(0) = 1, o prueba que entonces Y satisface la EDO (t2 + 1)Y (t) + tY(t) = 0. Prueba que la solucin de la EDO anterior se puede expresar en serie como o Y(t) = c
n=0

ww w.

2. y 4y + 4y = 0, y(0) = 0, y (0) = 1,

at

1. y 5y + 4y = 0, y(0) = 1, y (0) = 0,

A partir de lo anterior deduce la funcin y(x) solucin de la EDO de Bessel. o o

em

Problema 8.8 Usa la transformada de Laplace para resolver las EDOs

at

(1)n (2n)! 1 . 22n(n!)2 t2n+1

ic

y + 2 y = f0 sen(x),

a1

Problema 8.7 Usando los resultados del problema anterior encuentra, usando la transformada de Laplace la solucin de la EDO o y(0) = y (0) = 0.

.c o

3. [xf (x)](t) = F (t) y en general,

[xnf (x)](t) = (1)n F(n) (t).

f (x z)g(z)dz.

(8.2)

Problema 8.10 Usar la transformada de Laplace para resolver los siguientes PVI de SEDO: Y = Y = Y = 1 3 2 2 Y + Y + Y, 1 1 ex , , Y (0) = 0 5 , 2 1 , 0 0 .

1 4 1 1

Y (0) =

Resuelve los mismos problemas usando las tcnicas aprendidas en el cap e tulo 3.

3 2 2 2

1 (x) 0

Y (0) =

ww w.

M at em

at ic

a1

.c om

A.

Anexo: Clculo de primitivas a

Denicin A.1 Se dice que una funcin F (x) es una primitiva de otra funcin f (x) sobre un o o o intervalo (a, b) si para todo x de (a, b) se tiene que F (x) = f (x). Por ejemplo, la funcin F (x) = x2 es una primitiva de f (x) = 2x en todo R pues (x2 ) = 2x. o El siguiente teorema es una consecuencia trivial del teorema del valor medio de Lagrange. Teorema A.2 Sean F1 (x) y F2 (x) dos primitivas de la funcin f (x) en (a, b). Entonces, para todo o x de (a, b), F1 (x) F2 (x) = const. Es decir dada una funcin f (x) sus primitivas dieren en una o constante (en adelante denotaremos por C a una constante cualquiera). Denicin A.3 El conjunto de todas las primitivas de una funcin f (x) denida en (a, b) se o o denomina integral indenida de f (x) y se denota por primitiva de f (x), f (x) dx = F (x) + C Mediante una simple derivacin es sencillo comprobar el siguiente o (A.1) f (x) dx. De manera que, si F (x) es una

2. 3. 4.

dF (x) = F (x) + C [f (x) g(x)] dx = [A f (x)] dx = A f (x) dx

Teorema A.5 Tabla de Integrales 1. 2. 3. 4. 5. 6. 7. 8. 0 dx = C 1 dx = x + C x dx = x+1 + C, +1 R, = 1

1 dx = log |x| + C x ax dx = ax + C, log a a > 0, a = 1

sen x dx = cos x + C cos x dx = sen x + C 1 dx = tan x + C cos2 x

ww w.

f (x) dx

at e

g(x) dx

at ic a1

1.

d dx

f (x) dx = f (x)

.c

om

Teorema A.4 (Propiedades de la integral indenida.)

9. 10. 11. 12. 13. 14. 15. 16. 17.

1 dx = cotan x + C sen2 x 1 dx = 1 x2 1 dx = 1 + x2 arc sen x + C arc cos x + C arctan x + C arcctg x + C x2 1 + C

1 dx = log x + 21 x

1 1 x+1 dx = log +C 1 x2 2 x1 sinh x dx = cosh x + C cosh x dx = sinh x + C 1 dx = tanh x + C cosh2 x

Entonces sobre todo el conjunto (a, b) la funcin g[(x)] (x) tiene una primitiva y adems o a g[(x)] (x) dx = G[(x)] + C. Demostracin: Basta notar que (G[(x)]) = G [(x)] (x) = g[(x)] (x). o Ejemplo A.7 a) Calcular cos(2x) dx. Como la integral no es de la tabla es necesario convertirla en una de la

tabla. Para ello hacemos: cos(2x) dx = b) Calcular la tabla: ecos x sen x dx = t = cos x dt = sen dx = ey dy = ey + C = ecos x + C y = 2x dy = 2 dx = cos(y) 1 1 dy = sen y + C = sen(2x) + C 2 2 2

ecos x sen x dx. Como la integral no es de la tabla es necesario convertirla en una de

ww w.

at

Teorema A.6 Sea t = (x) una funcin derivable en x y sean X = (a, b) el dominio y T = [(a, b)] o la imagen de (x). Supongamos que sobre el conjunto T existe la primitiva de la funcin g(t), o o sea,

em

g(t)dt = G(t) + C.

at

A.1.1.

Integracin por cambio de variable. o

ic

A.1.

Mtodos de integracin. e o

a1

.c o

1 dx = coth x + C sinh2 x

A.1.2.

Integracin por partes. o

Supongamos que las funciones u(x) y v(x) son derivables en un intervalo (a, b) y existe la primitiva de la funcin v(x)u (x) en (a, b). Entonces, sobre (a, b) existe la primitiva de u(x)v (x) y o se cumple que u(x)v (x) dx = u(x)v(x) o en forma diferencial u(x)dv(x) = u(x)v(x) v(x)du(x). (A.3) v(x)u (x) dx, (A.2)

Demostracin: Para probarlo es suciente notar que [u(x)v(x)] = u (x)v(x) + u(x)v (x) y la o propiedad 1 del teorema A.4. Ejemplo A.8 a) Calcular xn log x dx. Como la integral no es de la tabla es necesario convertirla en una de la
1 u(x) = log x, du(x) = x dx n+1 dv(x) = xn dx, v(x) = x n+1

tabla. Utilicemos la integracin por partes: o xn log x dx = xn+1 n+1 = xn+1 log x n+1 xn dx = n+1

at ic

de la tabla. Utilicemos la integracin por partes: o I= eax cos bx dx =

a1

b) Calcular I =

eax cos bx dx. Como la integral no es de la tabla es necesario convertirla en una u(x) = eax , du(x) = aeax dx dv(x) = cos bx dx, v(x) = 1 sen bx b eax sen bx a b b

.c om

log x

1 n+1

+C

eax sen bx dx.

La integral

eax sen bx dx es de la misma forma que la original as que volveremos a aplicar u(x) = eax , du(x) = aeax dx dv(x) = sen bx dx, u(x) = 1 cos bx b eax cos bx a + b b

integracin por partes: o eax sen bx dx =

at em

Juntando las dos frmulas anteriores concluimos que o I=

eax sen bx a2 a + 2 eax cos bx 2 I, b b b de donde, resolviendo la ecuacin respecto a I obtenemos: o b sen bx + a cos bx ax I = eax cos bx dx = e + C. a2 + b 2 Algunas de las integrales que pueden ser calculadas utilizando la integracin por partes son: o 1. Las integrales donde aparezcan las funciones log x, arc sen x, arc cos x, log (x), potencias enteras de las funciones anteriores, entre otras donde tendremos que escoger como funcin o u(x) a alguna de las funciones anteriores (ver ejemplo a). Las integrales (ax + b)n sen cx dx, (ax + b)n cos cx dx y (ax + b)n ecx dx. Donde para

2.

encontrar las primitivas hay que utilizar la frmula de integracin por partes n veces tomando o o cada vez u(x) = (ax + b)n , u(x) = (ax + b)n1 , ...., respectivamente. 3. Las integrales de la forma eax sen bx dx, eax cos bx dx, sen(log x) dx y cos(log x) dx.

Para encontrar las primitivas hay que denotar por I a cualquiera de las integrales anteriores, aplicar dos veces integracin por partes y resolver la ecuacin resultante respecto a I (ver o o ejemplo b).

ww w.

eax cos bx dx.

A.2.

Integracin de funciones racionales. o

Pn (x) es simple si el grado del poliQm (x) nomio Pn (x) es menor que el del polinomio Qm (x), o sea, si n < m. Denicin A.9 Diremos que una funcin racional f (x) = o o Si n > m entonces podemos dividir los polinomios Pn (x) y Qm (x) de tal forma que Pn (x) Rk (x) = pnm (x) + , Qm (x) Qm (x) Teorema A.10 Supongamos que donde k < m.

Pn (x) es una fraccin simple, y que el polinomio denominador o Qm (x) se puede factorizar de la siguiente forma Qn (x) = (x x1 )n1 (x xp )np (x2 + p1 x + q1 )m1 (x2 + pk x + qk )mk , (A.4)

donde x1 , ..., xp son las races reales de Qm (x), y los factores x2 + pi x + qi , i = 1, .., k no tienen Pn (x) races reales. Entonces, la fraccin simple o se puede descomponer en las siguientes fracciones Qm (x) elementales simples: Pn (x) = Qm (x) An1 1 A1 A n1 + + + ++ n1 n1 1 (x x1 ) (x x1 ) (x x1 ) + Bn p Bnp 1 B1 + + + + + (x xp )np (x xp )np 1 (x xp )

ic

a1

.c o

(A.5)

(x2

Para determinar dichas constantes sumamos los trminos de la derecha. Ntese que el denominador e o com n coincide con (A.4) y el numerador es un polinomio de grado a lo sumo n. Luego comparamos u el polinomio numerador que se obtiene al sumar las fracciones ms simples en (A.5) con P n (x). a Igualando los coecientes de ambos obtendremos un sistema de n ecuaciones con n incgnitas o que podemos resolver para encontrar los coecientes indeterminados A i , Bi , Mi , Ni , Li y Ki . No obstante es posible encontrar el coeciente Ani de los sumandos correspondientes a uno de los ceros reales xi , o sea, el Ani de Ani 1 A1 A ni + + + , (x xi )ni (x xi )ni 1 (x xi ) utilizando la propiedad que
xxi

ww

w.

donde Ai , Bi , Mi , Ni , Li y Ki son ciertas constantes reales.

at
l m

L mk x + K mk L1 x + K 1 , + + 2 mk + pk x + q k ) (x + pk x + qk )

em

M1 x + N 1 Mm x + N m1 + + 2 + + + 2 1 m1 (x + p1 x + q1 ) (x + p1 x + q1 )

Pn (x)(x xi )ni = A ni . Qm (x)

at

(A.6)

Como consecuencia de lo anterior, si Qm (x) tiene m ceros reales y simples, o sea, si su factorizacin o es de la forma Qn (x) = (x x1 )(x x2 ) (x xm1 )(x xm ), (A.7) entonces, Pn (x) se puede descomponer en las fracciones elementales simples: Qm (x) Pn (x) A1 A2 Am1 Am = + + + + , Qm (x) (x x1 ) (x x2 ) (x xm1 ) (x xm )

(A.8)

donde A1 ,..., Am se calculan por la frmula o Ak = l m


xxk

Pn (x)(x xk ) , Qm (x)

k = 1, 2, ..., m.
7

(A.9)

Teorema A.11 (Primitivas de las fracciones simples ms elementales) a 1) 2) A dx = A log |x a| + C; xa 1 B B dx = + C, k (x a) 1 k (x a)k1 k > 1;

(A.10)

3)

M 2N M p Mx + N 2x + p dx = log |x2 + px + q| + arctan + C. 2 x2 + px + q 2 4q p 4q p2 x dx. Primero encontraremos las fracciones simples mas elementales: 3x + 2 x2 x A B x = + . = (x 1)(x 2) x1 x2 3x + 2

Ejemplo A.12 a) Calcular x2

x1

at ic

A = l m

x(x 1) = 1, (x 1)(x 2)

B = l m

Finalmente, utilizando (A.10) obtenemos x dx = x2 3x + 2 a) Calcular x (x (x 1)2 (x2 x 1)2 (x2 + 1) + 1)

dx. Primero encontraremos las fracciones simples mas elementales: =

ww

Para encontrar los coecientes A, B, C, D igualamos los polinomios de los numeradores: x = A(x2 + 1) + B(x2 + 1)(x 1) + (Cx + D)(x 1)2 . Dos polinomios de grado 3 son iguales si los coecientes de las potencias x 3 , x2 , x y x0 son iguales, por lo que igualando dichos coecientes obtenemos el sistema de ecuaciones: x3 x2 x1 x0 : B+C =0 : A B 2C + D = 0 : B + C 2D = 1 : AB +D = 0
1 A= 2 B=0 C=0 D = 1 2

w.

B A Cx + D + + 2 2 (x 1) x1 x +1

A(x2 + 1) + B(x2 + 1)(x 1) + (Cx + D)(x 1)2 . (x 1)2 (x2 + 1)

at

1 2 + x1 x2

em

dx = log |x 1| + 2 log |x 2| + C.

cuya solucin es o

Tambin es posible utilizar otra propiedad de los polinomios: dos polinomios de grado n que toman e n 1 valores iguales en n + 1 puntos dados son idnticamente iguales, es decir, si P n (xk ) = Qn (xk ) e para ciertos x1 , ..., xn+1 (distintos entre si), entonces Pn (x) Qn (x) para todo x R. En nuestro
7

Se supone que x2 + px + q no tiene ra reales. ces

a1
x2

.c
x(x 2) = 2. (x 1)(x 2)

Luego, utilizando (A.9) obtenemos

om

ejemplo es conveniente tomar como los xk los ceros de los polinomios denominadores y luego el resto de los valores tomarlos los ms sencillos posibles: a x=1: A= 1 2 x = 1 : 2A 4B 4C + 4D = 1 x=2: 5A + 5B + 2C + D = 2 x=0: AB +D = 0
1 A= 2 B=0 C=0 1 D = 2

cuya solucin es o

que coincide con la encontrada por el mtodo anterior. Luego, e x 1 dx = (x 1)2 (x2 + 1) 2 1 1 1 1 dx = arctan x + C. (x 1)2 x2 + 1 2(x 1) 2

A.3.

Integrales trigonomtricas. e
f (sen x, cos x) dx las cuales se

En este apartado vamos a estudiar las integrales de la forma t = tan x 2 sen x =

convierten en integrales racionales mediante la sustitucin trigonomtrica t = tan x , o e 2 2dt 1 + t2 1 t2 cos x = 1 + t2 dx = 2t 1 t2 , 1 + t2 1 + t2 2 dt, 1 + t2

f (sen x, cos x) dx =

Calcular la integral dx = sen x

Existen varios tipos de integrales trigonomtricas que se pueden racionalizar con cambios ms e a sencillos. Ellas son las siguientes: 1. 2. 3. f (sen x, cos x) dx, donde f ( sen x, cos x) = f (sen x, cos x), cambio t = cos x f (sen x, cos x) dx, donde f (sen x, cos x) = f (sen x, cos x), cambio t = sen x f (sen x, cos x) dx, donde f ( sen x, cos x) = f (sen x, cos x), cambio t = tan x

Ejemplo A.14 a) Calcular la integral dx = sen x dx . Esta integral es del tipo 1. Luego, sen x = dt 1 1+t x = log +C = log tan +C. 1 t2 2 1t 2
x 2

dt t = cos x dx = 1t2 sen x = 1 t2 cos x = t

que coincide con el resultado obtenido al utilizar la sustitucin t = tan o

ww

w.

t = tan x 2 2t sen x = 1+t2

2dt dx = 1+t2 2 cos x = 1t2 1+t

at

em

dx . sen x

at
= x dt = log |t| + C = log tan + C. t 2

Ejemplo A.13

ic

a1

que es un integral de una funcin racional. o

.c om

2t 1 + t2

b) Calcular la integral

cos3 x dx. Esta integral es del tipo 2. Luego, 1 sen3 x 1 t2 dt = t t3 +C = sen x +C. 3 3

cos3 x dx =

dt t = sen x dx = 1t2 cos x = 1 t2 sen x = t

c) Calcular la integral

tan3 x dx. Esta integral es del tipo 3. Luego, t = tan x 1 cos x = 1+t2
dt dx = 1+t2 t sen x = 1+t2

tan3 x dx =

t3 dt = 1 + t2

t dt = 1 + t2

t2 1 tan2 x 1 tan2 x log(1 + t2 ) + C = log(1 + tan2 x) + C = + log | cos x| + C. 2 2 2 2 2

A.4.
y f x,

Integrales irracionales.
n

En este apartado vamos a estudiar las integrales de la forma


ax+b cx+d

dx.

f (x, x2 a2 ) dx,

f (x, a2 x2 ) dx

Estas integrales irracionales se convierten en integrales trigonomtricas mediante los cambios: e 1. 2. 3. f (x, f (x, f (x, a2 x2 ) dx, cambio x = a sen t x2 a2 ) dx, cambio x = a sen t

x2 + a2 ) dx, cambio x = a tan t

a) Calcular la integral

a2 x2 dx. Esta integral es del tipo 1. Luego, x = a sen t dx = a cos tdt = a2


2x a2

ww

Ejemplo A.15

w.

at

em

at
cos2 tdt = a2 a2 t+ sen 2t + C, 2 4 a2 x2 , por tanto a2 x2 + C.

a2 x2 dx =

pero, sen 2t = 2sent cos t = 2 sen t 1 sen2 t = a2 x2 dx = b) Calcular la integral x=

a2 x x arc sen + 2 a 2

x2 a2 dx. Esta integral es del tipo 2. Luego, cos2 t dt = sen3 t y = cos t sen t = 1 y2 dt = dy cos t = y + C,
1y 2

= a2

a sen t x2 a2 dx = = a2 dx = a cos t dt sen2 t y2 a2 dt = 2 )2 (1y 4

1 1 1 1 a2 2y y1 + dt = +log 2 2 (1y) (1y) (1+y) (1+y) 4 1y 2 y+1

ic

a1

.c

om

A.4.1.

Las integrales

f (x, x2 a2) dx y

f (x, a2 x2) dx.

pero, y = cos t = x2 a2 dx

1 sen2 t = x2 a2

x2 a2 , x

por tanto x 2 a2 a2 log x + 2 x2 a2 +C.

x = 2

a2 x x x 2 a2 log +C = 2 a2 4 2 x+ x

c) Calcular la integral

x2 + a2 dx. Esta integral es del tipo 3. Luego, x = a tan t dt dx = cos2 t 1 dt = cos3 t y = sen t cos t = 1 y2 dt = dy sen t = y + C,

x2

+ a2 dx

=a

1y 2

= a2

1 a2 dt = (1 y 2 )2 4
tan t 1+tan2 t

1 2y 1 1 1 a2 y+1 + + + dt = + log 2 2 2 (1y) (1y) (1+y) (1+y) 4 1y y1 =


x , x2 +a2

pero, y = sen t =

por tanto x 2 + a2 + a2 log x + 2 x2 + a2 +C.

x x2 + a2 dx = 2

a2 x x + x 2 + a2 x2 + a2 + log +C = 2 + a2 4 2 x x

Las integrales del tipo f se racionalizan mediante el cambio t = Ejemplo A.16 Calcular la integral
n

x,

dx . Esta integral se racionaliza con el cambio t = 3 x + 1. Luego, 1+ 3 x+1 dx t2 d t dt 3 t= 3x+1 =3 = = 3 (t1)dt+3 = t(t2)+3 log(1+t)+C, 2 dt 3 dx = 3t 1+t t+1 2 1+ x+1 de donde, deshaciendo el cambio t = 3 x + 1, obtenemos 3 3 x + 1( 3 x + 1 2) + 3 log(1 + 3 x + 1) + C. 2 El clculo de primitivas es necesario para calcular integrales denidas de funciones continuas. a

Teorema A.17 Teorema fundamental del clculo y Frmula de Newton-Leibniz. Sea f : [a, b] R a o continua en [a, b]. Entonces f tiene primitiva en [a, b] y una de ellas es la funcin o
x

ww w.

at em

ax+b cx+d .

F (x) =
c

f (t) dt,

at ic

ax + b cx + d

a1
dx, c (a, b).

.c om

A.4.2.

Las integrales

x,

ax + b cx + d

dx.

(A.11)

Adems, f (x) es integrable en [a, b] y a


b b

f (x) dx = (x)
a a

= (b) (a),

(A.12)

siendo (x) una primitiva cualquiera de f (x).

B.
B.1.

Anexo: Algebra lineal


Sistemas lineales y matrices.

Diremos que un sistema de n ecuaciones y m incgnitas es un sistema lineal si dicho sistema o tiene la forma: a11 x1 + a12 x2 + a13 x3 + + a1m xm = b1 a21 x1 + a22 x2 + a23 x3 + + a2m xm = b2 (B.1) . . . an1 x1 + an2 x2 + an3 x3 + + anm xm = bn Una matriz de dimensiones nm no es ms que una caja rectangular con n las y m columnas. a El sistema de ecuaciones (B.1) est completamente caracterizado por su matriz asociada que no a es ms que la matriz en cuya la i (i = 1, 2, ..., n) estn colocados los coecientes a ij (j = 1, 2, ..., m) a a y el trmino independiente bi correspondientes a la i-sima ecuacin del sistema (B.1). De esta forma e e o la matriz asociada al sistema (B.1) tendr la forma a a11 a12 a13 a1m b1 a21 a22 a23 a2m b2 (B.2) . . . , . . .. . . . . . . . . . . . y se denomina matriz ampliada del sistema. A a11 a12 a21 a22 . . . . . . an1 an2 la matriz

a1

at ic

se le denomina matriz de coecientes del sistema.

Un sistema lineal de la forma (B.1) es compatible si existen los valores de x 1 , x2 , ..., xm tales que se cumplan todas y cada una de las ecuaciones del sistema (B.1). Si existen dichos valores diremos que el sistema tiene solucin. Si un sistema lineal de la forma (B.1) no tiene solucin decimos que es o o un sistema incompatible. Un sistema compatible que tiene una unica solucin se llama determinado o y si tiene innitas soluciones indeterminado. Dos sistemas de ecuaciones se denominan equivalentes si tienen el mismo conjunto de soluciones. Un sistema de ecuaciones lineales se puede transformar en otro sistema equivalente mediante las siguientes operaciones elementales: 1. 2. 3. Intercambiar dos ecuaciones. Multiplicar por una constante no nula una ecuacin cualquiera. o Reemplazar una ecuacin por la suma de sta mas un m ltiplo de cualquier otra ecuacin. o e u o

Dada la equivalencia de los sistemas lineales con sus matrices asociadas (las matrices ampliadas) las operaciones anteriores tienen su anlogo al operar con las matrices. De forma que a cada una a le corresponden las siguientes operaciones por las 1. 2. Intercambiar dos las. Multiplicar por una constante no nula una la cualquiera.

ww

w.

M at

a13 a1m a23 a2m . . .. . . . . . an3 anm

.c o

an1 an2 an3 anm bn

(B.3)

em

3.

Reemplazar una la por la suma de sta mas un m ltiplo de cualquier otra la. e u

Las operaciones anteriores se denominan operaciones elementales de las. Diremos que dos matrices son equivalentes por las si a cualquiera de ellas la podemos transformar en la otra utilizando slo operaciones elementales de las. Es importante recordar que las o operaciones elementales de las son reversibles y por tanto las operaciones elementales descritas no cambian la solucin del sistema original de ecuaciones. o

B.2.

Formas escalonadas y el algoritmo de reduccin por las. o

En adelante diremos que una la es una la no nula si tiene al menos un elemento diferente de cero. Deniremos elemento gu de una la al primer elemento (por la izquierda) no nulo de la la. a Diremos que una matriz est en forma escalonada si: a 1. 2. 3. Todas las las no nulas estn por encima de las nulas. a El elemento gua de cada la se encuentra siempre en una columna a la derecha del elemento gu de la la anterior. a Debajo de cada elemento gu slo puede haber ceros. a o t picamente la forma: , 0 0 0 0 0 0 0

denota a los elementos gu de cada la. Si exigimos ahora que los elementos gu as as donde sean todos iguales a 1, y que adems sean los unicos elementos diferentes de cero de la columna a entonces diremos que la matriz escalonada est en forma reducida. Utilizando las formas escalonadas a anteriores (B.4) tenemos que sus correspondientes formas reducidas son: 1 0 0 0 1 0 0 0 0 0 1 0 0 0 1 0 0 0 0 0 0 0 1 0 , 0 0 1 0 0 . (B.5) 0 0 0 0 0 1 0 0 0 1 0 0 0 0 0 0 0 0 0 0 0 0 1 Cualquier matriz puede ser transformada mediante transformaciones elementales de la en una matriz con forma escalonada no teniendo siempre sta ultima una forma unica. Por el contrario las e formas escalonadas reducidas son unicas, es decir se cumple el siguiente teorema: Teorema B.1 Cualquier matriz es equivalente por las a una unica matriz con forma escalonada reducida.

Una consecuencia del teorema anterior es que los elementos gu estn siempre en la misma as a posicin en cualquiera de las formas escalonadas obtenidas de una matriz dada mediante transo formaciones elementales de la. Dichas posiciones se denominan pivotes y las columnas donde se

ww w.

at e

Las matrices escalonadas tienen 0 0 0 0 0 0 0 0 0 0

.c

om

at ic a1
0 0 0 0 0 0 0

0 0

(B.4)

encuentran se denominan columnas pivotes. As por ejemplo , pivote 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 columnas pivote Algoritmo de reduccin por las. o El algoritmo de reduccin por las consta de dos fases (partes). La primera consiste en transo formar una matriz cualquiera en una equivalente por las con forma escalonada. Esta fase se le denomina fase hacia abajo o subproceso hacia abajo. La segunda parte consiste en transformar la forma escalonada en la forma reducida. A la segunda parte se le denomina fase hacia arriba o subproceso hacia arriba. Para obtener la matriz en forma escalonada realizamos lo siguiente: Subproceso hacia abajo. Este proceso consta de cuatro pasos: 1. 2. 3. 4. Se comienza por la primera columna de la izquierda (generalmente es una columna pivote) y se selecciona un elemento diferente de cero. Este ser el primer pivote. a Se coloca el elemento seleccionado en el extremo superior izquierdo intercambiando, si es preciso, las las de la matriz hasta que dicho elemento se encuentre en la posicin de pivote. o Utilizando las operaciones elementales de las crear ceros debajo del pivote. Tapamos la la (o las si hay ms de una) con la posicin pivote creada en los pasos antea o riores (1-3) y aplicamos los pasos 1-3 a la submatriz que nos queda (constituida por las las restantes). Este paso se repite hasta que no queden ms las no nulas. a

(B.6)

Para obtener la matriz en forma escalonada reducida a partir de la forma reducida obtenida mediante los pasos 1-4 debemos realizar lo siguiente: Subproceso hacia arriba. Este proceso consta del siguiente paso: 5. Comenzando por el primer pivote de la derecha creamos, mediante operaciones elementales de las, ceros encima del mismo. Si el pivote no es uno dividimos por su valor para que lo sea. Continuamos el proceso hacia la izquierda hasta terminar con el primer pivote de la izquierda.

B.3.

Solucin de un sistema de ecuaciones lineales. o

La solucin de un sistema de ecuaciones lineales la podemos encontrar a partir de la matriz o asociada al sistema. Para ello primero transformamos la matriz en una equivalente por las que tenga forma escalonada o escalonada reducida. Las variables correspondientes a las columnas pivote se denominan variables principales o bsicas. El resto de las variables se denominan variables libres. a El signicado de una variable libre es que dicha variable puede tomar cualquier valor. La solucin o de un sistema viene dada al escribir el valor de las variables principales, las cuales pueden venir expresadas en funcin de las variables libres. o

ww

w.

at em

at ic

a1

.c om

Por ejemplo, consideremos la matriz del sistema (B.6). Dicha matriz representa un sistema de 5 ecuaciones con 6 incgnitas. Las variables principales sern x 1 , x2 , x5 , x6 y las libres x3 , x4 . De o a la forma de la matriz observamos que x5 , x6 estn completamente determinados por los trminos a e independientes (recordar que la ultima columna est compuesta por los trminos independientes a e de las ecuaciones) pero x1 , x2 dependen tanto de los trminos independiente como de las variables e libres x3 , x4 . Es decir jando diferentes valores de x3 , x4 obtenemos diferentes valores de x1 , x2 . Por ejemplo, el sistema (x1 depende de la variable libre x3 ) 1 0 5 1 x1 = 1 + 5x3 0 1 0 4 tiene la solucin x2 = 4 (B.7) o x3 es libre 0 0 0 0 De todo lo anterior deducimos el siguiente teorema de existencia y unicidad: Teorema B.2 Un sistema de ecuaciones lineales en compatible si y slo si la primera columna de o la derecha de la matriz ampliada del sistema no es una columna pivote, o sea, no existe ninguna la de la forma (0 0 0 0 ) con diferente de cero. Si el sistema es compatible entonces tiene solucin unica (sistema compatible determinado) si no hay ninguna variable libre y tiene innitas o soluciones (sistema compatible indeterminado) si existe al menos una variable libre. Por ejemplo, los sistemas correspondientes a las dos matrices (B.4) son compatibles siendo el correspondiente a la primera matriz indeterminado (tiene dos variables libres) y el segundo determinado (no tiene variables libres). Por el contrario el sistema correspondiente a la matriz 0 0 0 0 0 , (B.8) 0 0 0 0 0 0 0 0 0 0 0 0 0

B.4.1.

Vectores de Rn

Llamaremos vector nulo 0 al vector cuyas componentes son todas iguales a cero.

es decir un vector es una matriz de componentes) del vector x. Diremos iguales, o sea x1 x2 x=y . . .

Un vector de Rn no es ms que un conjunto de n n meros ordenados de la forma a u x1 x2 x = . , donde x1 , ..., xn son n meros reales. u . . xn

ww

B.4.

Vectores y ecuaciones matriciales.

w.

es incompatible al ser la ultima columna una columna pivote, o lo que es igual, al tener la la a o (0 0 0 0 ) (recordar que denotaba al elemento gu que por denicin es diferente de cero).

at e

n 1. Los valores x1 , ..., xn se denominan coordenadas (o que dos vectores son iguales si todas sus componentes son y1 y2 . . . yn

xn

at ic

a1

.c

om

x1 = y1 , ..., xn = yn .

B.4.2.

Operaciones con vectores.

Dichas operaciones cumplen las propiedades 1. 2. 3. 4. 5. 6. 7. 8. x+y = y+x

y deniremos la multiplicacin de un vector x por un escalar (n mero) al vector w cuyas como u ponentes se obtienen al multiplicar las componentes de x por , o sea, w1 x1 w2 x2 w = x = . = . . . . . . wn xn

Sean x, y, z, w vectores de Rn y , n meros reales. Deniremos la suma de dos vectores u x e y al vector z de Rn cuyas coordenadas son la suma de las coordenadas de x e y, o sea, z1 x1 y1 x1 + y1 z2 x 2 y 2 x 2 + y 2 z = x+y = . = . + . = , . . . . . . . . . zn xn yn xn + yn

x + (x) = (x) + x = 0 donde (x) denota al vector (1) x

o Diremos que un vector x de Rm es combinacin lineal de los vectores a1 , a2 , ..., an de Rm con pesos 1 , ..., n , n meros reales, respectivamente si x se expresa de la forma u

ww

Deniremos espacio generado por los vectores a1 , a2 , ..., an de Rm y lo denotaremos como span (a1 , ..., an ) = L(a1 , ..., an ) al subespacio de Rm constituido por todos las combinaciones lineales de los vectores a1 , a2 , ..., an , es decir, al conjunto de todos los vectores de la forma L(a1 , ..., an ) = span (a1 , ..., an ) = 1 a1 + 2 a2 + + n an , quienes quiera sean 1 , ..., n n meros reales. u Deniremos una ecuacin vectorial a la ecuacin de la forma o o x1 a1 + x2 a2 + + xn an = b, donde b es un vector dado de Rm y x1 , x2 , ..., xn son las incgnitas que se quieren encontrar. Es fcil o a comprobar que la ecuacin vectorial anterior tiene la misma solucin que el sistema de ecuaciones o o lineales cuya matriz ampliada tiene la forma [a1 a2 an b]. Adems b est en span (a1 , ..., an ) si y slo si el sistema [a1 a2 an b] es compatible. a a o

w.

1x = x

x = 1 a1 + 2 a2 + + n an .

at

(x) = ()x

em

( + )x = x + x

at

(x + y) = x + y

ic a1

x+0 = 0+x = x

.c

om

(x + y) + z = x + (y + z)

B.4.3.

La ecuacin Ax = b. o

Teorema B.3 Sea A una matriz mn con columnas a1 , a2 , ..., an y b un vector de Rm . La ecuacin o matricial Ax = b tiene la misma solucin que la ecuacin vectorial o o x1 a1 + x2 a2 + + xn an = b, la cual a su vez tiene la misma solucin que el sistema cuya matriz ampliada tiene la forma o [a1 a2 an b].

Sea A una matriz m n con columnas a1 , a2 , ..., an (vectores de Rm ) y x un vector de Rn . Deniremos la multiplicacin de una matriz A de m n por un vector x de R n al vector z de Rm o denido por x1 x2 z = Ax = [a1 a2 an ] . = x1 a1 + x2 a2 + + xn an . . . xn

Teorema B.5 Sea A una matriz m n con columnas a1 , a2 , ..., an , x, y vectores de Rn y un nmero real cualquiera. Las siguientes propiedades son vlidas: u a 1) A (x + y) = A x + A y, 2) A( x) = (A x)

Regla para el clculo de Ax. Para calcular la isima componente del vector Ax (si ste a e e est denido) tenemos que sumar los productos de la isima la de A por las coordenadas de x, a e o sea, a11 a12 a13 a1n x1 a11 x1 + a12 x2 + + a1n xn a21 a22 a23 a2n x2 a21 x1 + a22 x2 + + a2n xn . . . . . = . .. . . . . . . . . . . . . . am1 am2 am3 amn xn am1 x1 + am2 x2 + + amn xn

ww

3) A tiene una posicin pivote en cada la. o

w.

2) Las columnas de A generan Rm , o sea, Rm = Span(a1, a2 , ..., an ).

at

1) Para todo b vector de Rm , la ecuacin A x = b tiene solucin. o o

em

Teorema B.4 Sea A una matriz mn con columnas a1 , a2 , ..., an . Las siguientes tres armaciones son equivalentes:

at

ic

Una consecuencia de este teorema es que la ecuacin A x = b tiene solucin si y slo si b es una o o o combinacin lineal de las columnas de A. o

a1

.c

om

B.4.4.

Conjunto solucin de los sistemas lineales. o

Todo sistema lineal de m ecuaciones con n incgnitas se puede escribir en forma matricial o A x = b donde la matriz de coecientes A es una matriz m n, x es un vector de R n y b es un vector de Rm .

1.

El sistema lineal A x = 0 se denomina sistema homogneo. Dicho sistema siempre tiene la e solucin trivial x = 0. Adems se cumple que el sistema homogneo tiene soluciones no trio a e viales si y slo si el sistema tiene al menos una variable libre, o sea la matriz A tiene al menos o una columna que no es pivote. El conjunto solucin de un sistema homogneo se escribe como el conjunto de todas las o e combinaciones lineales de ciertos vectores s1 , s2 , ..., sp cuyo n mero coincide con el de las u variables libres del sistema. Para obtener los vectores s1 , s2 , ..., sp se puede hacer lo siguiente: 1) Escribir el vector solucin x expresando las variables principales en funcin de las libres. o o 2) El vector s1 se obtiene del vector x anterior al sustituir la primera variable libre por 1 y las dems por cero. El segundo vector s2 se obtiene del vector x anterior al sustituir la segunda a variable libre por 1 y las dems por cero. Y as sucesivamente. a Por ejemplo si la solucin x de A x = 0 viene dada por (dos variables libres x 2 , x3 ) o 3 3 1 1 x 2 x3 x1 2 2 2 2 , entonces x2 = x2 1 +x3 0 x2 0 1 x3 x3

a1

.c om

2.

El sistema lineal A x = b con b = 0 se denomina sistema no homogneo. e Teorema B.6 Supongamos que A x = b tiene solucin para cierto b de R m . Sea p una o solucin de A x = b (solucin particular). Entonces el conjunto solucin del sistema no o o o homogneo A x = b es el conjunto de todos los vectores de Rm de la forma e

at

em

at

donde xh es la solucin general del sistema homogneo correspondiente A x h = 0. o e

B.4.5.

Dependencia e independencia lineal.

Un conjunto de vectores a1 , a2 , ..., an de Rn se denomina linealmente independiente si la ecuacin vectorial o x1 a1 + x2 a2 + + xn an = 0, tiene como unica solucin la trivial x1 = = xn = 0. o Un conjunto de vectores a1 , a2 , ..., an se denomina linealmente dependiente si existen los valores x1 , x2 , , xn no todos iguales a cero tales que se verique la ecuacin vectorial o x1 a1 + x2 a2 + + xn an = 0. Teorema B.7 Un conjunto S = {a1 , a2 , ..., ap } de dos o ms vectores es linealmente dependiente a si y slo si al menos uno de los vectores del conjunto es combinacin lineal de los dems. o o a Como consecuencia del teorema anterior se deduce que: 1) Dos vectores a1 y a2 son linealmente dependientes si y slo si son proporcionales, es decir, si o existe un n mero real tal que a1 = a2 o a2 = a1 . u

ww

w.

x = p + xh ,

ic

s1

s2

(B.9)

2) Si a1 , a2 , ..., an son vectores linealmente dependientes y a1 = 0 entonces para cierto j > 1 el vector aj es combinacin lineal de los anteriores, es decir, o aj = x1 a1 + x2 + a2 + + xj1 aj1 . NOTA: Esto no implica que si tenemos un conjunto de vectores linealmente dependientes a 1 , a2 , ..., an necesariamente cada vector es combinacin de los anteriores. o Teorema B.8 Un conjunto S = {a1 , a2 , ..., an } de dos o ms vectores de Rm con n > m es a necesariamente un conjunto linealmente dependiente. Teorema B.9 Un conjunto S = {a1 , a2 , ..., an } de dos o ms vectores de Rm con alguno de los a vectores ai = 0 (1 i n) es necesariamente un conjunto de vectores linealmente dependientes, o sea si alguno de los vectores de S es el vector nulo entonces S es un conjunto de vectores linealmente dependientes.

B.5.

Algebra de matrices.

Vamos a estudiar las operaciones elementales de las matrices. El elemento a ij de una matriz A es el que se encuentra situado en la intercepcin de la la i con la columna j: o columna j a1j a1n a2j a2n . . . .. . . . . . . . aij ain . . . .. . . . . . . . amj amn

B.5.1.

Suma de matrices y multiplicacin por un escalar. o

Sean A = [a1 a2 an ] y B = [b1 b2 bn ] matrices de dimensiones mn, donde a1 , a2 , ..., an y b1 , b2 , ..., bn son vectores de Rm . Deniremos la suma de dos matrices A y B a la matriz C cuyos vectores columnas coinciden con la suma de los correspondientes vectores columnas de A y B, es decir: C = A + B = [a1 a2 an ] + [b1 b2 bn ] = [a1 + b1 a2 + b2 an + bn ],

o en trminos de los elementos matriciales: C ||cij || = ||aij +bij ||. Sea un n mero real cualquiera e u y A = [a1 a2 an ] una matriz de m n. Deniremos el producto de una matriz por un escalar a la matriz cuyas columnas coinciden con las de A multiplicadas por , es decir: A = [a1 a2 an ] = [a1 a2 an ], o bien A ||aij || = || aij ||. Teorema B.10 Sean A, B y C matrices de m n y , nmeros reales. Entonces: u 1. 2. 3. 4. 5. 6. A + B = B + A. (A + B) + C = A + (B + C). A + 0 = 0 + A = A, donde 0 ||0|| es la matriz nula. (A + B) = A + B. ( + )A = A + A. ( A) = ( ) A.

ww w.

at

la i ai1 ai2 . . . . . . am1 am2

a1

em

at

ic

a11 a21 . . .

a12 a22 . . .

.c o

(B.10)

B.5.2.

Multiplicacin de matrices. o

Sea A = [a1 a2 an ] matriz de m n y B = [b1 b2 bp ] de n p. Se dene la matriz producto C = A B a la matriz de m p denida por: A B = A[b1 b2 bp ] = [Ab1 Ab2 Abp ], o elemento a elemento: ||(A B)ij || =
n n

(B.11)

aik bkj .
k=1

Ntese que cada columna de A B es una combinacin lineal de las columnas de A: o o


n n

A B = [Ab1 Ab2 Abp ] = [

bk1 ak
k=1 k=1

bk2 ak

bkp ak ].
k=1

Una interpretacin de la multiplicacin de matrices se puede dar a partir de la composicin de las o o o n m aplicaciones lineales: Sea T : R R una aplicacin lineal con matriz A de mn y S : Rp Rn o una aplicacin lineal con matriz B de n p, entonces a la aplicacin Q : R p Rm denida por o o Q(x) = T (S(x)) (composicin de T y S) le corresponde la matriz A B de m p. o Teorema B.11 Sean A de m n, B y C matrices de dimensiones apropiadas para que estn e denidas las operaciones y , nmeros reales. Entonces: u

3. 4. 5. 6.

(B + C) A = B A + C A. (A B) = ( A) B.

Si A es una matriz cuadrada n n y k es un n mero entero no negativo (k = 0, 1, 2, ...), u deniremos la potencia k sima de A por la frmula e o Ak = A A A In , k veces donde A0 In .

B.5.3.

Transposicin de matrices. o

Dada una matriz A de m n, la matriz transpuesta de A, que denotaremos por A T , es la matriz de n m cuyas las coinciden con las columnas de A. Si A = ||a ij ||, entonces AT = ||aji ||. Teorema B.12 Sean A de mn, B una matriz de dimensiones apropiadas para que estn denidas e las operaciones y un nmero real. Entonces: u 1. 2. 3. 4. (AT )T = A. (A + B)T = AT + B T . ( A)T = AT . (A B)T = B T AT . (A1 A2 An )T = AT AT AT . n n1 1

Como consecuencia de este teorema tenemos que

ww w.

Es importante recordar que la multiplicacin de matrices no es conmutativa, es decir para cualo quiera sean las matrices A y B tenemos que A B = B A .

M at

Im A = A In = A, donde Ik es la matriz identidad de k k.

em

at ic

A (B + C) = A B + A C.

a1

.c

2.

A 0 = 0 A = 0, donde 0 ||0|| es la matriz nula.

om

1.

(A B) C = A (B C).

B.5.4.

La inversa de una matriz cuadrada.

Sea A una matriz de n n. Si existe una matriz C tal que A C = In , C A = In ,

entonces a C se le denomina matriz inversa de A y se le denota A 1 . Las matrices A para las cuales existe la inversa A1 se denominan invertibles. Si A es invertible entonces A1 es unica. Teorema B.13 Sea A una matriz cuadrada de 2 2 invertible A= a b c d , entonces A1 = 1 ad bc d b c a .

El n mero ad bc se llama determinante de la matriz A de 2 2 y se le denota por det A. Ntese u o que una matriz A de 2 2 tiene inversa si y slo si det A = 0. o Teorema B.14 Sea A una matriz cuadrada de n n invertible. Entonces el sistema A x = b es compatible determinado para cualquiera sea b vector de R n , y su solucin se expresa por la frmula o o 1 b. x=A Teorema B.15 Sean A y B matrices cuadradas de n n invertibles. Entonces:

Como consecuencia de este teorema tenemos que

Una matriz elemental de n n es aquella que se obtiene al realizar una operacin elemental o de las sobre la matriz identidad de n n, es decir son las que se obtienen al intercambiar dos las, al multiplicar por una constante no nula una la cualquiera y al reemplazar una la por la suma de sta mas una combinacin lineal de cualquier otra. Por ejemplo, la matriz elemental e o correspondiente al intercambio de la 1 y 2 las de una matriz de 3 3 ser a 0 1 0 1 0 0 , E1 = 0 0 1 la que corresponde a cambiar la 3 la por la 3 ms a 1 0 E2 = 0 1 0

ww w.

B.5.5.

Matrices elementales.

at

(A1 A2 An )1 = A1 A1 A1 . n n1 1

em at

y la que multiplica la 2 la por el n mero ser u a 1 0 0 E3 = 0 0 . 0 0 1

Se puede comprobar que si multiplicamos la matriz E1 por una matriz cualquiera A de 3 p la matriz E1 A coincide con la matriz que se obtiene a partir de A al intercambiar la 1 y 2 las.

ic
veces la primera ser a 0 0 , 1

3.

AT es invertible y (AT )1 = (A1 )T .

a1

2.

(A B)1 = B 1 A1 .

.c om

1.

(A1 )1 = A.

Anlogamente, E2 A coincide con la matriz que se obtiene de A al cambiar la 3 la por la 3 ms a a veces la 1 la y E3 A coincide con la matriz que se obtiene al multiplicar por la 2 la. Es decir al multiplicar una matriz elemental E de m m por A de m n se obtiene una nueva matriz E A que coincide con la matriz que se se obtiene al realizar la operacin elemental sobre A y dicha matriz o E se obtiene realizando sobre la matriz identidad Im de m m la misma operacin elemental que o se quiere realizar sobre A. Puesto que todas las operaciones elementales son invertibles ello implica que las matrices elementales son invertibles y la inversa de E se obtiene realizando sobre la matriz identidad Im la operacin inversa. Por ejemplo, la inversa de E1 es E1 . La inversa de E2 es o 1 0 0 1 E2 = 0 1 0 , 0 1 y la de E3 es 1 E3 = 0 0 1 0 1 0 0 1 0 .

Teorema B.16 Una matriz cuadrada A de n n es invertible si y slo si A es equivalente por o las a la matriz identidad In de n n en cuyo caso toda secuencia de operaciones elementales que reducen A a In , reducen In a A1 .

1. 2.

Construimos la matriz [A In ].

Reducimos por las la matriz A a In , entonces [A In ] [In A1 ].

Ntese que encontrar la inversa de la matriz A equivale a encontrar una matriz B tal que o A B = I, o sea, A[b1 bn ] = [A b1 A bn ] = [e1 en ] = In . Es decir es equivalente a resolver las n ecuaciones A b 1 = e1 , A b 2 = e2 , A b n = en , donde e1 , ..., en son las columnas de la matriz identidad.

Teorema B.17 (Teorema de inversin de matrices) Sea A una matriz cuadrada A de n n. Las o siguientes expresiones son equivalentes: 1. 2. 3. 4. 5. 6. 7. A es invertible. A es equivalente por las a la matriz identidad In de n n. (A tiene n posiciones pivote) A es un producto de matrices elementales. La ecuacin A x = 0 solo tiene la solucin trivial. (Las columnas de A son linealmente o o independientes.) La ecuacin A x = b tiene al menos una solucin para cada b vector de R n , o sea, b es un o o elemento del subespacio generado por las columnas de A (la solucin de A x = b es unica). o Existe un C tal que A C = I. Existe un D tal que D A = I.

ww

w.

M at

em

Como consecuencia de este teorema se tiene el siguiente algoritmo para calcular A 1 : Dada la matriz A de n n invertible:

at ic

a1

Ello implica que A Ek Ek1 E1 A = In . Luego A = (Ek Ek1 E1 )1 lo cual implica que A1 = Ek Ek1 E1 In .

.c om

8.

AT es invertible.

Una consecuencia de este teorema es que si A B = I o B A = I, entonces A y B son invertibles y A = B 1 , B = A1 .

B.6.
B.6.1.

Determinantes.
Denicin de determinante de una matriz cuadrada. o
Sea A una matriz cuadrada columna j a1j1 a1j a2j1 a2j . . . . . .

Sea A una matriz nn (n 2). El determinante det A de la matriz A es la suma de los trminos e a1j det A1j donde a1j son los elementos de la primera la de A y A1j son las correspondientes submatrices obtenidas eliminando la la 1 y la columna j. Ms exactamente: a det A = a11 det A11 a12 det A12 + + a1n (1)n+1 det A1n , donde suponemos que det a = a si a es un n mero real cualquiera. u Utilizando la denicin anterior obtenemos para una matriz 2 2 el resultado: o det A = a11 a12 a21 a22 = a11 a22 a21 a12 ,

ww

Denotaremos por Aij a la submatriz que j, o sea a11 a12 . . . . . . ai11 ai12 Aij = ai+11 ai+12 . . . . . . an1

se obtiene a partir de A si quitamos la la i y la columna a1j1 a1j+1 . . .. . . . . . ai1j1 ai1j+1 ai+1j1 ai+1j+1 . .. .. . . . . anj1 anj+1 a1n . .. . . . ai1n ai+1n . . . . . . ann

ic

a1

ai11 ai12 ai2 la i ai1 a i+11 ai+12 . . . . . . an1 an2

a11 a21 . . .

a12 a22 . . .

.. .

a1j+1 a2j+1 . . .

.. .

a1n a2n . . .

ai1j1 ai1j aij aij1 ai+1j1 ai+1j . . .. . . . . . anj1 anj

ai1j+1 ai1n aij+1 ain ai+1j+1 ai+1n . . .. . . . . . anj+1 ann

(B.12)

.c om

an2

w.

at

em

at

(B.13)

que coincide con el determinante denido en el cap tulo anterior (teorema B.13). Usualmente a la cantidad (1)i+j det Aij se le conoce como cofactor (o menor) asociado al elemento aij . Utilizando esta notacin tenemos que la denicin anterior se puede reescribir de la o o forma: det A = a11 C11 + a12 C12 + + a1n C1n , que se conoce como desarrollo del determinante de A por su primera la.

Teorema B.18 Si A es de n n entonces: det A = ai1 Ci1 + ai2 Ci2 + + ain Cin . Las dos frmulas anteriores se conocen como desarrollo del determinante de A por su isima la o e y desarrollo del determinante de A por su jsima columna, respectivamente. e Teorema B.19 Si A es una matriz triangular (inferior o superior) entonces det A es el producto de los elementos de la diagonal, o sea, det A = a11 a22 ann det A = a1j C1j + a2j C2j + + anj Cnj .

B.6.2.

Propiedades de los determinantes.

Los dos teoremas que enunciaremos a continuacin son los ms importantes de este apartado o a y nos permitirn calcular los determinantes de matrices de orden alto (n 4) de manera eciente. a Teorema B.20 Sea A una matriz n n. Sea B una matriz que se obtiene de A al realizar sobre A alguna de las operaciones elementales de las y sea E la matriz elemental que realiza dicha operacin. Por ejemplo, o 1. 2. 3. Si E1 es la matriz que intercambia dos las, la matriz B = E1 A se obtiene al intercambiar dos las de A. Si E2 es la matriz que multiplica por una constante r no nula una la cualquiera, la matriz B = E2 A se obtiene al multiplicar por r la correspondiente la de A.

Como consecuencia del teorema anterior tenemos que si una la es m ltiplo de un n mero r u u entonces tenemos: a11 . . . a12 . . . a1n . .. . . . r ain . .. . . . ann a11 . . . =r ai1 . . . an1 a12 a1n . . .. . . . . . ai2 ain . . . .. . . . . . an2 ann

r ai1 r ai2 . . . . . . an1 an2

En particular si una la de A es nula, det A = 0 y si una la de A es proporcional a otra det A = 0. Teorema B.21 Sea A una matriz n n y sea AT su traspuesta, entonces det A = det AT . Este segundo teorema nos permite enunciar todos los apartados del teorema anterior cambiando la palabra las por columnas. Es conocido de apartados anteriores que cualquier matriz A se puede, mediante transformaciones elementales, transformar en una matriz triangular superior U (forma escalonada). Adems si resulta a que la matriz A tiene n las pivote entonces el determinante de A ser proporcional al det U . Luego, a si tenemos n las pivote todos los pivotes son distintos de cero y det A = 0. Pero si A tiene n las pivote entonces A es invertible. Este razonamiento nos conduce al siguiente teorema.

ww

w.

Si E3 es la matriz que reemplaza una la por la suma de sta mas un mltiplo de cualquier e u otra la, la matriz B = E3 A se obtiene al reemplazar una la de A por la suma de sta e mas un mltiplo de cualquier otra la. u 1 si E es del tipo E1 Entonces, det B = det(E A) = det A donde = r si E es del tipo E2 Adems, si a 1 si E es del tipo E3 A = I es la matriz identidad y por tanto det I = 1, entonces det E = , es decir el determinante de cualquier matriz elemental vale o 1 o r o 1 en dependencia si dicha matriz es del tipo E 1 , E2 o E3 , respectivamente.

at

em

at

ic a

1.c

om

Teorema B.22 Una A n n es invertible si y slo si det A es diferente de cero. o Teorema B.23 Sean A y B matrices n n. Entonces det(A B) = (det A) (det B).

B.6.3.

Regla de Kramer.

Sea A una matriz n n y b un vector cualquiera de R n . Denotaremos por Aj (b) a la matriz en la cual la j sima columna de A est reemplazada por el vector b, es decir si A y b son e a b1 a11 a1j1 a1j a1j+1 a1n . . . . . . .. .. . . . . . . . . . . . . . . A = ai1 aij1 aij aij+1 ain , b = bi , . . . . . . .. .. . . . . . . . . . . . . . . an1 anj1 anj anj+1 ann bn entonces Aj (b) es la matriz a11 a1j1 b1 a1j+1 a1n . . . . . .. .. . . . . . . . . . . . . ai1 aij1 bi aij+1 ain Aj (b) = . . . . . .. .. . . . . . . . . . . . . an1 anj1 bn anj+1 ann

a1

ww w.

Teorema B.24 Sea A a11 . . . ai1 . . . an1

matriz n n invertible. Entonces para todo x1 a1j1 a1j a1j+1 a1n . . . . . .. .. . . . . . . . . . . . . aij1 aij aij+1 ain xi . . . . . .. .. . . . . . . . . . . . . xn anj1 anj anj+1 ann

b de R n el sistema b1 . . . = bi , . . . bn
b

es compatible y tiene una unica solucin que viene dada por o x1 = det A1 (b) , det A x2 = det A2 (b) , det A , xn = det An (b) . det A

Es importante tener en cuenta que este mtodo es ineciente para calcular la solucin de sistemas e o de ms de 3 ecuaciones pues en el estn involucrados determinantes. Es recomendable resolver los a a sistemas por el mtodo de reduccin de las descrito en la primera parte del curso (ver Algoritmo e o de reduccin por las). o Finalmente, recordemos que invertir una matriz es equivalente a resolver n sistemas de ecuaciones de la forma: A b 1 = e1 , A b 2 = e2 , A b n = en , donde e1 , ..., en son las columnas de la matriz identidad. Por tanto para calcular la jsima columna e de A1 tenemos que resolver el sistema A x = ej cuya solucin es, seg n la regla de Kramer, o u det A1 (ej ) det An (ej ) x1 = , , xn = , pero det A det A det A1 (ej ) = (1)1+j det Aj1 = Cj1 , , det An (ej ) = (1)n+j det Ajn = Cjn ,

at

em

at

ic

.c o

luego la columna j de A1 es

Todo esto nos conduce al teorema

1 det A

Cj1 Cj2 . . . Cjn

Teorema B.25 Sea A una matriz invertible n n. Entonces C11 C21 Cj1 Cn1 C12 C22 Cj2 Cn2 . . . . .. .. . . . . . . . . . 1 . 1 A = .. det A C1i C2i Cji . Cni . . . . .. .. . . . . . . . . . . C1n C2n Cjn Cnn

donde Clm = (1)l+m det Alm son los cofactores (menores) del elemento alm de la matriz A y Alm es la submatriz que se obtiene al eliminar la la l y la columna m de A. La matriz ||C lm || se denomina matriz adjunta de A. Es importante notar que este mtodo es ineciente para calcular inversas (recurre a la regla de e Kramer que es ineciente es si misma) por lo que es recomendable para encontrar A 1 aplicar el algoritmo descrito en el teorema B.16 del cap tulo anterior. Para concluir esta parte dedicada a determinantes veamos una propiedad interesante que satisfacen los determinantes y que es consecuencia de los teoremas B.18 y B.20: Sea A = [a1 a2 an ] una matriz de n n con columnas a1 , ..., an . Denamos la aplicacin o lineal: T (x) = det([a1 x an ]) = det Ak (x), x de Rn , k = 1, 2, ..., n. T ( x) = det([a1 x an ]) = det([a1 x an ]) = T (x), T (x + y) = det([a1 x + y an ]) = det([a1 x an ]) + det([a1 y an ]) = = T (x) + T (y). Esta propiedad se conoce como la multilinealidad del determinante

B.7.

Espacios Vectoriales.

En esta seccin vamos a denir los espacios vectoriales que son la generalizacin de los eso o n pacios R ya estudiados.

B.7.1.

Denicin y ejemplos. o

Sea V un conjunto de elementos sobre el cual estn denidas las operaciones suma + de a dos elementos x, y de V y multiplicacin de un escalar (n mero real) por un elemento de o u V . Diremos que V es un espacio vectorial si se cumplen las siguientes propiedades (axiomas): Sean x, y, z elementos arbitrarios de V y , n meros reales. Entonces V es un espacio vectorial si u 1. Para todos x e y, vectores de V , el vector suma, w = x + y, tambin es un vector de V y se e cumple que:

ww

w.

La aplicacin anterior es lineal pues para todo de R y x, y de R n : o

M at

em

at

ic

a1 .c

om

a) b) c) d) 2.

x+y =y+x (x + y) + z = x + (y + z) Existe un elemento nulo de V , tal que x + 0 = 0 + x = x Existe el elemento (x) opuesto a x, tal que x + (x) = (x) + x = 0 donde (x) es vector opuesto de x

Para todo x vector de V , el vector que se obtiene al multiplicar por un escalar, w = x, tambin es un vector de V y se cumple que: e a) b) c) d) (x + y) = x + y ( x) = () x

( + ) x = x + x

1x=x

(p + q)(t) p(t) + q(t) = (a0 + b0 ) + (a1 + b1 )t + + (an + bn )tn ,

Adems, pn = 0, si y slo si a0 = a1 = = an = 0. 4.) El conjunto de las funciones continuas en el a o intervalo [a, b], que denotaremos por C[a,b] , cuando la suma de dos funciones f y g y la multiplicacin o por un escalar estn dadas por a (f + g)(t) f (t) + g(t),

ww w.

( p)(t) p(t) = (a0 ) + (a1 )t + + (an )tn .

at

em

B.7.2.

Subespacios vectoriales.

Sea V un espacio vectorial. Diremos que un subconjunto H de elementos de V es un subespacio vectorial de V si H es a su vez un espacio vectorial respecto a las mismas operaciones suma + y multiplicacin que V . o Ejemplos. 1.) Dado un espacio vectorial V , son subespacios vectoriales triviales los subespacios H = {0} (conjunto que tiene como unico elemento, el nulo) y H = V (el mismo espacio vectorial). 2.) Para V = C[a,b] , H = Pn es un subespacio vectorial, para cualquier n = 0, 1, 2, ... entero. 3.) Para V = Pn , H = Pk es un subespacio vectorial para todo k < n. Teorema B.26 Un subconjunto H de elementos de V es un subespacio vectorial de V si y slo si o se cumplen las siguientes tres condiciones. 1. 2. El elemento nulo de V pertenece a H. Para todos x e y, vectores de H, el vector w = x + y tambin es un vector de H. e

at

donde deniremos la suma de dos polinomios y la multiplicacin por un escalar de la siguiente o forma: p(t) = a0 + a1 t + + an tn , q(x) = b0 + b1 t + + bn tn ,

ic a

( f )(t) f (t).

1.c

Pn = {pn (t) = a0 + a1 t + + an tn ,

a0 , ..., an n meros reales.}, u

om

Ejemplos. 1.) El conjunto de los vectores de Rn cuando la suma de dos vectores y la multiplicacin por un o escalar es la denida en la seccin 2. o 2.) El conjunto de las matrices m n cuando la suma de dos matrices y la multiplicacin por un o mn escalar es la denida en la seccin 3. Dicho espacio lo denotaremos por R o 3.) El conjunto de los polinomios de grado a lo sumo n, que denotaremos por P n , o sea,

3.

Para todos x vector de H, el vector w = x tambin es un vector de H. e

Teorema B.27 Dado un conjunto de vectores {v1 , v2 , ..., vp } de un espacio vectorial V , el conjunto span (v1 , v2 , ..., vp ) es un subespacio vectorial de V . Dicho subespacio vectorial comnmente se u denomina subespacio generado por los vectores v1 , v2 , ..., vp .

B.7.3.

Conjuntos linealmente independientes. Bases.

Un conjunto de vectores v1 , v2 , ..., vp de un espacio vectorial V se denomina linealmente independiente si la ecuacin vectorial o x1 v1 + x2 v2 + + xp vp = 0, tiene como unica solucin la trivial x1 = = xp = 0. o Un conjunto de vectores v1 , v2 , ..., vp se denomina linealmente dependiente si existen los valores x1 , x2 , , xp no todos iguales a cero tales que se verique la ecuacin vectorial o x1 v1 + x2 v2 + + xp vp = 0. Para estudiar la dependencia lineal de los vectores de V podemos utilizar los mismos teoremas estudiados en la seccin 2 cambiando los espacios Rn por los correspondientes espacios vectoriales o V . Por tanto las siguientes armaciones son ciertas:

2.

Teorema B.28 El conjunto de dos o ms vectores v1 , v2 , ..., vp de V con v1 = 0 es un conjunto a linealmente dependiente si y slo si para cierto j, 1 < j < p, el vector v j es combinacin lineal de o o los anteriores, es decir, vj = x1 v1 + x2 v2 + + xj1 vj1 . NOTA: Esto no implica que si tenemos un conjunto de vectores linealmente dependientes v 1 , v2 , ..., vp necesariamente cada vector es combinacin de los anteriores. o Los vectores linealmente independientes de un espacio vectorial juegan un papel fundamental en el estudio de los sistemas lineales gracias a la siguiente denicin o Dado un subespacio vectorial H del espacio vectorial V diremos que el conjunto de vectores B = {b1 , b2 , ..., bp } de V es una base de H si i) B es un conjunto de vectores linealmente independientes ii) H = Span(b1 , b2 , ..., bp ), o sea, B genera a todo H. En particular si H coincide con V , entonces B es una base de todo el espacio vectorial V . Por ejemplo, si tomamos una matriz n n invertible, entonces sus columnas a 1 , ..., an son linealmente independientes y adems R n = Span(a1, ..., an ). Por tanto B = a1 , ..., an es una base de a

ww

w.

3.

Dos vectores v1 y v2 de V son linealmente dependientes si y slo si son proporcionales, es o decir, si existe un nmero real tal que v1 = v2 o v2 = v1 u

at

em

Un conjunto S = {v1 , v2 , ..., vp } de dos o ms vectores de V con alguno de los vectores a vi = 0 (1 i p) es necesariamente un conjunto de vectores linealmente dependientes, o sea si alguno de los vectores de S es el vector nulo entonces S es un conjunto de vectores linealmente dependientes.

at ic

a1

1.

Un conjunto S = {v1 , v2 , ..., vp } de dos o ms vectores es linealmente dependiente si y slo si a o al menos uno de los vectores del conjunto es combinacin lineal de los dems. o a

.c o

Rn . En particular, si A = In , la matriz identidad n n, las columnas e1 , e2 , ..., en de la misma son una base de Rn la cual se conoce como base cannica de R n . o Otro ejemplo lo constituye el conjunto de vectores S = {1, t, t 2 , ..., tn } del espacio vectorial Pn . Es fcil comprobar que dichos vectores son linealmente independientes y que span (1, t, t 2 , ..., tn ) = a Pn . S se conoce como la base cannica de Pn . o Teorema B.29 Sea S = {v1 , v2 , ..., vp } un conjunto de vectores de un espacio vectorial V y sea H = Span(v1, v2 , ..., vp ) un subespacio de V . i) Supongamos que un vector de S, digamos el vj , 1 j p, es combinacin lineal de los o restantes. Entonces si suprimimos a dicho vector vk del conjunto S, H no cambia, o sea, H = Span(v1, ..., vk1 , vk , vk+1 , ..., vp ) = span (v1 , ..., vk1 , vk+1 , ..., vp ). ii) Si H no es el espacio {0}, entonces algn subconjunto de S es una base de H. u Este teorema nos dice que a partir de un conjunto de vectores que generan un espacio vectorial siempre es posible extraer una base de dicho espacio vectorial. Por ejemplo, consideremos el espacio generado por los vectores 1 1 2 0 , v2 = 1 , v3 = 1 , H = Span [v1 , v2 , v3 ] . v1 = 0 0 0

B.7.4.

Sistemas de coordenadas.

Cuando estudiamos el espacio Rn (seccin 2) denimos a los vectores de Rn mediante sus o coordenadas. Ello era evidente pues x1 1 0 0 x2 0 1 0 x = . = x 1 . + x 2 . + + x n . = x 1 e1 + x n en . . . . . . . . . xn

ww

w.

at

em
0

Es evidente que H = Span[v1 , v2 , v3 ] = span [v1 , v2 ] pues el tercer vector es combinacin lineal de o los dos anteriores. Adems, S = {v1 , v2 , v3 } no es una base de H pues v1 , v2 , v3 no son linealmente a independientes. Sin embargo, el conjunto B = {v1 , v2 } que se obtiene al suprimir el tercer elemento si que es una base de H.

at

ic a1

.c

Adems, es evidente que dado un vector x de R n sus coordenadas, es decir los valores x1 , ..., xn , a son unicos. El siguiente teorema generaliza este resultado para cualquier espacio vectorial V . Teorema B.30 Sea B = {b1 , b2 , ..., bn } una base del espacio vectorial V . Entonces para todo x de V existe un unico conjunto de valores {1 , ..., n } tal que x = 1 b1 + 2 b2 + + n bn . Este teorema nos permite denir las coordenadas de un vector cualquiera de un espacio vectorial V . Supongamos que B = {b1 , b2 , ..., bn } es una base del espacio vectorial V . Denominaremos coordenadas del vector x de V en la base B al conjunto de los valores { 1 , ..., n } tales que x = 1 b1 + 2 b2 + + n bn ,

om
1

Consideremos nuevamente las coordenadas en Rn . Como vimos al principio de este apartado los elementos de cualquier vector X de Rn coinciden con las coordenadas de dicho vector en la base cannica C = {e1 , e2 , ..., en }. Supongamos ahora que pasamos a una nueva base B = {b1 , b2 , ..., bn }. o Entonces 1 2 x = x1 e1 + + xn en = 1 b1 + + n bn = [b1 b2 bn ] . = PCB [x]B , . . n
B

y lo denotaremos por

1 2 . . . n

[x]B .

B.7.5.

La dimensin de un espacio vectorial. o

Teorema B.31 Si un espacio vectorial V tiene una base de n vectores B = {b 1 , b2 , ..., bn }, entonces cualquier conjunto con ms de n vectores de V es linealmente dependiente. a Este teorema es una generalizacin del teorema B.8. o Teorema B.32 Si un espacio vectorial V tiene una base de n vectores B = {b 1 , b2 , ..., bn }, entonces cualquier otra base de V tendr que tener n vectores de V . a Un espacio vectorial es de dimensin nita n si V est generado por una base de n elementos, o a es decir si V = Span(b1 , ..., bn ), donde B = {b1 , ..., bb } es una base de V y lo escribiremos de la forma dim V = n. En el caso que V = {0} sea el espacio vectorial nulo, dim{0} = 0. Si V no puede ser generado por una base nita de vectores, entonces diremos que V es de dimensin innita y lo o denotaremos por dim V = . Por ejemplo, dim Rn = n, dim Pn = n + 1, dim C[a,b] = . Teorema B.33 Sea H un subespacio vectorial de un espacio vectorial de dimensin nita V , o (dim V = n < ). Entonces todo conjunto de vectores linealmente independientes de H se puede ampliar hasta convertirlo en una base de H. Adems dim H dim V . a Teorema B.34 Sea V un espacio vectorial n-dimensional (dim V = n < ) y sea S = {b 1 , b2 , ..., bn } un conjunto de exactamente n vectores. Entonces: a) Si S es un conjunto de vectores linealmente independientes, S es una base de V . b) Si S genera a todo V , es decir si V = Span(b1 , b2 , ..., bn ), S es una base de V .

ww w.

M at

em

Hemos visto que cualquier espacio V con una base de n elementos es isomorfo a R n . Resulta que dicho n mero n es una propiedad intr u nseca de V , su dimensin. o

at ic

1 [x]B = PCB [x]C = PBC [x]C .

a1

.c om

donde PCB es la matriz de cambio de base B en C que pasa las coordenadas de un vector en la base B a las escritas en C. Ntese que las columnas de la matriz P CB coinciden con los vectores de o la nueva base escritos en la base cannica. Es evidente que la matriz P CB es invertible (todas sus o 1 columnas son independientes y por tanto el det PCB = 0) por tanto la matriz inversa PCB ser la a matriz de cambio de base de base cannica a la base B, o sea o

y por tanto, si las coordenadas de x en la base cannica C son x 1 , ..., xn , la siguiente relacin o o ser cierta: a [x]C = PCB [x]B ,

B.7.6.

Cambio de base.

Sea V un espacio vectorial de dimensin nita n y sea B = {b1 , b2 , ..., bn } y D = {d1 , d2 , ..., dn } o dos bases de V . Como D es una base de V y los elementos de B son elementos de V , stos se podrn e a escribir en la base D, o sea, b1 = a11 d1 + a12 d2 + + a1n dn , . . . bk = ak1 d1 + ak2 d2 + + akn dn , . . . b1 = an1 d1 + an2 d2 + + ann dn . = a11 a12 . . . a1n an1 an2 . . . ann
D

b1 =

, , bn =
D

Supongamos que las coordenadas de un vector x de V en la base B son x 1 , x2 , ..., xn y D son y1 , y2 , ..., yn , es decir, x1 . x = x1 b1 + + xn bn [x]B = . , y x = y1 d1 + + yn dn [x]D = . xn
B

en la base y1 . , . . yn D

Entonces tenemos que

M at

Es decir si conocemos como se expresan los vectores de la base B en la base D podemos encontrar la matriz de cambio de base B en D, cuyas columnas a1 , a2 , ..., an no son ms que las coordenadas a de los vectores de la base B escritos en la base D. Por tanto tenemos que [x] D = PDB [x]B , o en forma matricial x1 y1 a11 ak1 an1 y2 a12 ak2 an2 x2 . . . = . . . . . . .

em

at

ic

a1
x = 0.

.c

om

[x]D = [x1 b1 + + xn bn ]D = x1 [b1 ]D + xn [bn ]D = ([b1 ]D [b2 ]D [bn ]D )[x]B .

yn

a1n akn ann

xn

ww w.

Adems, PDB es una matriz invertible (sus columnas son linealmente independientes), luego existe a 1 la inversa PDB la cual es la matriz de cambio de base D en B, o sea,
1 [x]B = PDB [x]D .

B.8.

El problema de autovalores de una matriz.

Sea A una matriz de n n. Denominaremos al vector x de R n , autovector de A asociado al autovalor , al vector no nulo x = 0, tal que A x = x, (B.14)

Es fcil comprobar que si x es un autovector asociado al autovalor , entonces el sistema a (A I)x = 0, donde I es la matriz identidad n n, (B.15)

tiene soluciones no triviales. Por tanto, dado un autovalor de A, el conjunto de los autovectores asociados a , que coincide con una base del n cleo de A, es un subespacio vectorial de R n . Dicho u espacio se denomina autoespacio de A correspondiente al autovalor . Es importante destacar que conocido el autovalor , encontrar el autoespacio consiste en encontrar las soluciones de un sistema homogneo de ecuaciones, o sea, resolver (A I)x = 0. e Teorema B.35 Sea A una matriz triangular de n n. Entonces los autovalores de A coinciden con los elementos de la diagonal principal = aii , i = 1, 2, .., n.

Es importante destacar que las operaciones elementales de las cambian los autovalores de una matriz. Es decir si U es la forma escalonada de A los autovalores de A y U son, en general, distintos. Teorema B.17 (Teorema de inversin de matrices, conclusin.) Sea A una matriz cuadrada A de o o n n. Las siguientes expresiones son equivalentes: 1. 2. A es invertible. = 0 no es un autovalor de A

El teorema anterior es evidente pues si = 0 es autovalor de A, entonces A x = 0 tiene que tener soluciones no triviales y por tanto A no puede ser invertible. Teorema B.36 Sea A una matriz de n n que tiene p autovalores distintos 1 = 2 = = p . Entonces los autovectores v1 , v2 , ..., vp asociados a los autovalores 1 , 2 , ..., p son linealmente independientes.

B.8.1.

La ecuacin caracter o stica.

Cmo calcular los autovalores? La respuesta a esta pregunta no es dif pues los autovalores o cil son tales que el sistema (B.15), (A I)x = 0, tiene soluciones no triviales. Pero un sistema homogneo tiene soluciones no triviales si y slo si e o

Matrices similares. Sean A y B dos matrices n n. Diremos que A es similar a B si existe una matriz invertible P , tal que A = P B P 1 , o B = P 1 A P. (B.17)

Es evidente que si A es similar a B, B es similar a A, para demostrarlo es suciente tomar Q = P 1 . Por tanto diremos simplemente que las matrices A y B son similares si se cumple (B.17). La transformacin que a cada matriz le hace corresponder otra similar, o sea, A P 1 A P , se o denomina transformacin de similitud. o Teorema B.37 Si las matrices A y B de n n son similares, entonces tienen el mismo polinomio caracterstico y, por tanto, los mismos autovalores.

B.8.2.

Diagonalizacin de matrices. o

Una matriz A de n n es diagonalizable si A es similar a una matriz diagonal D, o sea, si existe una matriz P invertible y otra D diagonal, tales que A = P D P 1 . Teorema B.38 Una matriz A de n n es diagonalizable si y slo si A tiene n autovectores o 1 , donde D es diagonal y P invertible, entonces los linealmente independientes. Si A = P D P elementos de la diagonal de D son los autovalores de A y las columnas de P son los correspondientes autovectores.

ww

w.

Es fcil comprobar que la expresin det(A I) = 0 es un polinomio de grado n en . Por tanto a o el polinomio pn () = det(A I) se denomina polinomio caracter stico de A y los autovalores de A sern las ra a ces de dicho polinomio. O sea, es un autovalor de A si y slo si p n () = 0. o

at

em

Un n mero es un autovalor de la matriz A de n n si y slo si satisface la ecuacin caracu o o ter stica de A (B.16), det(A I) = 0.

at

ic

La ecuacin anterior se denomina ecuacin caracterstica de A. Lo anterior lo podemos resumir o o como:

a1

.c

det(A I) = 0.

om

(B.16)

Este teorema se puede reformular diciendo que A es diagonalizable si y slo si sus autovectores o forman una base de Rn . Algoritmo para diagonalizar una matriz A. 1. 2. Encontrar los autovalores de A resolviendo la ecuacin (B.16). o Encontrar los autovectores linealmente independientes correspondientes a cada uno de los autovalores calculados en el paso 1. Si tenemos en total n autovectores linealmente independientes entonces el teorema B.38 nos asegurar que nuestra matriz es diagonalizable, si no a hay n autovectores independientes entonces A no es diagonalizable y detenemos el proceso. Si A es diagonalizable continuamos como sigue. Construimos la matriz P cuyas n columnas son los n autovectores linealmente independientes. Construimos la matriz diagonal D cuyos elementos de la diagonal coinciden con los autovalores de A. Es importante colocar en cada columna de D el autovalor asociado al autovector de la correspondiente columna de P .

3. 4.

Es recomendable comprobar que hemos calculado correctamente P y D. Para ello comprobamos que A P = P D. Teorema B.39 (Condicin suciente para que una matriz sea diagonalizable I) o Si una matriz A de n n tiene n autovalores distintos, entonces es diagonalizable. Teorema B.40 (Condicin suciente para que una matriz sea diagonalizable II) o Sea A una matriz de n n con p autovalores distintos 1 , 2 , ..., p . Sea Bk , k = 1, 2, ..., p una base del correspondiente autoespacio asociado al autovalor k y sea nk la dimensin de dicho autoespacio. o Construyamos el conjunto de vectores que contiene a todos los conjuntos B k , o sea

ww

w.

a Entonces B es un conjunto de vectores de Rn linealmente independientes. Adems, A es diagonalizable si y slo si dim(B) = n, o sea, si B contiene exactamente n vectores. o

at e

B = B1 B 2 B p ,

at

ic a

dim(B) = n1 + n2 + + np .

1.c

om

C.

Anexo: Series de potencias


n=0

Denicin C.1 Dada una sucesin de nmeros complejos (a n )n y z0 C deniremos serie o o u an (z z0 )n , (C.1)

que denominaremos serie de potencias. Como casos especiales de las series de potencias tenemos:
k=0

x ,

k=0

zk , k!

k=1

zk , k

etc. Si la serie converge para todos los valores de z de cierto conjunto A C, entonces podemos denir la funcin suma f (z) de la serie. o

C.1.

Propiedades de las series de potencias


n=0

Sin prdida de generalidad vamos a considerar las series del potencias del tipo e

Sea la serie de potencias

n=0

La regin de convergencia de una serie de potencias siempre son c o rculos en el plano complejo que, en el caso de las series de la forma (C.2) estn centrados en el origen y en el de las series (C.1), a en z0 (ver la gura 20). Ntese que se obtiene una de la otra al hacer una traslacin en el plano o o

ww

w.

serie converge absolutamente para todo z C con |z| < |w|.

at

an z n , an , z C. Si la serie converge para cierto w C, entonces la

em

Teorema C.2 Primer Teorema de Abel para las series de potencias

at

es decir, cuando z0 = 0. Obviamente si tenemos una serie de potencias del tipo (C.1), la podemos reducir a a la anterior (C.2) haciendo el cambio de variables = z z 0 y viceversa.

ic

a1

.c

om

an z n ,

(C.2)

complejo del c rculo mediante el vector z0 . Adems, cualquiera sea la serie de potencias a

n=0

an z n ,

an , z C, existe un n mero real no negativo R 0 o R = + tal que para todo z con |z| < R la u serie converge y si |z| > R la serie diverge. Dicho n mero se denomina radio de convergencia de la u serie de potencias. Consideremos ahora en caso real, es decir cuando (an )n es una sucesin de n meros reales y o u z = x R. En este caso hay que trasladar los resultados a la recta real. El primer teorema de Abel quedar entonces de la siguiente forma a Teorema C.3 Sea la serie de potencias
n=0

an xn , an , x R. Si la serie converge para cierto r R,

entonces absolutamente para todo x R con |x| < |r|. A diferencia del caso complejo, en el caso real si se sabe la convergencia en alguno de los extremos, se puede saber mucho ms sobre la serie. a Teorema C.4 Sea la serie de potencias
n=0

an xn , an , x R y R su radio de convergencia. En-

tonces, si la serie converge en x = R (x = R), converge uniformemente en [0, R] ([R, 0]).

Im z

Im z

| z z 0 | <| w 0 | z | z | < | w| R w R z0 0 Re z

Re z

Figura 20: Regin de convergencia de las series o cha).

n=0

anz (izquierda) y

n=0

an (z z0)n (dere-

Dada una serie de potencias

n=0

an xn , an , x R. Entonces R = l m

a1 .c
n=0

om
n
n

Teorema C.5 (Cauchy-Hadamard)

Para las series de potencias en R tienen lugar las siguientes propiedades.

ww w.

Teorema C.6 La funcin f (x) = o gencia de la serie.

n=0

En otras palabras, toda serie de potencias con radio de convergencia no nulo dene una funcin o continua. Teorema C.7 Derivacin e integracin trmino a trmino de una serie de potencias real o o e e Sea la serie de potencias f (x) = 1.
n=0

La serie se puede integrar trmino a trmino y la serie resultante tiene el mismo radio de e e convergencia, o sea, se cumple que
x 0 n=0

at

Una condicin suciente para que exista l n n |an | es que exista el l o m mite l n |an+1 /an |, m en cuyo caso 1 an+1 an l m . l m = l n |an |, = m = l m n an+1 n n n n |a | an n

an xn es continua en (R, R), siendo R el radio de conver-

an xn , an , x R con radio de convergencia R > 0. Entonces

em

at

an x =

2.

La serie se puede derivar trmino a trmino y la serie resultante tiene el mismo radio de e e convergencia, o sea, se cumple que
n=0

ic
n=0

1 , si dicho lmite existe. |an |

an n+1 x . n+1

an x n

nan xn1 .

Una consecuencia trivial del ultimo teorema es que una serie de potencias dene una funcin o innitas veces derivable en (R, R). Ejemplo C.8 Probar que la funcin f (x) = o su derivada. ex =
k=0

xk es continua y derivable en R y calcular k!

Que es continua y derivable en R es evidente de los dos teoremas anteriores a tener, como ya hemos calculado antes, radio de convergencia +. Para calcular la derivada usamos el teorema anterior, as pues d xk kxk1 xk1 f (x) = = = = f (x). dx k! k! (k 1)!
k=0 k=0 k=1

Adems, f (0) = 1. La funcin que cumple lo anterior es la funcin e x . a o o Los teoremas anteriores permiten calcular un buen n mero de series, por ejemplo u log(1 + x) = Para ello notamos que 1 1 = = 1+x 1 (x) (x)n =
n=1

(1)n+1 xn . n

ic a

n=0

at

Esta serie converge en (1, 1), as que integrando trmino a trmino tenemos e e

em

log(1 + t) =
0

1 dx = 1+x

t 0

1.c
n=0 n=0

om
(1)n xn .

(1)n xn

dx =

(1)n

Funciones elementales del anlisis. a

at

n=0

tn+1 = n+1

n=1

(1)n+1

tn . n

w.

ww

ex =

k=0

xk , k!

x R.
k=0

(C.3)

sen x =

k=0

(1)k x2k+1 , (2k + 1)!


k=1

cos x = ()k k x , k!
k=0

(1)k x2k (2k)! x (1, 1),

x R.

(C.4)

(1 + x) = 1 + en particular 1 = 1x
k=0

(C.5)

xk ,

1 = 1+x

(1)k xk ,

x (1, 1).

(C.6)

Aplicando la integracin trmino a trmino en [0, x] tenemos o e e log(1 + x) =


n=1

(1)n+1 xn . n

(C.7)

Usando (C.6) haciendo el cambio x por x2 obtenemos 1 = 1 + x2


k=0

(1)k x2k ,

x (1, 1),

(C.8)

a partir de la cual, integrando trmino a trmino en [0, x] obtenemos e e arctan x =


n=0

(1)n x2n+1 , 2n + 1

x (1, 1).

(C.9)

Escojamos ahora (C.5) con = 1 y cambiemos x por x2 , tenemos 2


1 ( 2 )k k 1 = x , 1 x2 k=0 k!

x (1, 1),

(C.10)

de donde integrando trmino a trmino en [0, x] obtenemos e e arc sen x =


k=0 1 ( 2 )k x2k+1 , k!(2k + 1)

x (1, 1),

(C.11)

ww

w.

at em

at ic a1

.c

om

You might also like