Professional Documents
Culture Documents
Producto escalar
281
Depto. de lgebra
x|y = x|y ,
y entonces se deduce que x|y = x|y . Esto solamente afecta a los produc-
tos escalares definidos en espacios vectoriales sobre el cuerpo de los nmeros
complejos. En cualquier caso, el contenido fundamental de la teora no cambia,
aunque algunas definiciones deben ser retocadas.
Entonces
4. y |x = 2y 1 x1 + 3y 2 x2 = x|y .
2. x|y e = x|y e .
x|y e = x (y ) = (x y ) = x|y e .
x|y + z e = x (y + z ) = x y + x z
= x|y e + x|z e .
4. x|y e = y |xe .
x|y e = x y = (y x) = y x = y |xe .
Ejemplo 8.1.5.- Sea V el conjunto de sucesiones {ck } C que verifican n0 |cn |2 <
P
x + y |z = z |x + y
= z |x + z |y
= x|z + y |z .
y tambin x|0 = 0.
Matriz de Gram
G = (ei |e j e ) = I n .
entonces
n
X n
X
x|y = x i ui y j uj
i =1 j =1
n X
X n
= xi ui |y j u j
i =1 j =1
X n X n
= xi y j ui |u j
i =1 j =1
= [x]B G [y ]B .
x|y = [x]B G [y ]B .
[x]B = P [x]B , [y ]B = P [y ]B ,
Por tanto,
de donde G = P GP .
G = P GP.
Entonces
3 1 0
P t I 3P = 1 5 1 = G ,
0 1 2
como sabamos.
8.3. Norma
Norma de un vector
La definicin tiene sentido por las propiedades del producto escalar. Aunque
no aparece en la notacin, la norma de un vector depende del producto escalar
usado.
Ejemplo 8.3.2.- Si V = M (nn, C), con el producto escalar A|B = traza(A B),
se tiene que
!1/2
n X
X n
2
kAk = |ai j | .
i =1 j =1
Propiedades de la norma
2. kxk = || kxk.
3. kx y k = ky xk.
1
u= x.
kx k
Desigualdad triangular
Sean x, y V . Entonces
kx + y k kx k + ky k .
kx + y k2 = x + y |x + y = x|x + x|y + y |x + y |y
= kxk2 + ky k2 + 2 Re(x|y )
kxk2 + ky k2 + 2|x|y |.
1
u|v = ku + v k2 ku v k2 .
4
1
u|v = ku + v k2 ku v k2
4
i
+ ku + i v k 2 ku i v k 2 .
4
x|y
cos = .
kx k ky k
x|y
cos() = .
kx k ky k
Relacin entre A, A A y A A
P RUEBA :
kA v k2 = A v |A v e = v A A v = 0
2. A partir de lo anterior,
Normas vectoriales
kxk = || kxk,
kx + y k kxk + ky k,
Por las propiedades que hemos visto, la norma inducida por un producto esca-
lar es una norma vectorial, que se denomina norma eucldea, y se representa
por kk2 . Sobre Cn existen otras normas, como por ejemplo
Pn
kxk1 = i =1 |x i |, que llamamos 1-norma,
kx + y k2 + kx y k2 = 2(kxk2 + ky k2 )
kx + y k2 + kx y k2 = x + y |x + y + x y |x y
= x|x + x|y + y |x + y |y
+x|x x|y y |x + y |y
= 2(kxk2 + ky k2 ).
1
(x, y ) = (kx + y k2 kx y k2 )
4
(x, y ) = (y , x).
Tenemos que ver lo que ocurre con las dos restantes propiedades. Por la iden-
tidad del paralelogramo, podemos escribir
1
kx + y k2 + kx + z k2 = (kx + y + x + z k2 + ky z k2 ),
2
1
kx y k2 + kx z k2 = (kx y + x z k2 + kz y k2 ),
2
y al restar ambas igualdades nos queda
Entonces
1
(x, y ) = k2 k k2 k k2 k
4 (kx + y x y + x + z x z )
k2
1 2 2
= 8 (k2 x + (y + z )k k2x (y + z )k )
2
(8.4.1)
x 1 (y + z )2 ) = 2(x, 1 (y + z )).
1
1
= 2 ( x + 2 (y + z ) 2 2
Ahora probemos que (x, y ) = (x, y ) para todo nmero real . Por lo an-
terior, el resultado es vlido para los nmeros enteros. Si = / es racional,
entonces
2 (x, y ) = (x, y ) = (x, y ), de donde (x, y ) = (x, y ).
8.5. Ortogonalidad
Vectores ortogonales
Ejemplo 8.5.2.- Sea V = C ([1, 1]) el R-espacio vectorial de las funciones con-
tinuas en el intervalo [1, 1], donde tenemos el producto escalar
Z1
f |g = f (x)g (x) d x.
1
Podemos decir entonces que dos vectores son ortogonales cuando el ngu-
lo entre ellos es igual a /2. Los vectores ortogonales verifican una propiedad
clsica.
Teorema de Pitgoras
kv + w k2 = v + w |v + w = v |v + v |w + w |v + w |w
= kv k2 + kw k2 + 2 Re(v |w ).
Conjuntos ortonormales
Todos los sumandos de la derecha son nulos, salvo ui |ui , que es positivo.
Entonces i = 0, para todo i = 1, . . ., r .
Expansin de Fourier
u1 |x u2 |x un |x
x= 2
u1 + 2
u2 + + un .
ku1 k ku2 k kun k2
P RUEBA : Si x = 1 u1 + 2 u2 + + n un , entonces
n
X n
X 2
u j |x = u j | i ui = i u j |ui = j u j .
i =1 i =1
Entonces el vector
2
x = 3
4
verifica
u1 |xe u2 |xe u3 |xe 5 1
x= 2
u1 + 2
u2 + 2
u3 = u1 u2 + 4 u3 ,
ku1 k ku2 k ku3 k 2 2
por lo que sus coordenadas respecto a B son
5/2
[x]B = 1/2 .
4
r w |x
X i
w j |x proyW (x) = w j |x w j | wi
i =1 kwi k2
r w |x
X i
= w j |x w j |wi = w j |x w j |x = 0.
i =1 kwi k2
Por tanto, x proyW (x) es un vector ortogonal a todos los elementos de la base
de W . Sea ahora w W , por lo que admite una expresin de la forma w =
Pr
j =1 j w j . Entonces
r
X r
X
w |x proyW (x) = j w j |x proyW (x) = j w j |x proyW (x) = 0.
j =1 j =1
u1 |xe u2 |xe 5 1
proyW (x) = 2
u1 + 2
u2 = u1 u2 .
ku1 k ku2 k 2 2
1. Si B es ortogonal, entonces
n
X
v |w = kui k2 v i w i .
i =1
2. Si B es ortonormal, entonces
n
X
v |w = v i w i = [v ]B [w ]B .
i =1
n
X n
X n X
X n
v |w = v i ui | w j uj = v i w j ui |u j
i =1 j =1 i =1 j =1
n
X
= v i w i kui k2 .
i =1
Pn
Esto significa que ui = k=1
aki uk , de donde
n
X n
X
ui |u j = aki uk | al j ul
k=1 l =1
n X
X n
= aki al j uk |ul
k=1 l =1
Xn
= aki ak j , pues solamente aparecen los trminos con k = l .
k=1
Nota 8.6.1. Hemos visto que la multiplicacin por una matriz unitaria no altera
la norma eucldea de un vector. Algo parecido ocurre con la norma de Frobe-
nius de una matriz. Sea A nn una matriz con coeficientes complejos y Unn
una matriz unitaria. Entonces
q1 = v1 ,
q2 = v2 12 q1
..
.
qs = vs 1s q1 s1,s qs1
,
para ciertos escalares i j . Buscamos esta forma en los vectores qi para que ge-
neren el mismo subespacio vectorial que los vi . Queremos imponer la condi-
cin de ortogonalidad en el conjunto {q1 , . . . , qs }. Para ello tiene que ocurrir que
2
q1 |q2 = 0 = q1 |v2 12 q1 ,
y podemos calcular todos los j k . Se tiene adems que los subespacios genera-
dos por {v1 , . . . , vk } y {q1 , . . . , qk } son iguales. Si ahora normalizamos qi = q1 qi
i
conseguimos el conjunto ortonormal. Observemos que la normalizacin de ca-
da qi se puede realizar en cada paso.
q1 = v1 ,
qk = vk proyWk1 (vk ), 2 k s.
k1
X qi |vk
q1 = v1 , qk = vk proyWk1 (vk ) = vk 2 qi , 2 k s,
i =1 q i
Mtodo de Gram-Schmidt
q1 , . . . , qk = v1 , . . . , vk para todo k = 1, . . . , s.
1. Definimos q1 = v1 .
2. Para k = 2, . . . , s calculamos
1
qk = qk , k = 1, 2, . . . , s.
qk
1 1 3
0 2 1
v1 = , v2 = , v3 = .
0 0 1
1 1 1
El proceso es:
q1 = v1
q |v2 e
q2 = v2 12 q1 , 12 = 1 2 = 1,
q
1
0
2
q2 = v2 q1 =
,
0
0
q3 = v3 13 q1 23 q2 ,
q1 |v3 e
13 = 2 = 2,
q
1
q2 |v3 e 1
23 = 2 = ,
q 2
2
1
1
0
q3 = v3 2q1 q2 =
.
2 1
1
Entonces
1 0 1
1
0
1
1
0
q1 = p , q2 = , q3 = p .
2 0 0 3 1
1 0 1
R 2
Ejemplo 8.7.3.- Sea V el espacio de la funciones f : R R tales que f (x) d x
es finita, con el producto escalar
Z
f |g = f (x)g (x) d x.
si 0 < x 21 ,
1
h(x) = 1 si 21 < x 1,
0 en otro caso.
k1
X q j |vk
qk = vk j k q j , donde j k = 2 .
j =1
q j
8.8. Factorizacin QR
8.8.1. Factorizacin QR reducida
El proceso de Gram-Schmidt se puede ver tambin en la forma de facto-
rizacin de matrices. Sea A ms = v1 v2 . . . vs una matriz con columnas
independientes. Cuando se aplica Gram-Schmidt a las columnas de A, estamos
calculando una base ortonormal {q1 , q2 , . . . , qs } de Col(A), donde
q1 = v1 ,
q2 = v2 12 q1 ,
..
.
qs = vs 1s q1 . . . s1,s qs1
.
v1 = q1 = r 11 q1 ,
v2 = 12 q1 + q2 = r 12 q1 + r 22 q2 ,
..
.
vs = 1s q1 + + s1,s qs1
+ qs = r 1s q1 + . . . + r s1,s qs1 + r ss qs ,
Observemos que todos los r i i son positivos, pues son normas de vectores. Te-
nemos as que A ms = Q ms R ss , donde las columnas de Q forman una base
ortonormal de Col(A), y R es una matriz triangular superior con elementos no
nulos en la diagonal.
y habamos calculado
1 0 1
1
0
1
1
0
q1 = p , q2 = , q3 = p .
2 0 0 3 1
1 0 1
El cambio de base viene dado por los coeficientes i j del proceso, y podemos
despejar los vectores vi en funcin de los vectores q j .
p
v1 = q1
q1
= 2 q1 ,
p
v2 = 12 q1 q1 + q2 q2
= 2q +2q2
p 1 p
v3 = 13 q1 q1 +23 q2 q2 + q3 q3 = 2 2q1 +q2 + 3q3 .
lo que indica que podemos tomar para ampliar e1. Sea v4 = e1 . Hay que calcular
q4 = v4 14 q1 24 q2 34 q3
Entonces
p p p
2 2 2 2
0
2 1
A= v1 v2 v3 = q1 q2 q3 q4 p .
0 0 3
0 0 0
Complemento ortogonal
y
m|v1 = m|v1 = 0 para todo m M.
Esto es independiente de la estructura de M. Sin embargo, el caso que nos in-
teresa especialmente es cuando M es un subespacio vectorial W de dimensin
finita de V . En tal caso, existe una base finita de W formada por los vectores
w1 , . . . , wr . La definicin impone, en principio, un conjunto infinito de condi-
ciones para caracterizar a los elementos de W . Sin embargo, vamos a ver que
Tenemos as el resultado.
La caracterizacin del complemento ortogonal dado por las ecuaciones (8.9.1),
que hemos usado en el ejemplo anterior, nos permiten definir un mtodo para
calcular unas ecuaciones implcitas de W a partir de un conjunto de genera-
dores de W = w1 , . . . , wr . Estn dadas por las relaciones
wi |x = 0, i = 1, . . . , r
Entonces W viene dado por las soluciones del sistema lineal homogneo
1/2
x1 x2 = 0,
esto es W = h1 = 1/2 .
2x1 +x3 = 0,
1
V = W W .
que resolvemos
" # x1 = x3 ,
1 2 1 2 rref 1 0 1 0
x4 ,
x2 =
, ,
0 1 0 1 0 1 0 1 x = x3 ,
3
x4 = x4 ,
1 0
0
1
U = u3 = ,u = .
1 4 0
0 1
Entonces
1
q1 |v q2 |v 3 1
1
q1 + q2 = q1 q2 =
proyW (v ) = .
q1 |q1 q2 |q2 5 5 1
1
(W1 ) = W1 .
Si W1 W2 , entonces W2 W1 .
(W1 + W2 ) = W1 W2 .
(W1 W2 ) = W1 + W2 .
P RUEBA :
v |w = v |w1 + v |w2 = 0.
| {z } | {z }
w1 W1 w2 W2
Ejemplo 8.9.4.- El espacio W debe ser de dimensin finita para que se cum-
plan las propiedades del complemento ortogonal. Consideremos V el R-espacio
vectorial de las sucesiones a = {an | an = 0 salvo un nmero finito de trminos },
P
con el producto escalar a|b = i 1 ai b i . Para cada h 1, sea vh la sucesin
que contiene la entrada h-sima igual a 1 y las restantes son iguales a cero. En-
tonces B = {vh | h 1} es una base ortonormal de V . Consideremos el subes-
pacio W generado por las combinaciones lineales finitas del conjunto de su-
cesiones {v1 v2 , v2 v3 , . . .}. Este subespacio es propio, pues v1 6 W y no es
P
de dimensin finita. Si 0V 6= y entonces podemos escribir y = ni=1 ai vi para
ciertos nmeros reales ai y an 6= 0. Si y W , entonces
a1 a2 = 0, a2 a3 = 0, . . . , an an+1 = 0,
y esto contradice el carcter no nulo de y . Por tanto, W = 0V , aunque W 6= V .
Adems, V 6= W W y (W ) = V 6= W .
Como consecuencia,
y
Cn = null(A) null(A) = null(A) Col(A ).
El conjunto ortogonal a S 0 = {q1 , q2 } est definido por las soluciones del sistema
lineal homogneo
32 x1 + 1
x
3 2
+ 2
x
3 4
= 0,
x3 = 0.
4. Si consideramos la matriz
T= h1 . . . h s
Anlogamente para V :
" # " # x1 = x3 2x4 ,
1 1 1 1 1 0 1 2
x4 ,
rref x2 =
, ,
1 2 1 0 0 1 0 1 x = x3 ,
3
x4 = x4 ,
1 2
0 1
V = v3 = , v4 = .
1 0
0 1
Entonces
1
1
U V = (U + V ) = w1 =
.
1
1
8.10. Isometras
Recordemos que las matrices unitarias U verifican que U = U 1 , que es
equivalente a decir que sus columnas o filas forman una base ortonormal de
Cn . En el caso real, U t = U 1 , y las llamamos ortogonales.
Tambin presentamos un tipo especial de homomorfismo entre espacios
vectoriales con producto escalar.
Isometra
para todo v1 , v2 V .
a1
a1
v= 7 f (v ) = a2
a2
0
f (v )2 = f (v )| f (v )W = v |v V = kv k2 ,
W V
es decir, conserva la
norma.
Recprocamente, supongamos que f es una aplica-
cin lineal tal que f (v )W = kv kV para todo v V . Como el producto escalar
se puede recuperar a partir de la norma (pg. 293), concluimos que f es una
isometra.
1. f es una isometra.
2. f es isomorfismo e isometra.
f (vi )| f (v j ) = vi |v j = i j ,
Adems,
! !
n
X n
X
f (u)| f (v ) = f ai vi | f b j vj
i =1 j =1
n X
X n n
X
= ai b j f (vi )| f (v j ) = ai b i = u|v .
i =1 j =1 i =1
grupo, notado por O(n). Es claro que si A es una matriz ortogonal, entonces
1 = det(I ) = det(A A t ) = det(A)2 , de donde det(A) = 1. El conjunto de matrices
ortogonales de orden n con determinante igual a 1 forma un grupo respecto al
producto, que notaremos por SO(n), y se denomina grupo especial ortogonal.
Tambin es llamado el grupo de las rotaciones de Rn y representa los movi-
mientos directos.
Es interesante una reformulacin del teorema de condicin equivalente de
isometra (pg. 326) cuando el espacio vectorial de partida y llegada coinciden.
1. f es isometra.
2. Si v V , entonces kv k = f (v ).
P RUEBA : Si f es isometra,
2
kv k2 = v |v = f (v )| f (v ) = f (v ) ,
de donde kv k = f (v ), pues son nmeros no negativos. Como la norma de-
fine al producto escalar, la igualdad de las normas implica que f es isometra.
Tenemos as la equivalencia entre las dos primeras condiciones.
Sea entonces B = {v1 , . . . , vn } una base ortonormal de V y llamemos A =
MB ( f ). Por el teorema de equivalencia de isometras, el conjunto { f (v1 ), . . . , f (vn )}
es una base ortonormal de V , de donde
f (vi )| f (v j ) = i j , i , j = 1, . . . , n.
Por el teorema de expresin del producto escalar respecto de una base ortonor-
mal (pg. 303), se tiene que
Supongamos ahora que existe una base ortonormal B tal que la matriz de
f respecto de la base B es unitaria. Si llamamos A es esta matriz, entonces