You are on page 1of 12

1

Esperanza Matem
atica

Los conceptos de -algebra, medida (en particular las medidas de probabilidad), y funcion
medible (en particular las variables aleatorias), han surgido de los esfuerzos hechos en el
siglo XIX y principios del XX para ampliar el concepto de integral a clases cada vez mas
amplias de funciones. La ampliacion definitiva fue llevada a cabo por Lebesgue, despues
de que Borel abriera el camino. Lebesgue trabajo con la medida especial conocida como
medida de Lebesgue. Radon aplico el mismo punto de vista, trabajando con medidas
de Stieljes-Lebesgue. Por u
ltimo, Frechet, usando a
un el punto de vista de Lebesgue,
prescindio de las restricciones sobre el espacio de medida sobre el que estaban definidas
las funciones numericas a integrar.
La axiomatica de la probabilidad de Kolmogorov, introduciendola como una medida
sobre una -algebra de los sucesos, supuso un importante avance de la Teora de la
Probabilidad, que tuvo desde entonces el importante apoyo de la Teora de la Medida
en su evolucion. Asi, el concepto de Esperanza Matematica, que juega en el Calculo de
Probabilidades un papel preponderante como medida de centralizacion, paso de ser una
simple media aritmetica ponderada, calculable en ciertos casos, a su generalizacion como
una integral respecto de una medida de probabilidad. Al tiempo, la Teora de la Probabilidad ha enriquecido notablemente a la Teora de la Medida no solo por la justificacion
practica que supone, sino por la abundancia de nuevas ideas que ha introducido y por los
nuevos metodos de demostracion que ha impuesto.
Lebesgue tiene dos definiciones equivalentes de integral, una descriptiva a partir de
sucesiones convenientes (mas propia del Analisis Matematico), que basicamente consiste
en la completizacion del espacio de las variables simples respecto de la distancia inducida
por la integral, y otra constructiva. Usaremos la definicion constructiva de integral, de la
cual hay muchas variantes, pero las ideas basicas son siempre las mismas y, en general, la
integral se comienza definiendo siempre para funciones simples. Aunque no excluiremos
los valores infinitos, sin embargo deberemos evitar la aparicion de la expresion a
la que no daremos sentido.
Una de las propiedades esenciales de la integral es la de ser continua para limites
monotonos, y en la construccion aue vamos a realizar apuntaremos a conseguir rapidamente
este resultado.
Utilizaremos indistintamente los terminos Esperanza Matematica (o Esperanza para
abreviar), media
e integral,
y para una
variable aleatoria dada, X,R representaremos su
R
R
R
esperanza por XdP, X()dP (), X()P (d) o EX e incluso X cuando no haya
lugar a dudas sobre el espacio probabilstico (, , P ) que consideraremos fijo en todo el
tema.
Como generalizacion natural del concepto de media aritmetica, e incluso del de centro
de gravedad en sentido fsico, comenzaremos por definir la Esperanza Matematica para
variables simples.
Definici
on 1.1 Dada una variable simple X = ni=1 xi IAi , xi <, Ai P
, i = 1, ...n
llamaremos esperanza matematica (o integral) de X (respecto de P ) al valor ni=1 xi P (Ai ).
P

Para ver que la definicion es consistente habra que probar que el valor asignado a la
integral no depende de la representacion de X elegida.
1

Supongamos por tanto que


X=

n
X

xi IAi =

i=1

m
X

yj IBj ,

j=1

donde ademas podemos suponer que la primera representacion es la canonica, es decir,


Ai = (X = xi ), i = 1, ..., n. Sea = {C1 C2 ... Cm , Cj = Bj o Bjc }. Claramente los
conjuntos de forman una particion del espacio. Ademas es inmediato comprobar que
cada conjunto de esta contenido en uno y solo un conjunto Ai (salvo que fuera vaco).
P
De hecho se tiene que Ai = Di D, siendo
i = {D , D Ai } = {D = C1 C2 ... Cm , con
Cj1 = Bj1 , ...Cjk = Bjk , y Cr = Brc si r
/ {j1 , ..., jk }, tales que

k
X

yjp = xi }.

p=1

Por otra parte tambien es inmediato que Bj =


m
X

yj P (Bj ) =

m
X

D, DBj

yj

j=1

j=1

D. Por tanto

P (D),

D, DBj

y, desarrollando, resulta que para un D , generico, D = C1 C2 ... Cm , con Cj1 =


Bj1 , ...Cjk = Bjk , y Cr = Brc si r
/ {j1 , ..., jk }, P (D) aparece en la suma k veces multiplicada por los correspondientes yj1 , ..., yjk , y reordenando
m
X

yj P (Bj ) =

j=1

D
n X
X
i=1 Di

P (D)(

yj ) =

n
X

xi

i=1

P (D)(

i=1 Di

j: DBj

P (D)xi =

n X
X

P (D) =

n
X

yj ) =

j: DBj

xi P (Ai ),

i=1

Di

justificando la definicion.
En particular se tiene (utilizando la descomposicion canonica) que
EX =

n
X
i=1

xi P (X = xi ) =

n
X

xi P X

i=1

(xi ) =

n
X

xi PX (xi ),

i=1

que prueba que la esperanza de X solo depende de su distribucion, y no del espacio en


que este definida la variable.
De hecho, la esperanza puede considerarse como una ampliacion natural del concepto de
probabilidad, pues se tiene P (A) = E(IA ) para todo A y es la u
nica prolongacion de
esta al espacio de las variables simples que es lineal y positiva. En la siguiente proposicion
se obtienen las principales propiedades de la esperanza de variables simples.
2

Proposici
on 1.2 Sea S la clase de las variables aleatorias simples definidas en el espacio
(, , P ). La esperanza matematica tiene sobre S las siguientes propiedades:
1.
2.
3.
4.
5.
6.

EIA = P (A) para todo A , E(k) = k, para toda constante k <.


Si X S y X 0, entonces EX 0.
E(kX) = kEX para toda k < y toda X S.
Si X, Y S, entonces E(X + Y ) = EX + EY .
Si X, Y S y X Y , entonces EX EY .
Si (Xn )n X (resp. (Xn )n X), siendo Xn , X S, entonces EXn EX (resp.
EXn EX).

Demostracion: 1) es consecuencia directa de la definicion. P


2) es obvia si se escribe la variable en la forma canonica X = ni=1 xi I(X=xi ) , puesto que
P
entonces debe ser xi 0 para todo i = 1, 2..., n, y entonces EX = ni=1 xi P (X = xi ) 0.
Pn
3) se obtiene
facilmente teniendo en cuenta que si X = i=1 IAi , entonces kX =
Pn
Pn
k i=1 xi IAi = i=1 (kxi )IAi , luego
E(kX) =

n
X

n
X

i=1

i=1

(kxi )P (Ai ) = k

xi P (Ai ) = kEX.

4) es inmediata a partir del hecho de que la esperanza de una variable simple no dependa
de la forma particular enPque se descomponga
como combinacion lineal de indicadores de
P
conjuntos de : Si X = ni=1 xi IAi , Y = m
j=1 yj IBj , con Ai , Bj , es obvio que
X + Y = x1 IA1 + x2 IA2 + ... + xn IAn + y1 IB1 + y2 IB2 + ... + ym IBm ,
y entonces
E(X + Y ) = x1 P (A1 ) + ... + xn P (An ) + y1 P (B1 ) + ... + ym P (Bm ) = EX + EY.
Para probar 5) observese que si X Y entonces Y X 0 y, por otra parte, Y X
tambien es una variable simple, luego de 2) obtenemos E(Y X) 0, y de 3) y 4) que
E(Y X) = EY EX, luego EX EY.
Por las propiedades de linealidad y monotona que hemos obtenido, para probar 6)
sera suficiente probar que si Xn 0, entonces EXn 0.
Si M = sup{x11 , x12 , ..., x1n1 }, siendo {x11 , x12 , ..., x1n1 } el conjunto de valores que toma
la variable X1 , es claro que para cualquier  > 0, se tiene Xn M I{Xn >} + ; por las
propiedades ya probadas de la esperanza se tiene entonces EXn M P ({Xn > }) + ,
pero, como Xn 0, {Xn > } , luego P ({Xn > }) 0, y se obtiene 0 lim EXn 
para todo  > 0, y, en consecuencia EXn 0. 2
Teniendo en cuenta que toda variable positiva es lmite creciente de variables positivas
simples, y la propiedad de continuidad monotona secuencial de la esperanza en S es
posible extender la definicion de esperanza tambien a variables positivas (el conjunto de
estas se denotara por L+
0.
3

Definici
on 1.3 Sea X L+
0 y (Xn )n una sucesion de variables simples tales que Xn X.
La esperanza de X es el valor (finito o infinito) EX = lim EXn . (Notese que el lmite
existe por ser (EXn )n una sucesion creciente.)
Esta definicion de esperanza necesita ser justificada demostrando que no existe ambig
uedad:
que el valor adjudicado a EX no depende de la sucesion aproximadora. Con el siguiente lema preparamos ademas el argumento para probar facilmente la monotona de la
esperanza sobre L+
0.
Lema 1.4 Sean Xn , Y S, n N . Si Xn X, y X Y , entonces lim EXn EY.
Demostracion: Definiendo las nuevas variables (simples) Zn = inf{Xn , Y } se consigue
una nueva sucesion monotona y convergente, Zn Y , ahora hacia una variable simple, que
ademas verifica Zn Y y Zn Xn para todo n. Las propiedades dadas en la proposicion
1.2 aseguran entonces que EZn EY, EZn EXn y EZn EY , de donde
lim EXn lim EZn = EY.
(notese de nuevo que la existencia del lmite lim EXn esta garantizada por la monotona
de la sucesion (Xn )n ). 2

Proposici
on 1.5 Sean (Xn )n e (Yn )n dos sucesiones de variables en S, tales que Xn
X, Yn X. Entonces lim EXn = lim EYn (y, en consecuencia, la definicion 1.3 es
consistente).
Demostracion: De las convergencias Xn X, Yn X se deduce que lim Xn = X
Yk y lim Yn = X Xk para todo k. El lema 1.4 asegura entonces que lim EXn
EYk y lim EYn EXk para todo k, y, en consecuencia, lim EXn = lim EYn . 2
Respecto a la monotona de la esperanza tenemos:
Proposici
on 1.6 Sean X, Y L+
0 . Si X Y entonces EX EY .
Demostracion: Sean (Xn )n e (Yn )n dos sucesiones de variables en S, tales que Xn
X, Yn Y . Entonces Y Xk para todo k y, por el lema 1.4, lim EYn EXk para
todo k, luego EY = lim EYn lim EXn = EX. 2
En particular se obtiene la propiedad (por otra parte obvia a partir de la definicion):
EX 0 si X es una variable aleatoria positiva.
Otras propiedades de interes de la esperanza sobre las variables positivas se muestran
en la siguiente proposicion.
Proposici
on 1.7 Sea L+
0 el conjunto de las variables aleatorias positivas en (, , P ).
Entonces:
1. Si X L+
0 y c 0: E(cX) = cEX.
4

2. Si X1 , X2 L+
0 : E(X1 + X2 ) = EX1 + EX2 = E(sup(X1 , X2 )) + E(inf(X1 , X2 )).
3. Xn L+
0 , y Xn X EXn EX.
Demostracion: Todas las propiedades se demuestran a partir de las correspondientes de
la esperanza de variables simples dadas en la proposicion 1.2.
1) Sean Xn S tales que Xn X. Entonces, si c 0, tambien cXn S y cXn cX.
Ademas por 3) en la proposicion 1.2, E(cXn ) = cEXn . Por tanto se tendra
E(cX) = lim E(cXn ) = lim cEXn = cEX.
2) Sean Xn1 , Xn2 S tales que Xn1 X1 , Xn2 X2 . Entonces
Xn1 + Xn2 X1 + X2 y Xn1 + Xn2 S.
Como E(Xn1 + Xn2 ) = EXn1 + EXn2 por 4) en la proposicion 1.2, facilmente obtenemos
E(X1 + X2 ) = lim E(Xn1 + Xn2 ) = lim(EXn1 + EXn2 ) = EX1 + EX2 .
Finalmente la igualdad E(X1 + X2 ) = E(sup(X1 , X2 )) + E(inf(X1 , X2 )) es consecuencia
inmediata de la identidad X1 + X2 = sup(X1 , X2 ) + inf(X1 , X2 ).
3) Sea para cada n (Ymn )m una sucesion de variables simples tales que Ymn Xn .
Definiendo las nuevas variables (simples)
Zm = sup Ymn ,
n:nm

obtenemos una nueva sucesion creciente que verifica Ymn Zm Xm para todo m n.
Entonces la monotona de la esperanza sobre las variables simples nos asegura
EYmn EZm EXm si m n y EZm EZm+1 para todo m.
Haciendo m y despues n , obtenemos finalmente
X = lim Xm = lim Zm y lim EXm = lim EZm = E(lim Zm ) = E(lim Xm ) = EX.
2
La ampliacion del campo de definicion de la integral a variables cualesquiera esta
basada en la b
usqueda inmediata de linealidad conservando las propiedades de convergencia.
Definici
on 1.8 Sea X una variable aleatoria cualquiera. Si al menos uno de los valores
+
EX , EX es finito definimos la esperanza de X como el valor (posiblemente infinito)
EX = EX + EX .
Cuando los dos valores EX + y EX son finitos (o, de forma equivalente, cuando EX
es finito) diremos que la variable X es integrable.
5

Puesto que |X| = X + + X , de las propiedades de la integral sobre las variables


positivas se deduce de inmediato que una variable aleatoria, X, es integrable si y s
olo
si lo es su modulo, |X|. Ademas en este caso la variable X debe ser finita casi seguro
(P (|X| = ) = 0):
Si X es integrable, de la desigualdad |X|I{|X|=} |X| se deduce
cP (|X| = ) E(|X|I{|X|=} ) E|X| para todo c > 0,
y haciendo tender c a obtendriamos, si suponemos P (|X| = ) > 0, la incompatibilidad = E|X| < .
La siguiente proposicion sintetiza las propiedades fundamentales de la esperanza matematica. Tambien comenzaremos a utilizar de forma sistematica el calficativo casi seguro
para hacer referencia a propiedades que se verifican salvo a lo sumo en un conjunto de
probabilidad 0, o, lo que representa la principal diferencia con el casi siempre habitual
en la teora de integracion de Lebesgue, cuando la propiedad es cierta en un conjunto de
probabilidad 0.
Proposici
on 1.9 Sean X e Y , con o sin subndices, variables aleatorias cualesquiera.
1. (Teorema de anulacion). La igualdad E|X| = 0 se da si y solo si X = 0 casi seguro
(P (X = 0) = 1).
2. X 0 EX 0.
3. E(cX) = cE(X) si existe EX.
4. E(X + Y ) = EX + EY si X + Y esta bien definida y si X + e Y + (o X e Y son
integrables.
5. Si X = Y casi seguro, entonces EX = EY (si una de ellas existe tambien existe la
otra y sus valores, finitos o no, coinciden).
6. X Y casi seguro EX EY si ambas existen. En particular |EX| E|X| si
EX existe.
7. (Teorema de la convergencia monotona).
Xn X EXn EX si EXn0 < para alg
un n0 .
+
Xn X EXn EX si EXn0 < para alg
un n0 .
Demostracion:
1) Observese que el estudio realizado hasta ahora solo nos permite calcular la integral de
poco mas que variables simples. Puesto que una variable positiva que toma una infinidad
numerable de valores puede escribirse facilmente como lmite de simples, es inmediato el
calculo, basado en la serie correspondiente, de su esperanza. Nuestra demostracion estara
basada en el calculo de la esperanza de variables adecuadas construidas a partir de una
variable, X, cualquiera. Sean las variables positivas
Y1 = 0I{X=0} +
k=1 kI{k1<|X|k} + I{|X|=}
Y2 = 0I{X=0} +
k=1

1
1
I 1
+ 1I{|X|>1} .
n + 1 { n+1 <|X| n }
6

Es evidente que 0 Y2 |X| Y1 , y por tanto (al ser variables positivas), tenemos
0 EY2 E|X| EY1 .
Si X = 0 casi seguro, entonces EY1 = 0, y por tanto E|X| = 0.
Si, por el contrario, suponemos que E|X| = 0, entonces EY2 = 0, y debe ocurrir X = 0
casi seguro.
2) Ya se demostro en la proposicion 1.7.
3) Si c 0 se tiene E(cX) = E(cX)+ E(cX) = E(cX + ) E(cX ) = cEX +
cEX = cEX.
Si, por el contrario, c < 0 : E(cX) = E(c(X)) = cE(X) = c(E(X)+
E(X) ) = c(EX EX + ) = c(EX + EX ) = cEX.
4) Observemos en primer lugar que si X1 , X2 son dos variables positivas y X1 ()
X2 () 6= en todo punto , siendo una de ellas integrable, la variable X =
X1 X2 es casi integrable y EX = EX1 EX2 , ya que se tiene X + X1 y X
X2 (y por tanto X es casi integrable), y X + + X2 = X + X1 (de donde resulta que
EX + EX = EX1 EX2 ).
La aditividad de la esperanza en las condiciones propuestas es ahora consecuencia de
la descomposicion X + Y = (X + + Y + ) (X + Y ).
5) Si X es finita casi seguro tambien lo es Y , y por 1) tendremos
X = Y casi seguro X Y = 0 casi seguro E|X Y | = 0.
Por 4): 0 = E|X Y | = E(X Y )+ +E(X Y ) , y por 2): E(X Y )+ = E(X Y ) = 0.
Entonces E(X Y ) = 0, y por 3) y 4): EX = EY.
Ademas, si fuera P (X = ) > 0, debe ocurrir P (X = ) = 0 (en caso contrario no
existira EX), y por ser X = Y casi seguro, tambien P (Y = ) > 0 y P (Y = ) = 0,
luego sera EX = EY = . El caso es analogo.
6) Si X Y casi seguro, entonces X = inf(X, Y ) y Y = sup(X, Y ) casi seguro, y
ademas X Y, luego por 5) bastara probar el resultado cuando se da la desigualdad
X Y.
Si las variables son finitas (o finitas casi seguro) el resultado proviene de 2) y 4), y si
toman valores infinitos con probabilidad positiva, de la casi integrabilidad de las variables,
actuando como en la segunda parte de la demostracion de 5) se asegura igualmente el
resultado.
Respecto a la desigualdad |EX| E|X|, si E|X| = es trivial. Si E|X| < ,
entonces las variables X y X son integrables y ademas se tienen las desigualdades
X |X|, X |X|. Por tanto EX E|X| y EX = E(X) E|X|, pero como
|EX| = sup(EX, EX), el resultado es obvio.
7) Probaremos solo el caso creciente. Si Xn X y EXn0 < , entonces X Xn
Xn0 , si n n0 , y por tanto las variables X, Xn , si n n0 , son casi integrables. Ademas
0 Xn + Xn0 X + Xn0 si n , luego por la propiedad 4) y la proposicion 1.7:
EXn + EXn0 EX + EXn0 y entonces EXn EX. 2
A partir del resultado de convergencia monotona en la proposicion anterior obtendremos los famosos criterios de Fatou-Lebesgue de convergencia dominada, que al igual
7

que el criterio de Levy de convergencia monotona, permiten estudiar los lmites de integrales a partir de las integrales de los lmites.
Teorema 1.10 Sea (Xn )n una sucesion de variables aleatorias y sean Y, Z variables integrables.
Si Xn Y para todo n, entonces E lim inf Xn lim inf EXn .
Si Xn Z para todo n, entonces E lim sup Xn lim sup EXn .
Si Xn X y |Xn | Z, entonces EX = lim EXn .
Demostracion: Comenzaremos observando que si Y (resp. Z) es una variable integrable
y otra variable X verifica Y X (resp. Z X), entonces X (resp. X + ) es integrable
y X es, por tanto casi integrable. Entonces, si Y Xn para todo n e Y es integrable,
como Xn Yn := inf kn Xk lim inf Xn y ademas Yn Y para todo n, por el teorema
de la convergencia monotona obtenemos:
lim inf EXn lim EYn E lim inf Xn .
El segundo resultado se prueba analogamente, mientras que el u
ltimo es consecuencia
inmediata de los dos primeros al ser entonces lim inf Xn = lim sup Xn = X y por tanto
EX = E lim inf Xn lim inf EXn lim sup EXn E lim sup Xn = EX.
2
El proceso seguido en la construccion de la integral permite, como ya se advirtio en
la introduccion, obtener propiedades recorriendo los diferentes escalones visitados en esta
construccion, que, recuerdese que no son otros que los dados en la definicion constructiva
de las variables aleatorias. La siguiente proposicion formaliza esta idea.
Proposici
on 1.11 Sea una familia de variables aleatorias reales positivas, definidas en
el espacio medible (, ), que verifica las siguientes propiedades:
1. Si X, Y y a, b 0 son constantes cualesquiera entonces aX + bY .
2. Si Xn , n N y Xn X, entonces X .
3. Para todo A se tiene IA .
Entonces contiene todas las variables positivas.
Demostracion: Las propiedades primera y tercera aseguran que contiene todas las variables simples positivas, y, como toda variable positiva es lmite de una sucesion creciente
de variables simples y positivas, la segunda propiedad prueba el resultado. 2
Los siguientes resultados, sencillas consecuencias del principio establecido en la proposicion
anterior, suelen denominarse como teorema del cambio de variable, y demuestran ademas
que la esperanza matematica de una variable aleatoria solo depende de la distribucion de
probabilidades que engendra.
8

Teorema 1.12 Sean X e Y variables aleatorias igualmente distribuidas, con valores en


el espacio medible (0 , 0 ), y sea : 0 < una variable aleatoria real ( 0 |-medible).
Entonces E(X) = E(Y ), en el sentido de que si uno de los dos miembros de la igualdad
existe, entonces existe el otro y ambos son iguales.
Demostracion: Supongamos que (1 , 1 , P1 ) y (2 , 2 , P2 ) son los dos espacios probabilsticos (que eventualmente podran coincidir) en los que respectivamente estan definidas
las variables X e Y . Recordando la definicion (1.16 en el Captulo de Aplicaciones Medibles) de variables igualmente distribuidas tendremos que si = IB para alg
un conjunto B 0 , entonces E(X) = 1.P1 (X B) = 1.P2 (Y B) = E(Y ). Si es la
clase de las variables aleatorias positivas, , definidas en (0 , 0 ) que satisfacen la igualdad E(X) = E(Y ), por las propiedades de la integral es inmediato que verifica las
propiedades 1) y 2) en la proposicion 1.11, y la tercera acaba de ser probada. Por tanto
todas las variables positivas verifican la igualdad, y realizando la descomposicion habitual
en parte positiva y negativa se completa la demostracion. 2
Corolario 1.13 Sea (, , P ) un espacio probabilstico y (0 , 0 ) un espacio medible. Si
X : 0 es una variable aleatoria y PX es la probabilidad que induce en (0 , 0 ),
entonces para cualquier variable aleatoria, : 0 <, tal que (X) sea casi integrable,
se verifica
E((X)) =

(X())P (d) =

Z
0

( 0 )PX (d 0 ).

Demostracion: Basta hacer en la proposicion anterior Y = Id0 . 2


Observese que la utilizacion reiterada del corolario anterior permite prolongar la cadena
de igualdades y obtener tambien:
E((X)) =

(X())P (d) =

( )PX (d ) =

Z
<

xP(X) (dx),

si P(X) es la ley de probabilidad de la variable aleatoria (X).


En relacion con el calculo de esperanzas debemos hacer notar que hasta ahora solo nos
hemos atrevido con las de las variables simples y las de las elementales (las que solo toman
una infinidad numerable de valores). El siguiente resultado es la base del calculo para la
esperanza de distribuciones que pueden obtenerse a partir de funciones de densidad.
~ : <k un vector aleatorio definido en el espacio probabistico
Teorema 1.14 Sea X
(, , P ), cuya distribucion tiene funcion de densidad conjunta f (~x). Si : <k <, es
~ es casi integrable, entonces
una variable aleatoria tal que (X)
~ =
E((X))

Z
<p

(~x)f (~x)d~x.

Demostracion: Utilizaremos de nuevo la proposicion 1.11. Como la esperanza matematica


es lineal y la integral de Lebesgue tambien, al igual que para la esperanza matematica
contamos con un teorema de la convergencia monotona y para la integral de Lebesgue
tambien, si definimos R como el conjunto de las variables aleatorias positivas : <k <
~ = p (~x)f (~x)d~x, verifica las propiedades 1) y 2) en la proposicion
tales que E((X))
<
1.11. Por u
ltimo, si A k , entonces
~ = 1.P (X
~ A) =
E(IA (X))

f (~x)d~x =

IA (~x)f (~x)d~x

por definicion de funcion de densidad de un vector aleatorio. Entonces tambien verifica


~ =
3)
y, de acuerdo con la proposicion 1.11, toda variable positiva verificara E((X))
R
x)f (~x)d~x.
<p (~
La descomposicion habitual en parte positiva y negativa de una variable aleatoria
: <k < general permite, por u
ltimo tratar ambas en el esquema anterior, y la
hipotesis de casi integrabilidad asegura que la diferencia de las esperanzas matematicas
por un lado y la de las integrales (de Lebesgue) por otro coinciden. 2
Otro resultado relacionado con el calculo de esperanzas permite obtener la esperanza
matematica a partir de la funcion de distribucion de una variable aleatoria:
Teorema 1.15 Sea X una variable aleatoria positiva con funcion de distribucion F . Entonces
EX =

(1 F (x)dx.

Demostracion: Supongamos primero que la variable X es simple y toma los valores


x1 , x2 , ...xn que consideramos ordenados de menor
a mayor, con probabilidades
respectivas
R
P
p1 , p2 , ...pn . La esperanza de X es por tanto ni=1 xi pi . La integral 0 (1 F (x))dx es, por
otra parte, la suma de las areas de los rectangulos cuyas bases son x1 0, x2 x1 , ..., xn
xn1 y cuyas respectivas alturas son 1, 1 p1 , 1 p1 p2 , ..., 1 p1 p2 ... pn1 (= pn ),
luego
Z
0

(1 F (x))dx = x1 + (x2 x1 )(1 p1 ) + (x3 x2 )(1 p1 p2 ) + ... + (xn xn1 )pn =

agrupando los factores que multiplican a cada xi ,


x1 (1 (1 p1 )) + x2 ((1 p1 ) (1 p1 p2 )) + ...+
xn1 ((1 p1 ... pn2 ) (1 p1 ... pn1 )) + xn pn =

n
X

xi pi = EX.

i=1

Sea ahora X una variable positiva cualquiera, y sea (Xn )n una sucesion de variables
simples positivas tal que Xn X. Si Fn (respectivamente F ) es la funcion de distribucion
10

de Xn (resp. X), se tiene 1 Fn (x) = P (Xn > x) P (X > x) = 1 F (x), x <, ya


que { : Xn () > x} { : X() > x} para cada x <. El teorema de la convergencia
monotona para la esperanza matematica prueba por una parte que EXn EX, mientras
que
el teorema de la
convergencia monotona para la integral de Lebesgue
prueba que
R
R
R
0 (1 Fn (x))dx 0 (1 F (x))dx, por lo que las igualdades EXn = 0 (1 Fn (x))dx,
obtenidas
en la primera parte, aseguran que tambien los lmites son iguales: EX =
R
0 (1 F (x))dx. 2
Observese que se da la siguiente igualdad entre integrales
Z

(1 F (x))dx =

P (X > x)dx =

P (X x)dx

debido a que los integrandos son iguales salvo a lo sumo para un conjunto numerable (el
de los puntos de discontinuidad de F ).
En general, a
un si X no es positiva se tiene la identidad
Z

XdP = aP (X > a) +

P (X > x)dx,

(X>a)

valida para cualquier constante a 0, que se obtiene de inmediato considerando en el


resultado anterior la variable positiva Y = XI(X>a), cuya funcion de distribucion G toma
los valores

G(x) =

0,

si x < 0
P (X a), si 0 x < a

F (x), si a x

Los productos de variables integrables no necesariamente son integrables, pero el caso


de variables independientes es diferente. Aunque la condicion no es necesaria (b
usquese un
ejemplo que lo demuestre), la independencia de n variables aleatorias asegura la integrabilidad del producto cuando las variables son integrables y permite su calculo a partir de
las esperanzas de los factores. Este resultado es inmediato por induccion (si X1 , X2 , ..., Xn
son independientes entonces tambien lo son las dos variables Y := X1 .X2 ...Xn1 y Xn ) a
partir del siguiente en el que demostraremos el caso particular de dos variables.
Teorema 1.16 Sean X, Y variables aleatorias independientes e integrables. Entonces
X.Y es una variable aleatoria integrable y se tiene EX.Y = EX.EY .
Demostraci
on: Si X e Y son variables simples, podemos escribir X = ni=1 xi IAi , Y =
Pm
j=1 yj IBj , donde Ai = (X = xi ), Bj = (Y = yj ), y de la independencia de X e Y se
deduce la de cada conjunto Ai con cada Bj y, en consecuencia
P

P (Ai Bj ) = P (X = xi , Y = yj ) = P (X = xi )P (Y = yj ) = P (Ai )P (Bj ).


11

Por tanto
n X
m
X

EX.Y = E(

xi yj IAiBj ) =

i=1 j=1
n X
m
X

xi yj P (Ai )P (Bj ) =

i=1 j=1

n X
m
X

xi yj P (Ai Bj ) =

i=1 j=1
n
X

xi P (Ai )

i=1

m
X

yj P (Bj ) = EX.EY.

j=1

Para el caso general definamos las funciones de Borel (ya utilizadas para demostrar
que toda variable aleatoria real es lmite de variables simples), n : <+ <+ ,

n (x) =:=

n
n2
X

k1
I[(k1)/2n ,k/2n ) (x) + I[n,] (x).
n
2
k=1

Sea ahora Xn = n (X + )n (X ) y analogamente Yn = n (Y + )n (Y ). Entonces Xn


e Yn son variables independientes y simples (al igual que |Xn | y |Yn |), luego E|Xn .Yn | =
E|Xn |E|Yn |, y 0 |Xn | |X|, 0 |Yn | |Y |, 0 |Xn .Yn | |X.Y |. Si X e Y son
integrables entonces
E|Xn .Yn | = E|Xn |E|Yn | E|X|E|Y | <
y, se sigue del teorema de la convergencia monotona que E|XY | < . Como ademas
Xn .Yn X.Y y |Xn .Yn | |X.Y |, del teorema de la convergencia dominada obtenemos
que
EX.Y = lim EXn Yn = lim EXn EYn = EX.EY.
n

En consecuencia X.Y es integrable y EX.Y = EXEY . 2

12

You might also like