You are on page 1of 16

Las principales distribuciones absolutamente continuas

Guadalupe Carrasco Licea


Octubre de 2012
Entre las variables absolutamente continuas, hay varias que se pueden ver como extensin al
caso continuo de las distribuciones discretas. Las cuatro que veremos aqu son de este tipo.

Distribucin uniforme continua


Se elige un punto al azar en el intervalo (a; b) : Sea X una variable aleatoria que indica
el punto elegido. La funcin de distribucin de X; calculada por longitud favorable sobre
losngitud total, es
8
si x < a
< 0
x a
si a x < b
FX (x) = P [X x] =
: b a
1
si x b
Derivando obtenemos

1
b a

si x 2 (a:b)
0 en otro caso
que es la funcin de denisdad de una variable con distribucin uniforme continua. Observen
que la probabilidad de que su valor caiga en un subintervalo I depende slo de la longitud del
intervalo (no del lugar dnde est este intervalo), es decir, los puntos estn uniformemente
distribuidos en el intervalo.
fX (x) =

La esperanza de una variable aleatoria que se distribuye como uniforme continua es el punto
medio del intervalo, lo que es fcil de ver
Z 1
Z b
b
x
1
x2
b 2 a2
a+b
E (X) ==
xfX (x) dx =
dx =
=
=
:
a
b a 2 a 2 (b a)
2
1
a b
Para calcular la varianza, veamos primero la esperanza de X 2 :
Z b 2
b
x
b 3 a3
1
x3
2
E X
=
dx =
=
a
b a 3 a 3 (b a)
a b

b 3 a3
(a + b)2
a2 + ab + b2 a2 + 2ab + b2
=
3 (b a)
4
3
4
4a2 + 4ab + 4b2 3a2 6ab 3b2
a2 2ab + b2
(a b)2
=
=
=
12
12
12

V ar (X) =

Esta distribucin es la base para cualquier simulacin. Los nmeros aleatorios que se obtinen en calculadoreas y paquetes de computacin, se contruyen tomando como base una
distribucin uniforme continua en el intervalo [0; 1)

Distribucin Normal
Esta es la distribucin absolutamente continua estrellita, pues juega un papel muy importante
en la teora matemtica de la Probabilidad. Veamos primero cmo construirla y despus
hablamos un poco de su trascendencia.
Abraham de Moivre observ que si en una distribucin Binomial se hace tender el nmero de
pruebas a innito, dejando ja la probabilidad de xito p en cada una de ellas, la distribucin
tiende a tomar la forma de una campana de Gauss.

<Faltan grcas>
No importa qu tan asimtrica sea la distribucin binomial para un nmero pequeo de
pruebas, al hacer crecer n; siempre se va pareciendo a una campana completamente simtrica.
Aos despus, Laplace complet y redonde el trabajo de De Moivre. Antes de hablar del
importante resultado al que llegaron estos dos matmaticos en relacin al proceso de lmite
mencionado, veamos primero cmo es una funcin de densidad absolutamente continua que
tiene forma de camapana de Gauss.
2
Una funcin (no densidad) cuya grca toma esa forma es h (z) = e z : Ms generalemnte,
2
toda funcin de la forma h (z) = e kz tiene forma de campana de Gauss. Para simplicar
2
los clculo siguientes, tomaremos especcamente la funcin h (z) = e z =2 : Cmo hacerla
densidad? Obsrvese que se trata de una funcin cuyas imgenes son positivas, pero su
integral es diferente de 1. Si la integral en todo R de esta funcin es la constante A; entonces
2
la funcin (z) = A1 e z =2 tendr integral 1 y, por tanto, ser una funcin de densidad.
Veamos entonces cul es la integral de h: El nico problemita es que dicha integral no se
puede obtner por mtodos elementales de integracin as que vamos a tener que usar una
integral en R . los que no hayan visto integracin en Rn tendrn que creerme lo que sigue.
Z

z 2 =2

dz

1
1

x2 =2

dx

x2 =2

y 2 =2

dxdy

Ahora vamos a hacer una transformacin a coordenadas polares:


r 2 = x2 + y 2
x = r cos
y = r sen

y 2 =2

dy

Y tenemos que
1<x<1

0<r<1

()

1<y<1

<2

Para hacer el cambio de variable, necesitamos multiplicar por el Jacobiano de la transformacin, mismo que se dene como
@ (x; y)
=
@ (r; )

@x
@r
@y
@r

@x
@
@y
@

cos
sen

r sen
r cos

=r

As obtenemos que
Z

z 2 =2

dz

1
1
2 Z 1
2

2
2
e (x +y )=2 dxdy

re

r2 =2

r 2 =2

drd

ir=1

r=0

d =2 :

Por lo tanto

De manera que, la funcin

z 2 =2

dz =

1
(z) = p e
2

z 2 =2

1 < z < 1;

es una funcin p
de densidad que tiene la forma deseada. Esta es una campana de Gauss que
tiene altura 1= 2 y eje de simetra en el eje Y a la que llamaremos Normal estndar o
Normal de parmetros 0 y 1. Su funcin de distribucin es
Z z
1
2
(z) = p
e z =2 dz
2
1

Pero hay toda una familia de variables cuya grca es una campana de Gauss con distintas
alturas y distintos ejes de simetra. Todas estas variables aleatorias se obtienen multiplicando
una normal estndar por alguna constante y sumndo otra constante.
Sea Z una variable que se distribuye como normal estndar. veamos cmo se distribuye
X = + Z donde es cualquier real y > 0. Empecemos calculando su funcin de
distribucin
FX (x) = P (X
= P

x) = P ( + Z x)
x
x
=
:

Derivando, obtenemos
fX (x) = FX0 (y) =

1
= p e
2

(x
)2
2 2

Una variable aleatoria que tiene esta funcin de densidad se conoce como Normal de parmetros y 2 : Observen que cuando = 0 y = 1 estamos en el caso de la normal estndar.

0.5
0.4
0.3
0.2
0.1

-7

-6

-5

-4

-3

-2

-1

y
0.8

0.6

0.4

0.2

-5

-4

-3

-2

-1

Esperanza y Varianza de una Normal


Como la funcin de densidad es simtrica, es de esperarse que la esperanza sea el punto
donde se localiza el eje de simetra, es decir, en una normal estndar el cero y en una normal
general, la a: Tomemos una Normal general y veamos cul es su funcin generadora de
momentos.
tX

mX (t) = E e
et
p

t(X

=e E e
Z

(x

et
= p

)2 +2 2 t(x
2 2

et(x

(x
)2
2 2

dx

dx

Completando cuadrados en el exponente obtenemos:


(x

)2

2 2 t (x
2

=
=
=
=

)2

(x

2 2 t (x
)+
2
2
2 2
4 2
t)
t

(x
2

2
2

(x
2

t)

2
2

(x

4 2

t)

2 2

t
2

2 2
De donde, la funcin generadora nos queda en la forma
2
Z
2 2
(x ( + 2 t))
et e( t )=2 1
2 2
p
mX (t) =
e
dx
2
1
Como

2
Z 1
(x ( + 2 t))
1
2 2
p
e
dx = 1
2
1
por tratarse de una funcin de densidad, llegamos nalmente a

mX (t) = e
5

t+

2 t2
2

4 2

4 2

Derivando, obteneomos
E (X) =

dmX (t)
dt

2 t2
2

t+

t e

=
t=0

t=0

As, nalmente obtenemos que


E (X) =
La constante indica el eje de simetra.
Para obtener la varianza, empecemos por E (X 2 )
E X2 =

d2 mX (t)
dt2

t+

2 t2
2

t+

2 t2
2

t=0

t=0

De donde,
var (X) =

La constante indica lo angosto o ancho de la distribucin.


Finalmente observemos que en el caso de la Normal estndar, = 0 y 2 = 1. Esta es la
razn por la que se le conoce tambin como Normal de parmetros 0 y 1:
Clculo de probabilidades con la dsitribucin Normal
En resumen, hemos obtenido que, una variable que se distribuye como Normal estndar tiene
funcines
Densidad:
Distribucin:

1
2
(z) = p e z =2
2 Z
z
1
(z) = p
e
2
1

1 < z < 1;
y 2 =2

1 < z < 1;

dx

y su media y varianza son


E (Z) = 0
var (Z) = 1
En este caso escribimos
Z

N (0; 1) :

Pero no es la nica forma en que se puede tener una grca tipo campana de Gauss, sino que
hay toda una familia de variables con esta caracterstica. Una normal general tien funciones
Densidad:
Distribucin:

(x
)2
1
fX (x) = p e 2 2
2
Z x
1
FX (x) = p
e
2
1

1 < x < 1;
(x
)2
2 2

y su media y varianza son


E (X) =
var (X) =
6

dx

1 < x < 1;

En este caso escribimos


X

Para calcular la probabilidad de que X est en un conjunto boreliano A; necesitamos calcular


la integral
Z
fX (x) dx:
A

Pero esta integral en general, no es fcil de calcular. Por eso, hay tablas donde se tabulan
los valores aproximados, slo que no podra haber tablas para cada pareja de valores y ;
As que nada ms hay tablas para la Normal estndar.que, adems aprovechan la simetra
de la campana de Gauss. Pro ya vimos que si X N ( ; 2 ) ; entonces X = + Z donde
Z N (0; 1) ; es decir, Z = (X
)=
N (0; 1) :
Ejemplo 1 Sea Z una variable aleatoria que se distribuye como Normal estndar. Calculemos las probabilidades siguientes usando las tablas:
1. P (Z

2:03) = 97:88

2. P (Z

1:69) = 1

3. P ( 0:62

0:9545 = 0:0455

1:98) = 0:9761

0:2676 = 0:708 5

Ejemplo 2 Sea X una variable que se distribuye como N ormal con media
varianza 2 = 16: Calculemos las siguientes probabilidades
1. P (X

102) = P

2. P (X > 96) = P

X 100
4
X 100
4

3. P (97 X < 105) = P


0:2266 = 0:667 8

102 100
4

>

96 100
4

= P (Z

0:5) = 0:6915

= P (Z >
X 100
4

97 100
4

<

= 100 y

1) = 1

105 100
4

0:1587 = 0:841 3

= P ( 0:75

Z < 1:25) = 0:8944

Ejemplo 3 La resistencia a romperse de cierto tipo de algodn (en kilos), es una variable
aleatoria que se distribuye como Normal N (165; 9) : Si una muestra tiene resistencia X <
162; se considera defectuosa. Cul es la probabilidad de que una muestra tomada al azar
sea defectuosa?
Buscamos entonces P (X < 162)
P (X < 162) = P

165
3

= P (Z <

<

162

165

3
P (X

1) = 1

1) = 1

0:8413 = 0:1587

Ejemplo 4 Sea X una variable que se distribuye como Normal con media
4: Encontrar c tal que P (X > c) = 2P (X c) :
P (X > c) = P

Z>

P (X

c) = P

3
2

3
2

=1
=

3
2

3
2

= 3 y varianza

As que buscamos c tal que


c

3
2

3
2

= 2

3
2

1
= 0:3333
3

Noten que c 2 3 debe ser negativo porque la funcin de distribucin evaluada ah es menor que
0.5 De hecho, es el negativo de un punto y en el que ocurra que P (Z > y) = 0:3333
c

3
2

0:43 ) c = 2:14

Teorema de De Moivre-Laplace
Recordarn que la Esperanza de una Binomial es np y su varianza es npq: Lo que De Moivre
y Laplace demostraron es que cuando se hace tender n a innito, la Distribucin Binomia
tiende a una Normal con media np y varianza npq: Vemos el Teorema.
Teorema 5 Teorema local de De Moivre Laplace. Si Xn se distribuye como binomial
de parmetros n y p y x es un entero no negativo, x n; entonces
(
)
1
(x np)2
1
p exp
P (X = x) p
npq 2
2npq
Es decir, que P (X = x)
= np y 2 = npq:

f (x) donde f es la densidad de una normal con parmetros

Ejemplo 6 Sea X una variable que se distribuye como Binomial con parmetros n = 50 y
p = 1=4: En este caso, np = 25
y npq = 75
: de acuerdo al resultado anterior
2
8
P (X = x) =
2
5

50
x
r

1
4
1
exp
3

3
4

50 x

4
75

25
2

Para ver qu tan buena es la aproximacin, tomemos algunos valores particulares. Para
x = 2; tenemos:
P (X = 2) =
P (X = 2)

50
(0:25)2 (0:75)48 = 7:7083 10 5
2
(
)
r
2
2 1
4
25
exp
2
= 3:6414
5 3
75
2

10

Aqu los errores de aproximacin son:


Error absolt
Error relat

= 3:6414 10 4 7:7083 10
2:870677 10 4
=
= 3:724
7:7083 10 5
8

= 2:87067

10

0:000287

Ahora veamos la aproximacin para un valor x ms cerca de la media


x = 10:

= 12:5; por ejemplo,

50
(0:25)10 (0:75)40 = 0:098518
10
(
)
r
2
2 1
4
25
exp
10
= 0:09336
5 3
75
2

P (X = 10) =
P (X = 10)
En este caso, los errores son:
Error absolt

= 0:09336 0:098518 = 5:158


5:158 10 3
=
= 0:0523556
0:098518

Error relat

10

0:00516

As que, en el primer caso el error absoluto es menor, pero el relativo mucho mayor que
en el segundo, es decir, una nornal no brinda el mismo tipo de aproximacin para todos los
posibles valores de X:
Teorema 7 Teorema integral de de Moivre Laplace. Sean a y b nmeros reales, a < b;
y n un natural. Si Xn se distribuye como binomial con parmetros n y p 2 (0; 1) ; entonces
lim P

n!1

Xn
a< p

np
<b
npq

1
=p
2

z 2 =2

dz

Es decir, si hacemos tender el nmero de experimentos n a innito, dejando ja p; la variable


Binomial Xn tiende a distribuirse como una Normal con media = np y 2 = npq:
Ejemplo 8 Un productor de focos sabe que el 5% de su produccin est defectuosa. En
su promocin de ventas, asegura que en cada envo de 10,000 focos no habr ms de
defectuosos y se compromte a devolver el costo total de la entrega si esa cantidad es rebasada.
De qu tamao debe ser para que en promedio, no tenga que pagar ms del 1% de los
envos?
Se trata de una Binomial donde n = 10; 000; p = 0:05 y buscamos tal que p (X > ) 0:01:
Usando la aproximacin Normal, tenemos
P (X > )

P
= 1

As que buscamos

np
500
X np
> p
=P Z> p
p
npq
npq
475
500
p
= 0:01
P Z
475

tal que
P

a 500
p
475

a 500
= 0:99 ) p
475

2:33

De donde
550:78: De manera que si asegura que en 10,000 focos no habr ms de 551
defectuosos, en promedio, tendr que pagar a lo ms el 1% de los envos.

Distribucin exponencial
Recordemos que la distribucin (discreta) Poisson est dada por
x

1
x!

fX (x) = P (X = x) =

si x 2 f0; 1; 2; : : : g
en otro caso

e
0

Vimos que esta distribucin sirve para modelar el nmero de ocurrencias de un evento en
una unidad de tiempo y construimos un variable aleatoria Nt = el nmero de ocurrencias en
el intervalo [0; t) : Bajo ciertas condiciones, Nt se distribuye como una Poisson con parmetro
t; donde es el promedio de ocurrencias por unidad de tiempo. Estas condiciones se pueden
resumir en:
a) Empezamos a contar en cero: N0 = 0:
b) El nmero de ocurrencias en un intervalo I; depende slo de su longitud.
c) El nmero de ocurrencias en un intervalo es independiente de el nmero de ocurrencias
en intervalos ajenos.
d) Para t pequeo, P (Nt = 1) es positiva y P (Nt

2) es despreciable.

Tenemos entonces que


( t)k
e t
k!
Ahora vamos a denir una nueva variable aleatoria relacionada con lo anterior. Para eventos
que ocurren en el tiempo con las mismas condiciones de la Poisson, tomemos una variable
aleatoria X que indica el tiempo desde t = 0 hasta la primera ocurrencia del evento.
P (Nt = k) =

Es una variable aleatoria absolutamente continua, porque el tiempo que transcurre puede
tomar cualquier valor real positivo.Veamos cmo es su funcin de densidad: Empecemos por
la de distribucin:
FX (t) = P (X t) = 1 P (X > t)
El evento [X > t] ocurre si y slo si el evento [Nt = 0] ; es decir, el tiempo hasta la primera
ocurrencia es mayor que t si hasta t no ha habido ninguna ocurrencia.
P (X > t) = P (Nt = 0) = e

de donde obtenemos la funcin de distribucin de nuestra variable X :


FX (t) = 1

para t > 0: Derivando, llegamos a la funcin de densidad


fX (t) =
donde el parmetro

e
0

si t 0
en otro caso

es el promedio de ocurrencias por unidad de tiempo.


10

Denicin 9 Decimos que la variable aleatoria X tiene distribucin exponencial de parmetro


, cosa que se escribe X exp ( ) ; si
x

e
0

fX (x) =

si x 0
en otro caso

Veamos que se trata de una funcin de densidad. Ntese que sus imgenes son positivas para
cualquier > 0:
Z
Z
1

fX (x) dx =

dx =

x 1
0

= 1:

La distribucin exponencial (tiempo antes de la primera ocurrencia) es la expresin continua


de la distribucin geomtrica (nmero de fracasos antes del primer xito). Igual que esta
ltima, es una funcin decreciente:

<Faltan grcas>
Como la geomtrica, la funcin exponencial es desmemoriada:
Proposicin 10 Si X es una variable aleatoria que se distribuye como exponencial con
parmetro > 0; entonces
P (X > t + sjX

para s y t reales positivos.

t) = P (X > s)

Demostracin.
P (X > t + sjX

P ([X > s + t] \ [X t])


P (X > s + t)
=
P (X t)
P (X t)
(t+s)
e
=
= e s = P (X > s) :
e t

t) =

Esperanza de una exponencial: Usemos la funcin generadora de momentos


Z 1
1
Xt
(t) = E e
e ( t)x dx =
e ( t)x =
=
t
t
0
0
De manera que
E (X) =

d (t)
dt

=
t=0

t)

t=0

Ejemplo 11 Si el tiempo en aos que funciona un radio de cierta marca tiene distribucin
exponencial con parmetro = 18 ; cul es la probabilidad de que un radio que se compr
usado funcione 8 aos ms?
Sea X el tiempo de duracin del radio. Buscamos
P (X > t + 8jX

t) = P (X > 8) = e

11

=e

= 0:3679

Ejemplo 12 La duracin X de un componente electrnico, es una variable aleatoria exponencial. Hay dos porcesos para su fabricacin. El proceso I brinda una duracin esperada
de 100 hrs y tiene un costo unitario de c pesos. El proceso II brinda una duracin esperada
de 150 horas y el costo unitario es de 2c pesos. Si un componente dura menos de 200 horas,
el productor tiene un prdida que estima en k pesos. Qu proceso de produccin conviene
ms?
La funcin costo para cada proceso es una funcin de la variable aleatoria X (duracin del
mismo). Para el proceso I es
CI (X) =

c
si X > 200
c + k si X 200

CII (X) =

2c
si X > 200
2c + k si X 200

y para el proceso II es

Sabemos que, cuando se usa el proceso I; E (X) =


costo esperado en ese caso es

= 100; es decir,

1
:
100

Entonces, el

E (CI (X)) = cP (X > 200) + (c + k) P (X 200)


= ce 200=100 + (c + k) 1 e 200=100
= ce 2 + (c + k) 1 e 2 = k 1 e 2 + c
Para el proceso II; E (X) = 150 )

= 1=150 y el costo esperado es

E (CII (X)) = 2cP (X > 200) + (2c + k) P (X 200)


= ce 200=150 + (c + k) 1 e 200=150
= 2ce

4=3

+ (2c + k) 1

4=3

=k 1

4=3

+ 2c

Para comparar los costos esperados, tomemos la dieferncia entre ellos


E (CII (X))

E (CI (X)) = k 1

= c+k e

4=3
2

+ 2c
e

4=3

k 1
c

+c

0:13k

De manera que si c > 0:13k conviene ms el proceso I, si c < 0:13k conviene ms el proceso
II y si se tiene la igualdad, da lo mismo.
Ejemplo 13 Sean T1 y T2 variables aleatorias independientes ambas con distribucin exponencial de parmetros 1 y 2 respectivamente. Cmo se distribuye T = min fT1 ; T2 g? Para
verlo, calculemos
P (T > t) = P (min fT1 ; T2 g > t) = P (T1 > t; T2 > t)
= P (T1 > t) P (T2 > t) = e 1 t e 2 t = e ( 1 +
Es decir, T = min fT1 ; T2 g se distribuye como exponencial con parmetro

12

2 )t

2:

Distribucin gama
Hay todava otra sitribucin que involucra a la funcin exponencial. Esta es una extensin
de la anterior. En las mismas condiciones de la distribucin exponencial, sea X la variable
aleatoria que indica el tiempo desde t = 0 hasta la r sima ocurrencia del evento. Veamos
cmo es su funcin de distribucin
FX (t) = P (X

t) = 1

P (X > t)

Obsrvese que el evento [X > t] ocurre si en el intervalo [0; t] hay menos de r ocurrencias, es
decir
r 1
r 1
X
X
1
P (X > t) =
P (Nt = k) =
( t)k e t
k!
k=0
k=0
Entonces, la funcin de distribucin de X es

r 1
X
1
( t)k e
k!
k=0

FX (t) = 1

Para obtener la funcin de densidad, derivamos:


fX (t) =

dFX (t)
d
=
dt
dt

d
=
dt
=
=
=

r 1
X
d
dt
k=1
r 1
X

k=1
r 1
X
k=1

=
=

r 1
X
1
e
k!
k=1

1)!

1
( t)k e
k!

1
e
k!

1
e
k!

r 1
X

( t)

k=1

r 1
X

( t)k

( t)
t

1
e
k!

( t)k +

( t)r

(k

r 2
X
1
e
k!
k=1

k=2

r 1
X
1
e
k!
k=1

(r

r 1
X
1
( t)k e
k!
k=1

r 1
X
1
( t)k e
k!
k=0
!

(r

1)!

k ( t)k

1
(k

1)!

1
1)!

e
t

( t)k

( t)k

( t)k

t r r 1

As que, la funcin de densidad de una variable que indica el tiempo transcurrido desde t = 0
hasta la r sima ocurrencia de un evento tipo Poisson, es
fX (x) =
y sus parmetros son

1
(r 1)!

r r 1

x
0

y r:
13

si x 0
en otro caso

Ejemplo 14 En una estacin metereolgica se cuenta con un aparato de medicin cuyo


tiempo de vida se distribuye como exponencial y que tiene un tiempo promedio de vida de
1,000 horas. Supongamos que se van a utilizar 10 de estos aparatos en forma consecutiva,
cada uno despus de que el anterior deje de funcionar.
1. Calcular la probabilidad de que despus de 10,000 horas todava funcione alguno.
2. Si despus de 5,000 horas todava funciona algn aparato, calcular la probabilidad de
que alguno siga funcionando despus de 10,000 horas adicionales.
Sea X el tiempo total de vida de los 10 aparatos. Entonces X se distribuye como gama con
parmetros = 0:001 y r = 10:
1.
0:00110
P (X > 10; 000) =
9!
0:00110
=
9!
=
=
=
=
=

x9 e

0:001x

dx

10;000

"

e 0:001x
x9
0:001

1
+
0:001
10;000

x8 e

0:001x

10;000

dx

Z
0:0019
0:0019 1
9
0:001(10;000)
10; 000 e
+
x8 e 0:001x dx
9!
9!
10;000
9
9 Z 1
10 10 0:001
x8 e 0:001x dx
e
+
9!
9!
10;000
"
#
Z 1
9
9
0:001x 1
10 10 0:001
e
1
e
+
x8
+
x7 e 0:001x dx
9!
9!
0:001 10;000 0:001 10;000
Z
109 10 0:0018
0:0018 1
8
10
e
+
10; 000 e
+
x7 e 0:001x dx
9!
9!
9!
10;000
9
8
8 Z 1
10 10 10 10 0:001
e
+
e
+
x7 e 0:001x dx
9!
9!
9!
10;000

Repitiendo el proceso de integracin por partes, se obtiene nalmente


P (X > 10; 000) =

10

9!

109 + 108 + 107 +

+ 10 + 1 = 0:45793

2.
P (X > 15; 000)
P (X > 5; 000)
R
0:00110 1
x9 e 0:001x dx
9!
15;000
= 0:00110 R 1
x9 e 0:001x dx
9!
5;000
= 0:07215

P (X > 15; 000jX > 5; 000) =

La funcin gama tiene grcas de las que suben hasta cierto punto y luego bajan:
14

<Faltan grcas>
La distribucin gama se generaliza al caso en que r no es un natural sino cualquier real (reemplazaremos r por ). Con esta generalizacin se pierde un poco el sentido de la denicin de
la variable aleatoria (tiempo transcurrido hasta la
sima ocurrencia, donde 2 R) pero
se obtiene una distribucin que guarda una relacin importante con la Normal. En la tarea
van a demostrar que si X N (0; 1) ; entonces X 2 Gama ( = 1=2; = 1=2) :
Para hacer esta generalizacin requerimos usar en el denominador una funcin que cuando se
aplique a naturales nos de el factorial que tenemos en la funcin fX (x) = (r 11)! r xr 1 e x :
Hay una funcin as que se encuentra uno en Clculo y que se conoce como la funcin gama,
denida por
Z 1
x 1 e x dx
( ) =
0
Z 1
1
x 1
x 2 e x dx
=
x e 0 +(
1)
0

= (

1) (

Adems
(1) =

1)

e x dx = 1

As que, para r natural

(r) = (r
Denicin 15 Sean

1)!

reales positivos. Denicmos la funcin de densidad gama como

fX (x) =

1
( )

donde
( )=

x
0
Z

si x 0
en otro caso

e x dx:

Veriquemos que es densidad


Z 1

fX (x) dx =

( )

Tomando u = x; es decir, x = u=
Z 1
fX (x) dx =
(
1
(
=
(

dx

y dx = du= ; obtenemos
Z 1
Z 1
1
1
1
u
u e du =
u
) 0
( ) 0
)
=1
)

Vamos a probar una propiedad de la funcin


Proposicin 16 Sea
p
1
=
Entonces
2

du

( ) que les ser til para la tarea:

: R ! R la funcin gama (de clculo) denida anteriormente.


15

Demostracin.

1
2

1=2

e x dx

Para que el integrando se parezca la funcin ' de una normal estndar, hagamos el cambio
de variable x = 12 u2 ; dx = udu: Obtenemos
1
2
Sabemos que
Por lo tanto,

R1

e
1

u2 =2

du =

u2
2

1=2

u2 =2

p Z
udu = 2

u2 =2

2 y, por la simtra del integrando,


1
2

du

p p
p
2 2
=
=
:
2

R1
0

u2 =2

Esperanza de una distribucin gama: Usando la funcin generadora


Z 1
Z 1
(
t)
1
x( t)
(t) =
x e
dx =
x 1e
( ) 0
t
(
)
0
=

x(

du =

t)

2 =2:

dx

De aqu que
E (X) =

d
dt

=
t=0

Ntese que tambin se puede ver como suma de


valor esperado 1 :

16

t)

1
t=0

exponenciales, cada una de las cuales tiene

You might also like