You are on page 1of 87

Captulo 6

Generacin de
Variables Aleatorias
El punto de partida de todos los Mtodos que
estudiaremos a continuacin es que disponemos de un
buen generador de nmeros aleatorios.
Mtodos
1.- Inversin
2.- Aceptacin - Rechazo
3.- Composicin
4.- Cuociente de Uniformes
5.- Transformaciones
6.- Especficos
Generacin de Variables Aleatorias
Mtodo de Inversin:
Este mtodo sugiere que es posible muestrear una v.a.
continua X, conociendo su funcin de Distribucin F.
Sea X v.a.c. uniforme con F continua y no decreciente en
(0,1) y sea U v.a.c uniforme en (0,1). Entonces la v.a.c.
X= F
-1
(U), tiene una distribucin F.
Algoritmo
P
1
: Generar U ~ U(0,1)
P
2
: Definir X = F
-1
(U)
P
3
: Generar la salida X
Generacin de Variables Aleatorias
Ej 1: X v.a.c. ~ W(o,1) i.e. F
x
(x) = 1 - , x > 0
Algoritmo
P
1
: Generar U ~ U(0,1)
P
2
: Definir X = F
-1
(U) = [-ln U]
1/o

P
3
: Generar la salida X
Mtodo Aceptacin-Rechazo
Cuando no se conoce de forma explcita la funcin de
Distribucin F [Ver I(o,|)]. Se puede usar el Mtodo A-R
introducido por Von Neumann (1951)

o
x
e

Generacin de Variables Aleatorias


Supongamos que la funcin de densidad f de X puede
aproximarse por funcin de densidad g tal que :


Mtodo A-R
P
1
: Generar X ~ g
P
2
: Generar U ~ U(0,1) y U
P
3
: Generar la salida X
< < e s a con R x x g a x f 1 ) ( ) (

s
1
) (
) (
P no
X si
x ag
x f
Mtodo de Aceptacin-Rechazo
OBS:
(1) El mtodo equivale a generar valores Y ~ U[0, a g(x)] y
aceptar si Y s f(x)
(2) Cada iteracin se acepta con probabilidad 1/a
(3) Eficiencia del mtodo es 1/a
(4) El nmero de iteraciones antes de aceptar sigue una
ley geomtrica de razn 1/a
(5) El nmero esperado de iteraciones es a
Mtodo de Aceptacin-Rechazo
Ejemplo: Generar X v.a.c. ~ I(o,1) , o > 0






P
1
: Generar X ~ g
P
2
: Generar U ~ U(0,1) , U
P
3
: Generar la salida X

s
1
) (
) (
P no
X si
x ag
x f
1 0 ; ) (
) (
) (
1
< <
I
=
+

o
o
o
x I
e X
x f
R
x
x
) ( ) ( ) (
) , 1 [
1
) 1 , 0 [
1
1
x I e x I X x g
x
c c

+ =
o
) ( ) (
) (
) (
) , 1 [
1
) 1 , 0 [
x I X x I e
x ag
x f
x


+ =
o
donde c = 1/o + 1/e
Algoritmo
Mtodo de Aceptacin-Rechazo
Supongamos que la distribucin a muestrear es una
mezcla

donde g(x/y) es una familia de densidades parametrizada
por y, con funcin de distribucin H
El mtodo de Composicin consiste en generar un valor y
de H y un valor de X de g(x/y)
Algoritmo:
P
1
: Generar Y ~ H
P
2
: Generar X ~ g(-,y)
P
3
: Generar la salida X
}
=
R
dHy y x g x f ) / ( ) (
Mtodo de Composicin
Ej: Generar una mezcla de Exponenciales
Supongamos que X/Y = y ~ Exp(y)





El muestreo de Y, y de X/Y se puede efectuar por
inversin.
) ( ) / (
) , 0 [
x I ye y x g
x y


=
1 ) ( 1 ) (
) , 1 (
> =

n y I y y H
n
dy e y n x f
xy n

}
=
1
) (
Mtodo de Composicin
Algoritmo:

P
1
: Generar U
1
, U
2
~ U(0,1)
P
2
: Generar Y = U
1
1/n

P
3
: Hacer X = -(1/y) ln U
2

P
4
: Generar la salida X
Mtodo de Composicin
Sean (U,V) vec.a. o Uniforme en disco unitario en tal caso
(U/V) o sigue una distribucin de Cauchy. Es posible
muestrear otras distribuciones como cuociente de
distribuciones uniformes sobre R?
Proposicin 4.1 Sea h una funcin no negativa con



C
h
tiene rea finita. Si (U,V) se distribuye de manera
uniforme sobre C
h
. Entonces X = U/V tiene densidad h/(}h)
{ } ) ( 0 : ) , (
0
u
v
h
h u v u C
h o
s s =
< <
}

Sea
Mtodo de Cuociente de Uniformes
Dem : Haciendo cambio de variables u=u y x=v/u el rea de
C
h
es


Es finita por hiptesis. La densidad de (U,V) es 1/C
h
en su
soporte. (U,X) tiene densidad u/ reaC
h
en su soporte y X
tiene distribucin marginal.
} } } } }


= = dx x h ududv dudv
h
C
x h
) (
2
1
) (
0
}
}
= =
) (
0
) (
) (
2
) (
x h
h h
dx x h
x h
reaC
x h
du
reaC
u
Mtodo de Cuociente de Uniformes
Ejemplo: Tomemos
Sea
Supongamos que (U,V) ~ Uniforme en C
h

Entonces X =V/U tiene densidad h / C
h


o bien [Cauchy]


R x
x
x h e
+
=
2
1
1
) (

)
`

+
s s =
2
) ( 1
1
0 : ) , (
u
v
h
u v u C
|
.
|

\
|
+
=
2
1
1 1
) (
x
x f
t
Mtodo de Cuociente de Uniformes
Algoritmo:

Hasta que (U,V) e C
f


P
1
: Generar U
1
, U
2
~ U(0,1)
P
2
: U = U
1
V = 2 U
2
-1
P
3
: Generar la salida X = V/U


Mtodo de Cuociente de Uniformes
En ocasiones es posible usar transformaciones entre v.a.
de manera que si sabemos generar una de ellas podemos
generar la otra
Ejemplo 1: Generacin Log-Normal
Supongamos que disponemos de un buen generado
de v.a. Y normales. Sabemos que si X es una Log-Normal,
Y = log X es Normal.
Generar Y ~ Normal
Salir X = Exp(Y) ~ Log-Normal

Transformaciones
Ejemplo 2 : Generacin de la Distribucin I(o,|)
Supongamos que disponemos de un generador I(o,1).
Sabemos Y ~ I(o,1), entonces [Y/|] ~ I(o,|)
Por tanto
P
1
: Generar Y ~ I(o, |)
P
2
: Generar salida X = Y/|

Transformaciones
Mtodos Especficos
Normales
El mtodo ms conocido para generar Normales es el de
Box-Muller (1958). Ellos que generan un par de variables
estndares Normales e Independientes (X,Y).
La funcin de densidad de (X,Y) es



|
|
.
|

\
|
+
=
2
) (
2
1
) , (
2 2
y x
Exp y x f
t
Mtodos Especficos
Sean R, u las coordenadas polares de (X,Y)
R
2
= X
2
+ Y
2
tan u = (Y/X)
la funcin de densidad de (R, u) es
g(r, u) =
en R
+
x (0,2t) con g
1
(u) =
g
2
(r) = ~ exp(-1/2)
con R y u independiente.
{ } | | ) ( ) (
2
exp
2
1
2 1
2
r g g
r
r =

u
t
) (
2
1
) 2 , 0 (
u
t
t
I

2
) 2 (
_
{ } ) (
2
exp
2
r I
r
r
R+

Mtodos Especficos
R se genera fcilmente por el mtodo de inversin

As si U
1
~ U(0,1) se tiene que
1 1
1
ln 2 ) ( U R U F = =

) 2 exp( 1 ) (
2
r r F
R
=
Mtodos Especficos
Algoritmo: [N(0,1)]

P
1
: Generar U
1
, U
2
~ U(0,1)
P
2
: Hacer R =
P
3
: Hacer X = R cos u =
Hacer Y = R sen u =
P
4
: Generar salida X e Y
) 2 cos( ln 2
2 1
U U t
) 2 sen( ln 2
2 1
U U t
2 1
2 , ln 2 U con U t u =
OBS: 1) Las Ecuaciones para obtener X e Y se
conocen como transformaciones de Box-Muller
Mtodos Especficos
Exponenciales: Generar X ~ ( Exp() )

Y ~ Exp( =1)
F(y) = 1 - Exp(-y) = U
Y = -ln U ~ Exp(1)

Entonces X = Y/ ~ Exp()
Mtodos Especficos
Algoritmo: [Exp()]

P
1
: Generar U ~ U(0,1)
P
2
: Hacer Y = -ln U
P
3
: Hacer X = Y/
P
4
: Generar salida X
Mtodos Especficos
Mtodo de cuocientes Uniformes con Contrastes
Sea h(x) = Exp(-x) I
R+
(x)

y la cadena de equivalencias


Si Se pueden obtener resultados
similares al caso del disco unitario
{ } ) / exp( 0 : ) , ( u v u v u C
h
s s =
) / exp( , 0 ) , (
2
u v u u C v u
h
s s e
u u v ln 2 s
] / 2 , 0 [ ] 1 , 0 [ e x C
h
c
Mtodos de cuocientes uniformes
con contrastes
El Algoritmo es:

Hasta V s 2U
1
lnU
1

Generar U
1
,U
2
~ U(0,1)
Hacer V = (2/e) U
2

Generar salida X = V/U
1

Mtodos de cuocientes uniformes
con contrastes
OBS: El mtodo de cuocientes de Uniformes resulta
competitivo, si usamos pre-contrastes sobre la condicin,
V s -2U ln U
recordemos que Exp(x) > 1 + x x > ln(1 + x)
Si cambiamos x = a U -1 tenemos
a U - 1 > ln a U = ln a + ln U
-ln U > [1 + ln a] - aU
Si cambiamos X = [b / U] - 1 resulta
-ln U s b/U - [1 + ln b]
Mtodos de cuocientes uniformes
con contrastes
As el algoritmo con pre-contrastes es

1.- Generar U
1
~ U(0,1) ; U
2
~ U(0, 2/e)
2.- Hacer X = V / U
1

3.- Si X/2 s 1 + ln a - a U
1
, ir a 6
4.- SI X/2 > b / U
1
- (1 + ln b) , ir a 2
5.- Si X/2 > -ln U
1
, ir a 1
6.- Generar salida X
Mtodos de cuocientes uniformes
con contrastes
Distribucin Gamma y Erlang
Dado X ~ I (o,1), | es un parmetro de escala.
Luego Y ~ I (o, |) usamos Y = X/ |
Cuando o e Z
+
tenemos una Distribucin de Erlang que
es la suma de o variables Exp(1) independientes.

Mtodos de cuocientes uniformes
con contrastes
Algoritmo

X = 0
Desde i = 1, 2, ..., o
Generar Y ~ Exp(1)
Hacer X = X + Y
Generar la salida X
Mtodos de cuocientes uniformes
con contrastes
OBS: 1) Cuando o es muy grande (o >40), usar una
aproximacin normal basada en T.C.L.
2) Cuando o no es un entero, digamos o< 1 se
puede usar el mtodo de A-R
3) Cuando o >1, existen varios algoritmos. Ver
Fishman (1996) : Monte Carlo : Concepts Algorithms and
Application Ed. Springer Verlag.
Uno de los algoritmos propuestos por Cheng and
Feast (1979) consiste en una versin modificada de
Mtodo de Cuociente Uniforme.
Generacin de Variables Aleatorias
Sea h(x) = X
o-1
Exp(-x)



Contraste 2 ln U (o-1) ln X - X
Siendo X = V/U


( ) | | ( ) | |
e
e e
h
x C
1
2
1
1 1
; 0 ; 0
+
+
=
o o
o o
Generacin de Variables Aleatorias
Algoritmo
1) Hasta que U
1
e (0,1)
Generar U
1
, U
2
~ U(0,1)
si o > 2,5 U
1
= U
2
+ C
5
(1 - 1,86U
1
)
2) Hacer W = C
2
U
2
/ U
1

3) Si C
3
U
1
+ W + W
-1
s C
4

Generar salida X = C
1
W
4) Si C
3
ln U
1
- ln W + W > 1 , ir a 1)
5) Generar salida X = C
1
W
1
2
3
) 6 (
2 1
, , 1
1
1

= = =

o
o o
o C C C
C
2
1
5 3 4
, 1

= + = o C C C
Generacin de Variables Aleatorias
Distribucin Chi-Cuadrado
Sea Z
1
, Z
2
, ..., Z
n
v.a.c.i.i.d. N(0,1).
Entonces X = Esto sugiere el mtodo de la
Transformacin i.e. Genera n v.a. Normales estndar y
sumarlas.
Otra aproximacin Luego usando los
resultados de la tenemos :

2
) (
1
2
~
n
n
i
i
Z _

=
) , (
2
1
2
2
n
I _
) 1 , (o I
Generacin de Variables Aleatorias
1.- Si n es par, se genera X mediante



2.- Si n es impar, entonces



OBS: Cuando n > 40 se puede utilizar la aproximacin
Normal
[
=
=
2
1
ln 2
n
i
i
U X
usando n/2 variable U
i
~ U(0,1)
2
1
2
ln 2 Z U X
n
i
i
+
(

=
[
=
se requiere adems la generacin de Z ~ N(0,1)
Generacin de Variables Aleatorias
Distribucin t-Student
Sea Z ~ N(0,1) e Y ~ _
2
(n)
v.a.c. Independientes. Entonces:



Para generar X, podemos generar Z e Y y luego usar la
transformacin X = Z /

n
Y
n
Y
Z
X = ~ t-Student con n g.l.
Transformaciones
Distribucin F
Sea Y
1
~ _
2
(n1)
e Y
2
~ _
2
(n2)
v.a.c. Independientes.
Entonces


Para generar X, podemos generar Z e Y y luego usar la
transformacin


) , (
2 2
1 1
2 1
~
/
/
n n
F
n Y
n Y
X
|
|
.
|

\
|
=
|
|
.
|

\
|
=
2 2
1 1
/
/
n Y
n Y
X
Transformaciones
Mtodos Genricos: Es posible modificar algunos mtodos
propuestos para v.a.c. y adaptarlos a v.a.d.
Mtodo de Inversin
Se F(u) = min {x: F(x) > u)}. Si U es una v.a.c. U(0,1),
entonces X = F(U) tiene distribucin F.
Ejemplo: Distribucin de Bernoulli
Sea X ~ B(1, p) , F(x) = (1 - p) p I
[1,[
(x)

<
>
=
p u si
p u si
u F
1 0
1 1
) (
Generacin de Variables Discretas
Algoritmo

1. Generar U ~ U(0,1)
2. Si U > 1 - p asignar X = 1
3. E.t.o.c. asigna X = 0
Generacin de Variables Discretas
Generacin de una variable discreta finita
Se desea simular una v.a.d. con funcin de cuanta
p
i
= P(X=i) y funcin de distribucin F
i


i 1 2 3 4
p
i
0,15 0,05 0,35 0,45
F
i
0,15 0,20 0,55 1,00

Generacin de Variables Discretas
Algoritmo
Generar U ~ U(0,1)
- si U < 0,15 X = 1
- si U < 0,20 X = 2
- si U < 0,55 X = 3
- si U > 0,55 X = 4
Generacin de Variables Discretas
Si ordenamos los p
i
en orden decreciente
obtenemos un algoritmo ms eficiente
Generar U ~ U(0,1)

- si U < 0,45 X = 4
- si U < 0,80 X = 3
- si U < 0,95 X = 1
-E.t.o.c. genera X = 2
Generacin de Variables Discretas
OBS. Para generar X v.a.d. con R
x
= 1, 2, ..., n y
distribucin equiprobable P(X=i)= 1 / n ; i = 1, n

o bien

Lo que se puede escribir
n
i
n
i
U si i X < < =
1
i nU i si i X < < = 1
| | 1 + = nU X
Generacin de Variables Discretas
Mtodo A-R
Se desea generar un v.a.d. X con cuanta {p
i
, i > 0}. Si
disponemos de un generador para v.a.d. Y con cuanta
{q
i
, i > 0 }. Para simular X, primero se simula Y y se acepta
el valor simulado con probabilidad p
i
/q
i

Sea a > 0 : p
i
/q
i
> a
Entonces el Mtodo A-R se obtiene mediante.
Algoritmo Hasta que U < pY / aqY
P
1
. Generar Y ~ {q
i
: i > 0 }
P
2
. Si U ~ U(0,1)
P
3
. Generar X = Y+
) (Soporte C i e
Mtodo de Aceptacin-Rechazo
Ejemplo: Usando el Mtodo de A-R simular una v.a.d. X
con cuanta
i 1 2 3 4 5
p
i
0,19 0,20 0,18 0,22 0,21
Sea Y v.a.d. uniforme en 1, 2, 3, 4 y 5 P(Y=i) = 1/5 ; i = 1,5
Consideremos a = mx p
i
/q
i
= 1,1
a q
i
= 1,1/ 5 = 0,22

Mtodo de Aceptacin-Rechazo
Algoritmo
Hasta que U
2
< pY / 0,22
P
1
. Generar U
1
, U
2
~ U(0,1)
P
2
. Hacer
P
3
. Genera salida X = Y


| | 1 5
1
+ = U Y
Mtodo de Aceptacin-Rechazo
Mtodo de la Composicin
Sea X
1
, X
2
v.a.d. con cuantas {p
i
} y {q
i
} respectivamente.
Supongamos que deseamos generar una nueva v.a.d. X
con funcin de cuanta


con o e (0,1).
Para generar X,
C i q p i X P
i i
e + = = ) 1 ( ) ( o o
Mtodo de Composicin
Algoritmo
P
1
. Generar U ~ U(0,1)
P
2
. Si U < o generar X
1

P
3
. Si U > o generar X
2
Ejemplo: Generar la v.a.d. X con cuanta
i 0 1 2 3 4 5
p
i
0,12 0,12 0,12 0,12 0,32 0,20
Mtodo de Composicin
X se puede escribir como composicin de dos v.a.d.
Uniformes X
1
, X
2
dadas respectivamente por


i 0 1 2 3 4 5
p
i
1
0,12 0,12 0,12 0,12 0,32 0,20
p
i
2
0 0 0 0 0,5 0,5


2 1
4 , 0 6 , 0
i i i
p p p + =
Mtodo de Composicin
Algoritmo

P
1
. Generar U
1
,U
2
~ U(0,1)
P
2
. Si U
1
< 0,6 generar X=
P
3
. Si U
1
> 0,6 generar X

=
| |
2
5U
| | 4 2
2
+ U
Mtodo de Composicin
Mtodo Alias (Walter 1997)
Permite generar de manera eficiente v.a.d. Con soporte
finito. Supongamos que se desea generar la v.a.d. X con
funcin de cuanta P = { p
i
: i = 1,2,...,n }


donde Q
(k)
es una distribucin concentrada en a lo sumo
dos puntos {1,2,...,n}. La demostracin de esta
descomposicin se basa en:

=
1
1
) (
1
1
n
k
k
Q
n
P
Mtodo de Composicin
Lema: Sea P = { p
i
: i=1,2,...,n} funcin de cuanta
Entonces:
a) Existe i {1,2,...,n} tal que p
i
<

b) Para tal i, existe j con i = j tal que p
i
+ p
j
>
( )
1
1
n
( )
1
1
n
Transformaciones
Distribucin Binomial
Para generar una v.a.d. X ~ B(n,p)
independientes
Algoritmo
P
1
: Hacer X = 0
P
2
: Efectuar n rplicas
- Generar U ~ U(0,1)
Si U < p , Hacer X = X + 1
Si U > p , Hacer X = X + 0
P
3
: Generar salida X
) , 1 ( ~ ;
1
p B Z Z X
i
n
i
i
=
=
Mtodos Especficos
OBS: El Mtodo propuesto requiere de n nmeros
aleatorios y n comparaciones.
Un mtodo de inversin aleatorio es


[Frmula recursiva]
Sea
) (
) 1 )( 1 (
) (
) 1 ( i X P
p i
p i n
i X P =
+

= + =
) ( ; ) ( i X P F i X P P s = = =
Mtodos Especficos
Algoritmo
P
1
: Genera U ~ U(0,1)
P
2
: Hacer i = 0 , P = F = (1-p)
n

Hasta que U < F
Hacer P = P , F = F + P
i = i + 1
P
3
: Generar salida X = i
) 1 )( 1 (
) (
p i
p i n
+

Mtodos Especficos
Distribucin Poisson

Para generar la distribucin de Poisson P() con
pequeo, utilizando el mtodo de inversin.
P(X = i + 1) =
usando P = P(X = i) , F = P(X s i)
) (
) 1 (
i X P
i
=
+

Mtodos Especficos
Algoritmo
P
1
: Genera U ~ U(0,1)
P
2
: Hacer i = 0 F = P = Exp(-)
Hasta que U < F
Hacer P = P , F = F + P
i = i + 1
P
3
: Generar salida X = i
) 1 ( + i

Mtodos Especficos
Distribucin Geomtrica
Para generar una v.a.d. X ~ Geo(p), es posible discretizar
Y ~ exp(). Sea X = [y]
Entonces P[x = r] =P(r s Y < r +1), r=0,1,2,..
=
es la funcin de cuanta de una Geo(p=1-exp(-))
Tomando = -ln(1-p) X = ~ Geo(p)

)); 1 ( exp( ) exp( ) exp(
1
+ =
}
+
r r ds s
r
r

] [
) 1 ln(
ln
p
U

Mtodos Especficos
Distribucin Hipergeomtrica
Para generar una distribucin Hipergeomtrica H(m,n,p)
se efectan n extracciones sin reposicin de un conjunto
de m elementos de dos clases {p m e C
1
y m(1-p) e C
2
}
Algoritmo
P
1
: Hacer X = 0, C
1
= mp C
2
= m-C
1
P
2
: Repetir n veces
Generar U ~ U(0,1)
Si U s C
1
/m hacer X = X+1 , C
1
= C
1
- 1
sino , C
2
= C
2
- 1
Hacer m = m - 1
P
3
: Generar salida X
Mtodos Especficos
Distribuciones Multivariadas

Distribuciones Independientes
El caso ms simple lo constituye el de distribuciones
marginales independientes


con x = (x
1
, x
2
,...,x
p
) Basta con generar cada componente
X
i
, como univariante y salir con X = (X
1
, X
2
, ..., X
p
)
[
=
=
p
i
i x
x F x F
i
1
) ( ) (
Mtodos Especficos
Distribuciones Dependientes
Distribuciones Dependientes con condicionadas
disponibles. Utilizando la descomposicin
F(x) = F
1
(x
1
) F
2
(x
2
/ x
1
)... F(x
p
/ x
1
,x
2
,...,x
p-1
)
Si disponemos de las distribuciones
X
i
/
X1
, ..., X
i-1
i = 1,2,...,p
Algoritmo
P
1
: Desde i=1,2,...,p
Generar X
i
~ X
i
/ x
1
, ..., x
i-1
P
2
: Generar salida x = (x
1
,x
2
,...,x
p
)
Mtodos Especficos
Estadsticos de Orden
Para muestrear (X
(1)
, X
(2)
,...,X
(p)
), el estadstico de orden
asociado a m.a.s. X
1
,X
2
,...,X
p
de X. La forma obvia de
muestrear es hacerlo de (X
1
,X
2
,...,X
p
). Alternativamente,
podemos generar la muestra de orden. Por ejemplo, si
conocemos la inversa generalizada F, podemos generar
nmeros aleatorios (U
(1)
, U
(2)
,...,U
(p)
) y salir X
(i)
= F(U
(i)
).
Para ello es necesario generar una muestra ordenada de
nmeros aleatorios (U
(1)
, U
(2)
,...,U
(p)
) .
Mtodos Especficos
Algoritmo
P
1
: Generar U
(1)
, U
(2)
,...,U
(p)
~ U(0,1)
P
2
: Hacer U
(p)
= (U
p
)
1/p

U
(k)
= U
(k+1)
U
k
1/k

Mtodos Especficos
Distribuciones Discretas
Las distribuciones discretas multivariadas no difieren de las
univariadas. El soporte puede ser grande, pero los
mtodos, inversin, alias, etc. funcionan bien.
Ejemplo : Distribucin bivariada (X,Y) con soporte
{1,2,...,L}x{1,2,...,M} tenemos
P
xy
= P(X s x) + P(X=x, Y=y)
indexado en x.
Mtodos Especficos
Mtodos Especficos
Para generar X = (X
1
, X
2
,...,X
p
) ~ N(, E) se usa el mtodo
de descomposicin de Cholesky.
Sea E = L L
t
, para alguna matriz L.
Entonces si Z = (Z
1
, Z
2
,...,Z
p
) ~ N(0, I
p
)
la variable X = (, LZ) ~ N(, E)
Mtodos Especficos
Distribucin de Wishart
Para generar una v.a.c. W ~ W(n,E,A) para A = 0, si E = LL
t

y V = Z
i
Z
i
t
; Z
i
normales p-variantes N(0, I
p
) , i = 1,2,...,n
Entonces:
W = L V L
t
~ W (n,E,0)

=
n
i 1
Mtodos Especficos
Algoritmo
P
1
: Generar Z
ij
~ N(0,1) i = 1,2,...,n j=1,2,...,n
P
2
: Hacer V = Z
i
Z
i
t

P
3
: Hacer W = L V L
t

P
4
: Salida W

=
n
i 1
Mtodos Especficos
El algoritmo implica generar np normales estndar. Una
reduccin del esfuerzo de clculo se obtiene utilizando la
descomposicin de Bartlett.
En el caso no centrado (A = 0), A es una matriz simtrica
definida no negativa. Sea A = I I
t
su descomposicin de
Cholesky y u
1
, u
2
, ..., u
p
las filas de I.
Entonces, podemos escribir :


donde se genera W, similar al caso A = 0 usando np
normales estndares.

+ = =
+ + + =
n
p k
t t
k k
p
k
t
k k k k
L Z LZ LZ LZ W
1 1
) )( (
Mtodos Especficos
Distribucin Multinomial (p-dimensional).
Para generar la Distribucin Multinomial de parmetros
q
1
, q
2
, ..., q
p
X = (X
1
, X
2
, ..., X
p
) ~ M(n, q
1
,...,q
p
) con :


Como X
i
~ B(n, q
i
) i = 1,2,...,p
X
i
/ X
1
=x
1
,..., X
i-1
=x
i-1
, ~ B(n-x
1
...-x
i-1
, w
i
)

i = 2,3,...,p con w
i
=

p i n X q q
p
i
i
p
i
i i
,..., 2 , 1 , 0 , 1
1 1
= = > =

= =
1 2 1
...... 1


i
i
q q q
q
Mtodos Especficos
Entonces resulta el Algoritmo
P
1
: Hacer mientras m=n i=1, w=1, Xi = 0, i=1,...,p
Mientras m = 0
Generar X
i
~ B(m, q
i
/w)
Hacer m = m-X
i
, w =1 - q
i
, i = i+1
Mtodos Especficos
Generacin de Procesos Estocsticos
Generacin de Familias de v.a. {X
t
}
t eT
Comenzaremos con las cadenas de Markov homogneas.
Cadena de Markov en Tiempo Discreto
Para generar una cadena de Markov con espacio de estado S
y matriz de transicin P = [p
ij
] donde p
ij
= P(X
n+1
=j / X = i). La
forma ms simple de simular la transicin (n+1)-sima,
conocida X
n
, es generar X
n+1
~{px
nj
: j e S}
Mtodos Especficos
Alternativamente se puede simular T
n
, el tiempo hasta el
siguiente cambio de estado y, despus el nuevo estado
X
n+Tn
. Si X
n
= s, T
n
~ G(p
ss
) y X
n+Tn
tiene una distribucin
discreta con cuanta {p
sj
/ (1 - p
ss
) : j e S \ {s}}.
Para muestrear N transiciones de la cadena suponiendo
X
o
= i
o
Algoritmo
Hacer t=0, X
o
= i
o

Mientras t < N
Generar h ~ G(px
t
x
t
)
Generar X
t+h
~ {px
tj
/ (1 - px
t
x
t
) : j e S \ {s}}.
Hacer t=t+h
Mtodos Especficos
OBS. 1) La primera forma de simular una cadena de
Markov corresponde a una estrategia sincrnica, es
decir en la que el tiempo de simulacin avanza a
instantes iguales.
2) La estrategia asincrnica es ms complicada de
simular [Ver. B. Ripley 1996]
Mtodos Especficos
Cadenas de Markov en Tiempo Continuo
La simulacin asincrnica de cadenas de Markov en
tiempo continuo es sencilla de implantar.
- Las cadenas de Markov de Tiempo Continuo vienen
caracterizadas por los parmetros vi de las distribuciones
exponenciales de tiempo de permanencia en el estado i y
la matriz de transicin P; con p
ii
= 0; p
ij
= 1
- Sea P
i
la distribucin de la fila i-sima. Entonces si X
o
= i
o
,
para simular hasta T se tiene :

= j i
Mtodos Especficos
Algoritmo

Hacer t = 0, X
o
= i
o
, j = 0
Mientras t < N
Generar t
j
~ exp(vx
j
)
Hacer t = t + t
j

Hacer j = j + 1
Generar X
j
~ Px
j-1


Mtodos Especficos
Proceso de Poisson
En el Proceso de Poisson P(), el nmero de eventos N
T

en un intervalo (0,T) es P(T) y los N
T
~ U(0,T)
Algoritmo
- Generar N
T
~ P(T)
- Generar U
1
, ..., U
T
~ U(0,T)
Mtodos Especficos
OBS :
1) Para procesos de Poisson no homogneos, con
intensidad (t) y u(t) = (s) ds . Entonces
- Generar N
T
~ P(u(t))
- Generar T
1
, T
2
,..., TN
T
~

2) Los procesos de Poisson son un caso particular
de los procesos de renovacin. La forma de generar
los primeros se extiende a los procesos de
renovacin.

}
t
0
] , 0 [
) (
T
I
t

Mtodos Especficos
- Sean S
0
= 0, S
1
, S
2
, ... Los tiempos de ocurrencia
- T
i
= S
i
- S
i-1
los tiempos entre sucesos.
- Para un proceso de renovacin, los T
i
son v.a.i.i.d. segn
cierta distribucin t.
- Simular hasta el instante T.
Hacer S
0
= 0
Mientras S
i
< T
Generar T
i
~ t
Hacer S
i
= T
i
+ S
i-1

Hacer i = i + 1
Mtodos Especficos
Procesos no Puntuales (Movimiento Browniano)
- La simulacin de procesos (no puntuales) en tiempo
continuo es ms complicada que la simulacin de procesos
puntuales.0
- Una solucin es generar procesos en suficientes
instantes discretos y aproximar la trayectoria por
interpolacin.
Mtodos Especficos
Como ejemplo, consideremos el movimiento Browniano
con parmetro o
2

- X
0
= 0
- Para s
1
s t
1
s
2
s t
2
..... s s
n
s t
n
las v.a.
Xt
1
- Xs
1
, ..., Xt
n
- Xs
n
son independientes
- Para s < t, X
t
- X
s
~ N(0, (t-s) o
2
)
- Las trayectorias son continuas
Mtodos Especficos
Entonces para At fijo,
Hacer X
0
= 0
Desde i = 1 hasta n
Generar Y
i
~ N(0, (t-s) o
2
)
Hacer X
iAt
= X
(i-1)At
+ Y
i

Interpolar la trayectoria en {(iAt, X
iAt
)}
Otros ejemplos de Simulacin de Procesos continuos [Ver
B. Ripley 1987]
Mtodos Especficos
El Proceso de Gibbs
El creciente inters en los mtodos de cadenas de Markov,
se debe al uso en Inferencia Bayesiana del Muestrador de
Gibbs. [Geman (1984)]
Ejemplo: Sean (X,Y) v.a.d. Bernoulli con distribucin
x y P(X,Y)
0 0 p
1

1 0 p
2
p
i
= 1
0 1 p
3
p
i
> 0
1 1 p
4

Mtodos Especficos
P(X=1) = p
2
+ p
4
(Marginal)
P(X/Y=1) =
P(X=1/Y=1) =
Las Distribuciones condicionales

=
=
1
0
4
3
x p
x p
4 3
4
p p
p
+
|
|
.
|

\
|
= = = =
= = = =
=
) 1 / 1 ( ) 1 / 0 (
) 0 / 1 ( ) 0 / 0 (
x y P x y P
x y p x y P
A
yx
|
|
.
|

\
|
+ +
+ +
4 2
4
4 2
2
3 1
3
3 1
1
p p
p
p p
p
p p
p
p p
p
=
yx
A
Mtodos Especficos


Algoritmo
Escoger Y
0
= y
0
, j =1
Repetir
Generar X
j
~ X/Y = y
j-1

Generar Y
j
~ Y/X = x
j

j=j+1
Entonces {X
n
} define una cadena de Markov con matriz de
transicin
A = A
yx
A
xy

|
|
.
|

\
|
+ +
+ +
4 3
4
4 3
3
2 1
2
2 1
1
p p
p
p p
p
p p
p
p p
p
=
xy
A
Mtodos Especficos
Como las probabilidades p
i
> 0, la cadena es ergdica y
tiene distribucin lmite, que es la marginal de X
X
n
X ; Y
n
Y ; (X
n
, Y
n
) (X,Y)
OBS: 1) El procedimiento descrito se llama muestrador de
Gibbs [Gibbs Sampler] y nos proporciona una
cadena de Markov, con distribucin lmite deseada y
se puede generalizar.
Para muestrear un vector aleatorio p-variante
X = (X
1
, X
2
, ..., X
p
) con distribucin t, conociendo
las distribuciones condicionadas X
s
/X
r
, r = s
Mtodos Especficos
Sea t (x
s
/x
r
, r = s) Dist. Condicionada
El [Gibbs Sampler] en este caso es
- Escoger X
1
0
, X
2
0
,..., X
p
0
; j = 1
Repetir
Generar X
1
j
~ X
1
/ X
2
j-1
,..., X
p
j-1

Generar X
2
j
~ X
2
/ X
1
j
, X
3
j-1
,..., X
p
j-1

....
Generar X
p
j
~ X
p
/ X
1
j
, X
2
j
,..., X
p-1
j

j = j+1
Mtodos Especficos
Se puede verificar que X
n
= (X
1
n
, X
2
n
,..., X
p
n
) define una
cadena de Markov con Matriz de transicin
P
g
(X
n
, X
n+1
) =
Bajo condiciones suficientemente generales [Ver Roberts
Smith (1994)]
[
=
+ +
< >
p
j
n
j
n
j
n
i
i j X i j X x
1
1 1
) , ; ; / ( t
Mtodos Especficos
Ejemplo : Muestrear la densidad
t (x
1
/x
2
) =
siendo D = R
+
R
t (x
1
/x
2
) =
t (x
2
/x
1
) =

x
1
/x
2
~
x
2
/x
1
~ N(0, o
2
=(1/2x
1
))
) , ( )] 1 ( exp[
2 1
2
2 1
1
x x I x x
D
+
t
] exp[
2
2 1
x x
)] 1 ( exp[
2
2 1 ) (
) , (
2
2 1
x x
x
x x
+ =
t
t
] 1 exp[
2
2
x +
Mtodos Especficos
El muestreador Gibbs
Escoger x
2
0
; j = 1
Repetir
Generar X
1
j
~ exp[1+(x
2
j-1
)
2
]
Generar X
2
j
~ N(0, 1/2x
1
j
)
OBS: Las secuencias podran efectuarse en forma
aleatoria en lugar de usar la secuenciacin natural
Estudiar el Algoritmo de Metropolis-Hastings.
Mtodos Especficos

You might also like