Professional Documents
Culture Documents
O
K
R
A
M
E
D
S
CADENA
UNIDAD 4
PROCESO ESTOCSTICO
Una sucesin de observaciones X1, X2, , Xn se denomina proceso
estocstico.
Si los valores de estas observaciones no se pueden predecir
exactamente, pero se pueden especificar las probabilidades para los
distintos valores posibles en cualquier instante de tiempo.
PROCESO ESTOCSTICO
X1: variable aleatoria que define el estado
inicial del proceso
PROCESO ESTOCSTICO
PROCESO ESTOCSTICO
PROCESO ESTOCSTICO
El
CADENAS DE MARKOV
Una cadena de Markov es una serie de eventos, en la cual la probabilidad
de que ocurra un evento depende del evento inmediato anterior. Las
cadenas de este tipo tienen memoria. "Recuerdan" el ltimo evento y esto
condiciona las posibilidades de los eventos futuros.
Esta dependencia del evento anterior distingue a las cadenas de Markov
de las series de eventos independientes, como tirar una moneda al aire o
un dado.
CADENAS DE MARKOV
El juego de blackjack es un ejemplo en el que el pasado condiciona al
futuro. Conforme se van jugando las cartas, las probabilidades en las
siguientes manos se van modificando. Las posibilidades en el juego
dependen del estado o las condiciones en que se encuentre en el monte.
CADENAS DE MARKOV
En los negocios, las cadenas de Markov se han utilizado para analizar los
patrones de compra de los consumidores, para pronosticar las
concesiones por deudores que no pagan a tiempo, para planear las
necesidades de personal, para analizar el reemplazo de equipo, entre
otros.
CADENAS DE MARKOV
El anlisis de Markov, llamado as en
honor de un matemtico ruso Andrei
Andreyevich Markov que desarrollo el
mtodo en 1907, permite encontrar la
probabilidad
de
que
un
sistema
se
CADENAS DE MARKOV
Una cadena de Markov es un proceso estocstico en el que si el estado
Futuro
Pasado
Presente
Propiedad Markoviana
Futuro
Presente
CADENAS DE MARKOV
La probabilidad del estado futuro Xn+1 no depende de los estados
anteriores X1, , Xn-1, y solamente depende del estado actual Xn.
RESUMIENDO
Un proceso de Markov finito tiene las siguientes caractersticas
generales:
1. Es un proceso estocstico
2. Tiene la propiedad Markoviana
Propiedad de Markov: conocido el estado del proceso en un momento
dado, su comportamiento futuro no depende del pasado. Dicho de otro
modo, dado el presente, el futuro es independiente del pasado
EJEMPLO
El estado de una mquina puede describirse como una cadena
de Markov.
EJEMPLO
Espacio paramtrico:
Espacio de estados:
PROBABILIDADES DE TRANSICIN
Las
cadenas
de
Markov
estn
completamente
PROBABILIDADES DE TRANSICIN
Slo trabajaremos con cadenas de Markov homogneas en el tiempo,
Donde
MATRIZ DE TRANSICIN
Los se agrupan en la denominada matriz de transicin de la cadena de
Markov:
n+1
n
Una matriz que cumpla estas dos propiedades se llama matriz estocstica
MATRIZ DE TRANSICIN
Los se agrupan en la denominada matriz de transicin de la cadena de
Markov:
+
=1
Espacio paramtrico:
0.1
0.9
0
0.3
0.7
EJERCICIO
Determine y resuelva dos ejemplos en
equipo donde se pueda aplicar la matriz de
transicin.
(transiciones).
Se observa que
EJEMPLO
El departamento de estudios de mercado de una fbrica estima que el 20%
de la gente que compra un producto un mes, no lo comprar el mes
siguiente.
Adems, el 30% de quienes no lo compren un mes lo adquirir al mes
siguiente.
En una poblacin de 1000 individuos, 100 compraron el producto el primer
mes.
Cuntos lo comprarn dentro de dos meses?
EJEMPLO
0.80
Compran
0.20
0.30
No compran
0.70
EJERCICIO
1. En un pueblito el clima puede cambiar de un da para otro, considere slo dos estados
del tiempo:
Clima seco
Clima hmedo
a) El diagrama de transicin
b) La matriz de transicin
EJERCICIO (SOLUCIN)
a) El diagrama de transicin
0.2
0.8
Seco
Hmedo
0.6
b) La matriz de transicin
Espacio de estado:
0.4
EJERCICIO
2. El valor de una accin flucta da con da. Cuando la bolsa de valores se
encuentra estable, un incremento en un da tiende a anteceder una baja el da
siguiente, y una baja por lo regular es seguida por un alza. Podemos modelar
estos cambios en el valor mediante un proceso de Markov con dos estados, el
primer estado consistente en que el valor se incrementa un dia dado, el
segundo estado definido por la baja. (la posibilidad de que el valor permanezca
sin cambio se ignora) suponga que la matriz de transicin es la siguiente:
EJERCICIO
Cambio de maana
Cambio de hoy
EJERCICIO (SOLUCIN)
R= 24 % de probabilidad