You are on page 1of 3

UNIVERSIDAD MARIANO GÁLVEZ DE GUATEMALA

FACULTAD DE CIENCIAS ECONÓMICAS


AUDITORIA Y CONTADURIA PUBLICA
ING. BALTAZAR
ESTADISTICA II
QUINTO CICLO

(CADENAS DE MARKOV)

JOSUÉ DAVID MÉNDEZ VÁSQUEZ 2932-16-8402

SANTA LUCÍA COTZUMALGUAPA 19 DE MAYO 2018


CADENAS DE MARKOV

El estudio de los eventos, a través de las cadenas de Markov propone entonces, la


existencia de un valor estable de probabilidad de que el evento suceda en una
determinada forma y lo que se pretende es descubrir (o pronosticar) en el largo
plazo, como habrá de repetirse o presentarse. Cada vez que vuelva a suceder tal
evento, tenderá a estabilizarse; es decir a mantenerse con iguales o parecidos
valores de probabilidad.

Para poder operar las cadenas de Markov(denominadas así pues un valor de


probabilidad puede multiplicarse un sin número de veces por si mismo,
constituyendo de esa manera “una cadena”, se requiere de una matriz que muestre
los valores de probabilidad sobre un determinado evento o experimento inmediato
anterior.

La matriz de transición muestra las probabilidades de pasar de un estado a otro,


durante un experimento. Una matriz de transición se puede componer de dos o más
vectores de probabilidad. Cada fila es un vector de probabilidad y por tanto la suma
de sus elementos es siempre la unidad. Es decir que cada fila de la matriz de
transición la compone un vector cuyos elementos – no negativos- sumados
horizontalmente no pueden ser mayores ni menores de uno. (no olvide que el valor
de probabilidad así se expresa siempre; o sea con un valor entre cero y una unidad
o, cien por cien, la matriz a construir por tanto es “estocástica regular”

La denominación “estocástica” obedece a que es una matriz compuesta de vectores-


fila de probabilidad(o sea depende del azar) cuyos valores oscilan entre 0 y 1, y
además la suma de sus elementos tienen que ser la unidad 1, “regular” por cuanto
pueden modificarse – aunque sea levemente- todos los valores de los elementos
que los conforman, a medida que se multiplique por si mismos, pero siempre serán
positivos y no puede haber en la diagonal principal un uno( en cuyo caso no es
regular sino ”absorbente” El proceso estocástico finito en el que se verifica el
resultado de una prueba determinada, depende – como máximo- de la prueba
realizada inmediatamente antes recibe el nombre de cadena finita de Markov.

Existen muchos procedimientos para operar cadenas de Markov, sin embargo, el


mas sencillo es aquel que se utiliza un vector cuya ecuación fija o de distribución
probabilística estacionaria. El vector renglón de “n” componentes: x=(X1, X2,…Xn); o
denotado: P=(P1, P2,…Pn) es un vector de probabilidad si todos sus componentes
son no negativos y la suma de sus componentes es 1.

Para una matriz de transición de orden dos(2) por ejemplo, se puede expresar:

X,(1-x); ó P1, P2

1
La cadena de Markov identifica una secuencia de intentos de un experimento, si,
solo si, el resultado ultimo (n- ésimo) depende solo del resultado (n-1) ésimo ósea,
del inmediato anterior. Así por ejemplo: si la temperatura ambiente de hoy depende
de cómo estuvo el clima el día de ayer, entonces día observación y predicción, es un
problema de cadenas de Markov. Si la probabilidad de compra la misma marca de
auto, en su próxima elección depende solamente de la marca del vehículo que hoy
tiene, entonces el patrón de consumo demostrado, es un problema de cadenas
Markov.

Pero si la temperatura ambiente de hoy, depende de lo que ha sucedido a través del


comportamiento climático de los últimos tres o cinco días. Entonces, no es un
problema que pueda resolver con cadenas de Markov.

You might also like