You are on page 1of 37

probabilidad de que ocurra un evento depende solamente del evento inmediatamente anterior.

Esta caracterstica de falta de memoria recibe el nombre de propiedad de Markov.

Cadena simple biestable de Markov.

Recibe su nombre del matemtico ruso Andri Mrkov (1856-1922), que lo introdujo en 1907.1
Estos modelos estadsticos cuentan con un gran nmero de aplicaciones reales.

ndice
[ocultar]

1Definicin formal
2Notacin til
o 2.1Cadenas homogneas y no homogneas
o 2.2Probabilidades de transicin y matriz de transicin
o 2.3Vector de probabilidad invariante
o 2.4Clases de comunicacin
o 2.5Tiempos de entrada
o 2.6Recurrencia
o 2.7Periodicidad
3Tipos de cadenas de Mrkov
o 3.1Cadenas errticas
o 3.2Cadenas positivo-recurrentes
o 3.3Cadenas regulares
o 3.4Cadenas absorbentes
o 3.5Cadenas de Mrkov en tiempo continuo
4Aplicaciones
o 4.1Meteorologa
o 4.2Modelos epidemiolgicos
o 4.3Internet
o 4.4Simulacin
o 4.5Juegos de azar
o 4.6Economa y finanzas
o 4.7Gentica
o 4.8Msica
o 4.9Operaciones
o 4.10Redes Neuronales
5Referencias
6Bibliografa
7Enlaces externos

Definicin formal[editar]
En matemtica se define como un proceso estocstico discreto que cumple con la propiedad
de Mrkov, es decir, si se conoce la historia del sistema hasta su instante actual, su estado
presente resume toda la informacin relevante para describir en probabilidad su estado futuro.
Una cadena de Mrkov es una secuencia X1, X2, X3,... de variables aleatorias. El dominio de
estas variables es llamado espacio estado; el valor de Xn es el estado del proceso en el
tiempo n. Si la distribucin de probabilidad condicional de Xn+1 en estados pasados es una
funcin de Xn por s sola, entonces:

Donde xi es el estado del proceso en el instante i. La


identidad mostrada es la propiedad de Mrkov.

Notacin til[editar]
Cadenas homogneas y no homogneas[editar]

Una cadena de Mrkov se dice homognea si la


probabilidad de ir del estado i al estado j en un paso no
depende del tiempo en el que se encuentra la cadena,
esto es:

para todo n y para cualquier i, j.


Si para alguna pareja de estados y para algn tiempo n la
propiedad antes mencionada no se cumple diremos que
la cadena de Mrkov es no homognea.
Probabilidades de transicin y matriz de
transicin[editar]

La probabilidad de ir del estado i al


estado j en n unidades de tiempo es

,
en la probabilidad de transicin en un paso se omite
el superndice de modo que queda

Un hecho importante es que las


probabilidades de transicin en n pasos
satisfacen la ecuacin de Chapman-
Kolmogrov, esto es, para cualquier k tal que
0 < k < n se cumple que
donde E denota el espacio de estados.

Cuando la cadena de Mrkov es


homognea, muchas de sus propiedades
tiles se pueden obtener a travs de su
matriz de transicin, definida entrada a

entrada como
esto es, la entrada i, j corresponde a la
probabilidad de ir del estado i a j en un paso.
Del mismo modo se puede obtener la matriz
de transicin en n pasos como:

, donde .
Vector de probabilidad
invariante[editar]

Se define la distribucin inicial .

Diremos que un vector de probabilidad


(finito o infinito numerable) es invariante
para una cadena de Mrkov si

donde P denota la matriz de transicin de


la cadena de Mrkov. Al vector de
probabilidad invariante tambin se le
llama distribucin
estacionaria o distribucin de equilibrio.
Clases de comunicacin[editar]

Para dos estados i,j en el espacio de


estados E, diremos que de i se

accede a j (y se denotar ) si

para algn n,

si y entonces diremos
que i comunica con j y se denotar
ij.
La propiedad "" es una relacin de
equivalencia. Esta relacin induce
una particin en el espacio de
estados. A estas clases de
equivalencia las llamaremos clases
de comunicacin.
Dado un estado x, denotaremos a su
clase de comunicacin como C(x).

Diremos que un subconjunto C


del espacio de estados (al que
denotaremos E) es cerrado si
ningn estado de E-C puede ser
accedido desde un estado de C,

es decir, si para todo xC,


para todo yE-C y para todo
natural m>0.
Tiempos de entrada[editar]

Si , definimos el primer tiempo


de entrada a C como la variable
aleatoria

esto es, denota la primera vez


que la cadena entra al conjunto de
estados C.
Recurrencia[editar]
En una cadena de Mrkov con
espacio de estados E, si xE se

define y diremos que:

x es estado recurrente si .

x es transitorio si

x es absorbente si
Una clase de comunicacin
es clase recurrente si todos sus
estados son recurrentes.

Sea , si xEdiremos que:

x es cero-recurrente si
x es positivo-recurrente si

El real se interpreta como el


tiempo promedio de recurrencia.
Periodicidad[editar]

El periodo de un estado xE se
define como:

donde denota el mximo


comn divisor.

Si d(x)=1 diremos que x es


un estado aperidico.

Una cadena de Mrkov se


dice aperidica si todos sus
estados son aperidicos.

Tipos de cadenas de
Mrkov[editar]
Cadenas errticas[editar]
Una cadena de Mrkov se
dice irreducible si se cumple
cualquiera de las siguientes
condiciones (equivalentes entre
s):

1. Desde cualquier estado


de E se puede acceder a
cualquier otro.
2. Todos los estados se
comunican entre s.
3. C(x)=E para algn xE.
4. C(x)=E para todo xE.
5. El nico conjunto
cerrado es el total.
La cadena de Ehrenfest o
la caminata aleatoria sin barreras
absorbentes son ejemplos de
cadenas de Mrkov irreducibles.
Cadenas positivo-
recurrentes[editar]
Una cadena de Mrkov se
dice positivo-recurrente si todos
sus estados son positivo-
recurrentes. Si la cadena es
adems irreducible es posible
demostrar que existe un nico
vector de probabilidad invariante
y est dado por:

Cadenas
regulares[editar]
Una cadena de Mrkov se
dice regular (tambin primitiv
a o ergdica) si existe alguna
potencia positiva de la matriz
de transicin cuyas entradas
sean todas estrictamente
mayores que cero.
Cuando el espacio de
estados E es finito,
si P denota la matriz de
transicin de la cadena se
tiene que:

donde W es una matriz


con todos sus renglones
iguales a un mismo
vector de probabilidad w,
que resulta ser el vector
de probabilidad
invariante de la cadena.
En el caso de cadenas
regulares, ste vector
invariante es nico.
Cadenas
absorbentes[editar]
Una cadena de Mrkov
con espacio de estados
finito se dice absorbente
si se cumplen las dos
condiciones siguientes:

1. La cadena tiene
al menos un
estado
absorbente.
2. De cualquier
estado no
absorbente se
accede a algn
estado
absorbente.
Si denotamos como A al
conjunto de todos los
estados absorbentes y a
su complemento
como D, tenemos los
siguientes resultados:

Su matriz de
transicin siempre
se puede llevar a
una de la forma

donde la submatriz
Q corresponde a los
estados del conjunto
D, I es la matriz
identidad, 0 es la
matriz nula y R
alguna submatriz.

, esto es,
no importa en
donde se
encuentre la
cadena,
eventualmente
terminar en un
estado
absorbente.
Cadenas de
Mrkov en
tiempo
continuo[editar]
Si en lugar de
considerar una
secuencia
discreta X1, X2,...,
Xi,.. con i indexado
en el

conjunto de
nmeros naturales,
se consideran las
variables
aleatorias Xtcon t qu
e vara en un
intervalo continuo

del conjunto de
nmeros reales,
tendremos una
cadena en tiempo
continuo. Para este
tipo de cadenas en
tiempo continuo
la propiedad de
Mrkov se expresa
de la siguiente
manera:

tal

que
Para una cadena de
Mrkov continua con
un nmero finito de
estados puede
definirse una matriz
estocstica dada
por:

La cadena se
denomina

homognea si .
Para una cadena de
Mrkov en tiempo
continuo homognea
y con un nmero
finito de estados
puede definirse el
llamado generador
infinitesimal como:2

Y puede
demostrarse que la
matriz estocstica
viene dada por:
Aplicaciones[
editar]
Meteorologa[edi
tar]
Si consideramos el
tiempo atmosfrico
de una regin a
travs de distintos
das, es plausible
asumir que el estado
actual slo depende
del ltimo estado y
no de toda la historia
en s, de modo que
se pueden usar
cadenas de Mrkov
para formular
modelos
climatolgicos
bsicos. Por
ejemplo, se han
desarrollado
modelos de
recurrencia de las
lluvias basados en
cadenas de Mrkov.3
Modelos
epidemiolgicos
[editar]
Una importante
aplicacin de las
cadenas de Mrkov
se encuentra en
el proceso Galton-
Watson. ste es un
proceso de
ramificacin que se
puede usar, entre
otras cosas, para
modelar el desarrollo
de una epidemia
(vase modelaje
matemtico de
epidemias).
Internet[editar]
El pagerank de una
pgina web (usado
por Google en sus
motores de
bsqueda) se define
a travs de una
cadena de Mrkov,
donde la posicin
que tendr una
pgina en el
buscador ser
determinada por su
peso en la
distribucin
estacionaria de la
cadena.
Simulacin[edita
r]
Las cadenas de
Mrkov son
utilizadas para
proveer una solucin
analtica a ciertos
problemas de
simulacin, por
ejemplo en teora de
colas el Modelo
M/M/14 es de hecho
un modelo de
cadenas de Mrkov.
Juegos de
azar[editar]
Son muchos los
juegos de azar que
se pueden modelar a
travs de una
cadena de Mrkov.
El modelo de la ruina
del jugador,
(Gambler's ruin), que
establece la
probabilidad de que
una persona que
apuesta en un juego
de azar finalmente
termine sin dinero,
es una de las
aplicaciones de las
cadenas de Mrkov
en este rubro.
Economa y
finanzas[editar]
Las cadenas de
Mrkov se pueden
utilizar en modelos
simples de valuacin
de opciones para
determinar cundo
existe oportunidad
de arbitraje, as
como en el modelo
de colapsos de
una bolsa de
valores o para
determinar
la volatilidad de los
precios. En los
negocios, las
cadenas de Mrkov
se han utilizado para
analizar los patrones
de compra de
los deudores
morosos, para
planear las
necesidades
de personal y para
analizar el
reemplazo de
equipo.
Gentica[editar]
Se emplean cadenas
de Mrkov en teora
de gentica de
poblaciones, para
describir el cambio
de frecuencias
gnicas en una
poblacin pequea
con generaciones
discretas, sometida
a deriva gentica.
Ha sido empleada
en la construccin
del modelo de
difusin de Mot
Kimura.
Msica[editar]
Diversos algoritmos
de composicin
musical usan
cadenas de Mrkov,
por ejemplo el
software Csound o
Max
Operaciones[edit
ar]
Se emplean cadenas
de Mrkov en
inventarios,
mantenimiento, flujo
de proceso
Redes
Neuronales[edita
r]
Se utilizan en
las mquinas de
Boltzmann (redes
neuronales)

Referencias[e
ditar]

1. Volver
arriba Basha
rin, Gely P.;
Langville,
Amy N.;
Naumov,
Valeriy A.
(2004). The
Life and Work
of A. A.
Markov. Line
ar Algebra
and its
Applications (
en
ingls) 386: 3-
26.
Consultado el
31 de marzo
de 2010.
2. Volver
arriba Masak
i Kijima, 1997,
p. 175
3. Volver
arriba R.
Gabriel & J.
Neumann
(2006): A
Markov chain
model for
daily rainfall
occurrence at
Tel Aviv
4. Volver
arriba Masak
i Kijima, 1997,
pp. 287-290.

Bibliografa[e
ditar]

A.A. Mrkov.
"Rasprostraneni
e zakona
bol'shih chisel
na velichiny,
zavisyaschie
drug ot
druga". Izvestiya
Fiziko-
matematichesko
go obschestva
pri Kazanskom
universitete, 2-
ya seriya, tom
15, pp. 135156,
1906.
A.A. Markov.
"Extension of the
limit theorems of
probability
theory to a sum
of variables
connected in a
chain". reprinted
in Appendix B of:
R.
Howard. Dynami
c Probabilistic
Systems,
volume 1:
Markov Chains.
John Wiley and
Sons, 1971.
Classical Text in
Translation: A.
A. Markov, An
Example of
Statistical
Investigation of
the Text Eugene
Onegin
Concerning the
Connection of
Samples in
Chains, trans.
David Link.
Science in
Context 19.4
(2006): 591
600.
Online: http://jou
rnals.cambridge.
org/production/a
ction/cjoGetFullt
ext?fulltextid=63
7500
Leo
Breiman. Probab
ility. Original
edition published
by Addison-
Wesley, 1968;
reprinted by
Society for
Industrial and
Applied
Mathematics,
1992. ISBN 0-
89871-296-
3. (See Chapter
7.)
J.L.
Doob. Stochastic
Processes. New
York: John Wiley
and Sons,
1953. ISBN 0-
471-52369-0.
S. P. Meyn and
R. L.
Tweedie. Marko
v Chains and
Stochastic
Stability.
London:
Springer-Verlag,
1993. ISBN 0-
387-19832-6.
online: [1] .
Second edition
to
appear, Cambrid
ge University
Press, 2009.
S. P.
Meyn. Control
Techniques for
Complex
Networks.
Cambridge
University Press,
2007. ISBN 978-
0-521-88441-9.
Appendix
contains
abridged Meyn &
Tweedie.
online: https://ne
tfiles.uiuc.edu/m
eyn/www/spm_fil
es/CTCN/CTCN.
html
Booth, Taylor L.
(1967). Sequenti
al Machines and
Automata
Theory (1st
edicin).
Nueva York:
John Wiley and
Sons, Inc. Library
of Congress Card
Catalog Number 67-
25924.Extensive,
wide-ranging
book meant for
specialists,
written for both
theoretical
computer
scientists as well
as electrical
engineers. With
detailed
explanations of
state
minimization
techniques,
FSMs, Turing
machines,
Markov
processes, and
undecidability.
Excellent
treatment of
Markov
processes
pp. 449ff.
Discusses Z-
transforms, D
transforms in
their context.
Kemeny, John
G.; Mirkil,
Hazleton; Snell,
J. Laurie;
Thompson,
Gerald L.
(1959). Finite
Mathematical
Structures (1st
edicin).
Englewood
Cliffs, N.J.:
Prentice-Hall,
Inc. Library of
Congress Card Catalog
Number 59-
12841. Classical
text. cf Chapter
6 Finite Markov
Chains pp. 384ff.
Kijima, Masaaki
(1997). Markov
Processes for
Stochastic
Modeling (1st
edicin).
Cambridge:
Chapman &
Hall. ISBN 0 412
60660 7.
E. Nummelin.
"General
irreducible
Markov chains
and non-
negative
operators".
Cambridge
University Press,
1984,
2004. ISBN 0-
521-60494-X

Enlaces
externos[editar]
Cadenas de
Markov en
tiempo discreto
http://www.gesti
ondeoperacione
s.net/cadenas-
de-
markov/ejemplo-
de-una-cadena-
de-markov-en-
tiempo-discreto/
Techniques to
Understand
Computer
Simulations:
Markov Chain
Analysis
Desambiguacin
mediante
Cadenas de
Markov
Una explicacin
visual por Victor
Powell
Categoras:
Computabilidad
Mtodo de
Montecarlo
Procesos
estocsticos
Epnimos
relacionados con las
matemticas
Modelos de Markov
Men de navegacin
No has iniciado sesin

Discusin

Contribuciones

Crear una cuenta

Acceder
Artculo
Discusin
Leer
Editar
Ver historial
Buscar

Portada
Portal de la comunidad
Actualidad
Cambios recientes
Pginas nuevas
Pgina aleatoria
Ayuda
Donaciones
Notificar un error
Imprimir/exportar
Crear un libro
Descargar como PDF
Versin para imprimir
Herramientas
Lo que enlaza aqu
Cambios en enlazadas
Subir archivo
Pginas especiales
Enlace permanente
Informacin de la pgina
Elemento de Wikidata
Citar esta pgina
En otros idiomas

Deutsch
English
Franais

Portugus



32 ms
Editar enlaces
Se edit esta pgina por
ltima vez el 22 jun 2017
a las 01:40.
El texto est disponible
bajo la Licencia Creative
Commons Atribucin
Compartir Igual 3.0;
pueden aplicarse
clusulas adicionales. Al
usar este sitio, usted
acepta nuestros trminos
de uso y nuestra poltica
de privacidad.
Wikipedia es una marca
registrada de
la Fundacin Wikimedia,
Inc.

probabilidad de que ocurra un evento depende solamente del evento inmediatamente anterior.
Esta caracterstica de falta de memoria recibe el nombre de propiedad de Markov.

Cadena simple biestable de Markov.

Recibe su nombre del matemtico ruso Andri Mrkov (1856-1922), que lo introdujo en 1907.1
Estos modelos estadsticos cuentan con un gran nmero de aplicaciones reales.

ndice
[ocultar]

1Definicin formal
2Notacin til
o 2.1Cadenas homogneas y no homogneas
o 2.2Probabilidades de transicin y matriz de transicin
o 2.3Vector de probabilidad invariante
o 2.4Clases de comunicacin
o 2.5Tiempos de entrada
o 2.6Recurrencia
o 2.7Periodicidad
3Tipos de cadenas de Mrkov
o 3.1Cadenas errticas
o 3.2Cadenas positivo-recurrentes
o 3.3Cadenas regulares
o 3.4Cadenas absorbentes
o 3.5Cadenas de Mrkov en tiempo continuo
4Aplicaciones
o 4.1Meteorologa
o 4.2Modelos epidemiolgicos
o 4.3Internet
o 4.4Simulacin
o 4.5Juegos de azar
o 4.6Economa y finanzas
o 4.7Gentica
o 4.8Msica
o 4.9Operaciones
o 4.10Redes Neuronales
5Referencias
6Bibliografa
7Enlaces externos

Definicin formal[editar]
En matemtica se define como un proceso estocstico discreto que cumple con la propiedad
de Mrkov, es decir, si se conoce la historia del sistema hasta su instante actual, su estado
presente resume toda la informacin relevante para describir en probabilidad su estado futuro.
Una cadena de Mrkov es una secuencia X1, X2, X3,... de variables aleatorias. El dominio de
estas variables es llamado espacio estado; el valor de Xn es el estado del proceso en el
tiempo n. Si la distribucin de probabilidad condicional de Xn+1 en estados pasados es una
funcin de Xn por s sola, entonces:

Donde xi es el estado del proceso en el instante i. La


identidad mostrada es la propiedad de Mrkov.

Notacin til[editar]
Cadenas homogneas y no homogneas[editar]

Una cadena de Mrkov se dice homognea si la


probabilidad de ir del estado i al estado j en un paso no
depende del tiempo en el que se encuentra la cadena,
esto es:

para todo n y para cualquier i, j.


Si para alguna pareja de estados y para algn tiempo n la
propiedad antes mencionada no se cumple diremos que
la cadena de Mrkov es no homognea.
Probabilidades de transicin y matriz de
transicin[editar]

La probabilidad de ir del estado i al


estado j en n unidades de tiempo es
,
en la probabilidad de transicin en un paso se omite
el superndice de modo que queda

Un hecho importante es que las


probabilidades de transicin en n pasos
satisfacen la ecuacin de Chapman-
Kolmogrov, esto es, para cualquier k tal que
0 < k < n se cumple que

donde E denota el espacio de estados.

Cuando la cadena de Mrkov es


homognea, muchas de sus propiedades
tiles se pueden obtener a travs de su
matriz de transicin, definida entrada a

entrada como
esto es, la entrada i, j corresponde a la
probabilidad de ir del estado i a j en un paso.
Del mismo modo se puede obtener la matriz
de transicin en n pasos como:

, donde .
Vector de probabilidad
invariante[editar]

Se define la distribucin inicial .

Diremos que un vector de probabilidad


(finito o infinito numerable) es invariante
para una cadena de Mrkov si

donde P denota la matriz de transicin de


la cadena de Mrkov. Al vector de
probabilidad invariante tambin se le
llama distribucin
estacionaria o distribucin de equilibrio.
Clases de comunicacin[editar]
Para dos estados i,j en el espacio de
estados E, diremos que de i se

accede a j (y se denotar ) si

para algn n,

si y entonces diremos
que i comunica con j y se denotar
ij.
La propiedad "" es una relacin de
equivalencia. Esta relacin induce
una particin en el espacio de
estados. A estas clases de
equivalencia las llamaremos clases
de comunicacin.
Dado un estado x, denotaremos a su
clase de comunicacin como C(x).

Diremos que un subconjunto C


del espacio de estados (al que
denotaremos E) es cerrado si
ningn estado de E-C puede ser
accedido desde un estado de C,

es decir, si para todo xC,


para todo yE-C y para todo
natural m>0.
Tiempos de entrada[editar]

Si , definimos el primer tiempo


de entrada a C como la variable
aleatoria

esto es, denota la primera vez


que la cadena entra al conjunto de
estados C.
Recurrencia[editar]
En una cadena de Mrkov con
espacio de estados E, si xE se

define y diremos que:

x es estado recurrente si .
x es transitorio si

x es absorbente si
Una clase de comunicacin
es clase recurrente si todos sus
estados son recurrentes.

Sea , si xEdiremos que:

x es cero-recurrente si

x es positivo-recurrente si

El real se interpreta como el


tiempo promedio de recurrencia.
Periodicidad[editar]

El periodo de un estado xE se
define como:

donde denota el mximo


comn divisor.

Si d(x)=1 diremos que x es


un estado aperidico.

Una cadena de Mrkov se


dice aperidica si todos sus
estados son aperidicos.

Tipos de cadenas de
Mrkov[editar]
Cadenas errticas[editar]
Una cadena de Mrkov se
dice irreducible si se cumple
cualquiera de las siguientes
condiciones (equivalentes entre
s):

1. Desde cualquier estado


de E se puede acceder a
cualquier otro.
2. Todos los estados se
comunican entre s.
3. C(x)=E para algn xE.
4. C(x)=E para todo xE.
5. El nico conjunto
cerrado es el total.
La cadena de Ehrenfest o
la caminata aleatoria sin barreras
absorbentes son ejemplos de
cadenas de Mrkov irreducibles.
Cadenas positivo-
recurrentes[editar]
Una cadena de Mrkov se
dice positivo-recurrente si todos
sus estados son positivo-
recurrentes. Si la cadena es
adems irreducible es posible
demostrar que existe un nico
vector de probabilidad invariante
y est dado por:

Cadenas
regulares[editar]
Una cadena de Mrkov se
dice regular (tambin primitiv
a o ergdica) si existe alguna
potencia positiva de la matriz
de transicin cuyas entradas
sean todas estrictamente
mayores que cero.
Cuando el espacio de
estados E es finito,
si P denota la matriz de
transicin de la cadena se
tiene que:

donde W es una matriz


con todos sus renglones
iguales a un mismo
vector de probabilidad w,
que resulta ser el vector
de probabilidad
invariante de la cadena.
En el caso de cadenas
regulares, ste vector
invariante es nico.
Cadenas
absorbentes[editar]
Una cadena de Mrkov
con espacio de estados
finito se dice absorbente
si se cumplen las dos
condiciones siguientes:

1. La cadena tiene
al menos un
estado
absorbente.
2. De cualquier
estado no
absorbente se
accede a algn
estado
absorbente.
Si denotamos como A al
conjunto de todos los
estados absorbentes y a
su complemento
como D, tenemos los
siguientes resultados:

Su matriz de
transicin siempre
se puede llevar a
una de la forma

donde la submatriz
Q corresponde a los
estados del conjunto
D, I es la matriz
identidad, 0 es la
matriz nula y R
alguna submatriz.

, esto es,
no importa en
donde se
encuentre la
cadena,
eventualmente
terminar en un
estado
absorbente.
Cadenas de
Mrkov en
tiempo
continuo[editar]
Si en lugar de
considerar una
secuencia
discreta X1, X2,...,
Xi,.. con i indexado
en el

conjunto de
nmeros naturales,
se consideran las
variables
aleatorias Xtcon t qu
e vara en un
intervalo continuo

del conjunto de
nmeros reales,
tendremos una
cadena en tiempo
continuo. Para este
tipo de cadenas en
tiempo continuo
la propiedad de
Mrkov se expresa
de la siguiente
manera:

tal

que
Para una cadena de
Mrkov continua con
un nmero finito de
estados puede
definirse una matriz
estocstica dada
por:

La cadena se
denomina

homognea si .
Para una cadena de
Mrkov en tiempo
continuo homognea
y con un nmero
finito de estados
puede definirse el
llamado generador
infinitesimal como:2

Y puede
demostrarse que la
matriz estocstica
viene dada por:

Aplicaciones[
editar]
Meteorologa[edi
tar]
Si consideramos el
tiempo atmosfrico
de una regin a
travs de distintos
das, es plausible
asumir que el estado
actual slo depende
del ltimo estado y
no de toda la historia
en s, de modo que
se pueden usar
cadenas de Mrkov
para formular
modelos
climatolgicos
bsicos. Por
ejemplo, se han
desarrollado
modelos de
recurrencia de las
lluvias basados en
cadenas de Mrkov.3
Modelos
epidemiolgicos
[editar]
Una importante
aplicacin de las
cadenas de Mrkov
se encuentra en
el proceso Galton-
Watson. ste es un
proceso de
ramificacin que se
puede usar, entre
otras cosas, para
modelar el desarrollo
de una epidemia
(vase modelaje
matemtico de
epidemias).
Internet[editar]
El pagerank de una
pgina web (usado
por Google en sus
motores de
bsqueda) se define
a travs de una
cadena de Mrkov,
donde la posicin
que tendr una
pgina en el
buscador ser
determinada por su
peso en la
distribucin
estacionaria de la
cadena.
Simulacin[edita
r]
Las cadenas de
Mrkov son
utilizadas para
proveer una solucin
analtica a ciertos
problemas de
simulacin, por
ejemplo en teora de
colas el Modelo
M/M/14 es de hecho
un modelo de
cadenas de Mrkov.
Juegos de
azar[editar]
Son muchos los
juegos de azar que
se pueden modelar a
travs de una
cadena de Mrkov.
El modelo de la ruina
del jugador,
(Gambler's ruin), que
establece la
probabilidad de que
una persona que
apuesta en un juego
de azar finalmente
termine sin dinero,
es una de las
aplicaciones de las
cadenas de Mrkov
en este rubro.
Economa y
finanzas[editar]
Las cadenas de
Mrkov se pueden
utilizar en modelos
simples de valuacin
de opciones para
determinar cundo
existe oportunidad
de arbitraje, as
como en el modelo
de colapsos de
una bolsa de
valores o para
determinar
la volatilidad de los
precios. En los
negocios, las
cadenas de Mrkov
se han utilizado para
analizar los patrones
de compra de
los deudores
morosos, para
planear las
necesidades
de personal y para
analizar el
reemplazo de
equipo.
Gentica[editar]
Se emplean cadenas
de Mrkov en teora
de gentica de
poblaciones, para
describir el cambio
de frecuencias
gnicas en una
poblacin pequea
con generaciones
discretas, sometida
a deriva gentica.
Ha sido empleada
en la construccin
del modelo de
difusin de Mot
Kimura.
Msica[editar]
Diversos algoritmos
de composicin
musical usan
cadenas de Mrkov,
por ejemplo el
software Csound o
Max
Operaciones[edit
ar]
Se emplean cadenas
de Mrkov en
inventarios,
mantenimiento, flujo
de proceso
Redes
Neuronales[edita
r]
Se utilizan en
las mquinas de
Boltzmann (redes
neuronales)

Referencias[e
ditar]

1. Volver
arriba Basha
rin, Gely P.;
Langville,
Amy N.;
Naumov,
Valeriy A.
(2004). The
Life and Work
of A. A.
Markov. Line
ar Algebra
and its
Applications (
en
ingls) 386: 3-
26.
Consultado el
31 de marzo
de 2010.
2. Volver
arriba Masak
i Kijima, 1997,
p. 175
3. Volver
arriba R.
Gabriel & J.
Neumann
(2006): A
Markov chain
model for
daily rainfall
occurrence at
Tel Aviv
4. Volver
arriba Masak
i Kijima, 1997,
pp. 287-290.

Bibliografa[e
ditar]

A.A. Mrkov.
"Rasprostraneni
e zakona
bol'shih chisel
na velichiny,
zavisyaschie
drug ot
druga". Izvestiya
Fiziko-
matematichesko
go obschestva
pri Kazanskom
universitete, 2-
ya seriya, tom
15, pp. 135156,
1906.
A.A. Markov.
"Extension of the
limit theorems of
probability
theory to a sum
of variables
connected in a
chain". reprinted
in Appendix B of:
R.
Howard. Dynami
c Probabilistic
Systems,
volume 1:
Markov Chains.
John Wiley and
Sons, 1971.
Classical Text in
Translation: A.
A. Markov, An
Example of
Statistical
Investigation of
the Text Eugene
Onegin
Concerning the
Connection of
Samples in
Chains, trans.
David Link.
Science in
Context 19.4
(2006): 591
600.
Online: http://jou
rnals.cambridge.
org/production/a
ction/cjoGetFullt
ext?fulltextid=63
7500
Leo
Breiman. Probab
ility. Original
edition published
by Addison-
Wesley, 1968;
reprinted by
Society for
Industrial and
Applied
Mathematics,
1992. ISBN 0-
89871-296-
3. (See Chapter
7.)
J.L.
Doob. Stochastic
Processes. New
York: John Wiley
and Sons,
1953. ISBN 0-
471-52369-0.
S. P. Meyn and
R. L.
Tweedie. Marko
v Chains and
Stochastic
Stability.
London:
Springer-Verlag,
1993. ISBN 0-
387-19832-6.
online: [1] .
Second edition
to
appear, Cambrid
ge University
Press, 2009.
S. P.
Meyn. Control
Techniques for
Complex
Networks.
Cambridge
University Press,
2007. ISBN 978-
0-521-88441-9.
Appendix
contains
abridged Meyn &
Tweedie.
online: https://ne
tfiles.uiuc.edu/m
eyn/www/spm_fil
es/CTCN/CTCN.
html
Booth, Taylor L.
(1967). Sequenti
al Machines and
Automata
Theory (1st
edicin).
Nueva York:
John Wiley and
Sons, Inc. Library
of Congress Card
Catalog Number 67-
25924.Extensive,
wide-ranging
book meant for
specialists,
written for both
theoretical
computer
scientists as well
as electrical
engineers. With
detailed
explanations of
state
minimization
techniques,
FSMs, Turing
machines,
Markov
processes, and
undecidability.
Excellent
treatment of
Markov
processes
pp. 449ff.
Discusses Z-
transforms, D
transforms in
their context.
Kemeny, John
G.; Mirkil,
Hazleton; Snell,
J. Laurie;
Thompson,
Gerald L.
(1959). Finite
Mathematical
Structures (1st
edicin).
Englewood
Cliffs, N.J.:
Prentice-Hall,
Inc. Library of
Congress Card Catalog
Number 59-
12841. Classical
text. cf Chapter
6 Finite Markov
Chains pp. 384ff.
Kijima, Masaaki
(1997). Markov
Processes for
Stochastic
Modeling (1st
edicin).
Cambridge:
Chapman &
Hall. ISBN 0 412
60660 7.
E. Nummelin.
"General
irreducible
Markov chains
and non-
negative
operators".
Cambridge
University Press,
1984,
2004. ISBN 0-
521-60494-X

Enlaces
externos[editar]
Cadenas de
Markov en
tiempo discreto
http://www.gesti
ondeoperacione
s.net/cadenas-
de-
markov/ejemplo-
de-una-cadena-
de-markov-en-
tiempo-discreto/
Techniques to
Understand
Computer
Simulations:
Markov Chain
Analysis
Desambiguacin
mediante
Cadenas de
Markov
Una explicacin
visual por Victor
Powell
Categoras:
Computabilidad
Mtodo de
Montecarlo
Procesos
estocsticos
Epnimos
relacionados con las
matemticas
Modelos de Markov
Men de navegacin
No has iniciado sesin

Discusin
Contribuciones

Crear una cuenta

Acceder
Artculo
Discusin
Leer
Editar
Ver historial
Buscar

Portada
Portal de la comunidad
Actualidad
Cambios recientes
Pginas nuevas
Pgina aleatoria
Ayuda
Donaciones
Notificar un error
Imprimir/exportar
Crear un libro
Descargar como PDF
Versin para imprimir
Herramientas
Lo que enlaza aqu
Cambios en enlazadas
Subir archivo
Pginas especiales
Enlace permanente
Informacin de la pgina
Elemento de Wikidata
Citar esta pgina
En otros idiomas

Deutsch
English
Franais

Portugus



32 ms
Editar enlaces
Se edit esta pgina por
ltima vez el 22 jun 2017
a las 01:40.
El texto est disponible
bajo la Licencia Creative
Commons Atribucin
Compartir Igual 3.0;
pueden aplicarse
clusulas adicionales. Al
usar este sitio, usted
acepta nuestros trminos
de uso y nuestra poltica
de privacidad.
Wikipedia es una marca
registrada de
la Fundacin Wikimedia,
Inc.

You might also like