You are on page 1of 8

INTRODUCCIN

Hoy en da las empresas sienten la necesidad de saber cmo evoluciona el mercado o saber que
pasara en determinados eventos de acuerdo a sucesos pasados, as poder tomar decisiones que
impactaran en criterios, prioridades y rutas a seguir.
El proceso de toma de decisiones se realiza a travs de una eleccin entre diferentes
alternativas o formas para resolver situaciones de la vida, que se pueden presentar en diferentes
contextos, los cuales impactaran ya sea de forma econmica o social. La importancia de la toma
de decisiones en los negocios es tal, que resulta de inters conocer el comportamiento de los
diferentes entornos, mercados, entre otros. En ese sentido, las cadenas de Markov son una
herramienta muy potente en el campo de toma de decisiones.
Las Cadenas de Markov se caracterizan por predecir la evolucin y el comportamiento a corto y
largo plazo de determinados eventos, basndose en sucesos que se dieron con anterioridad, por
lo cual la utilizacin correcta de estas herramientas para la toma de decisiones juega un papel
importante en un mundo globalizado, que debe considerar enfoques estratgicos que generen
ventajas competitivas. El objetivo de esta monografa es saber cmo beneficia la toma de
decisiones en las empresas basndose en Cadenas de Markov.

ANALISIS DE MARKOV

Cul es el fundamento matemtico de ese mtodo?

El anlisis de Markov es un procedimiento que se utilizar para describir el comportamiento de un
sistema en una situacin donde confluyen varias variables, prediciendo los movimientos del
sistema entre diferentes posibles estados en un tiempo determinado. El anlisis Markoviano o
proceso de Markov est formado por un conjunto de objetos y un conjunto de estados. Si el
nmero de estados es contable tal proceso de Markov se denomina Cadena de Markov.

IMPORTANCIA DEL ANALISIS DE MARKOV
El anlisis de Markov se puede entender como una herramienta de suma importancia para
nosotros como administradores, as como para nuestro futuro muy cercano como dirigentes de
una empresa y por supuesto para el xito de cualquier organizacin.
Todo esto podemos afirmarlo debido a que, el mencionado anlisis nos proporciona informacin
de significativa importancia ya que, en determinado momento, nos avisa -si se puede decir as-
sobre que parte del mercado, en que nuestra organizacin o empresa est presente, puede
llegar a perder en caso de no adoptar medidas que le permitan seguirse desarrollando y
captando a mas clientes, es decir, en caso de que la empresa llegara a conformarse con la
relativa estabilidad alcanzada y no se preocupara por seguir avanzando.
El no estar al tanto de estos datos nos impedira la buena toma de decisiones y por lo tanto un
manejo de la informacin y la empresa en general deficiente, lo que equivaldra a una posible
prdida del gusto del consumidor e incluso una prdida del mercado en el que nos encontramos,
ocasionndonos una derrota total como organizacin.
Por otro lado, tambin nos servira en dado caso de que la empresa decida tomar medidas para
la mejora de su participacin en el mercado, esto, para averiguar o tener datos comprobables
acerca de qu pasara si se tomaran esas medidas, o si se obtendran los resultados deseados.
Podemos decir, por lo tanto, que es muy importante para nosotros como administradores adquirir
el conocimiento que nos proporciona el anlisis de Markov, para el buen manejo de una
organizacin, eso implica aprovecharlo adecuadamente para la toma de decisiones.
CADENAS DE MARKOV
DEFINICION
Segn Mesa, Gustavo, las cadenas de Markov son descritas como una forma sencilla de
encontrar probabilidades haciendo uso del lgebra matricial.
En matemticas, se define como un proceso estocstico discreto que cumple con la propiedad
de Mrkov, es decir, si se conoce la historia del sistema hasta su instante actual, su estado
presente resume toda la informacin relevante para describir en probabilidad su estado futuro.
Por consiguiente una cadena de Markov es una serie de eventos, en la cual la probabilidad de
que ocurra un evento depende del evento anterior. En efecto, las cadenas de este tipo tienen
memoria, recuerdan el ltimo evento y esto condiciona las posibilidades de los eventos futuros.
Esta dependencia del evento anterior distingue a las cadenas de Markov de las series de
eventos independientes, como tirar una moneda al aire o un dado. El proceso es estocstico, el
cual tiene un nmero finito de estados y que tiene la propiedad Markoviana.
ORIGEN
Una cadena de Markov, recibe el nombre del matemtico ruso Andrei Markov quien naci en
Riazn, Rusia. Antes de los 10 aos su padre, un funcionario estatal, fue trasladado a San
Petersburgo donde Andri entr a estudiar en un instituto de la ciudad. Desde el principio mostr
cierto talento para las matemticas y cuando se gradu en 1874 ya conoca a varios
matemticos de la Universidad de San Petersburgo, donde ingres tras su graduacin. El
nombre de cadenas de Markov se defini por primera vez en un artculo de 1906 que trataba la
ley de los grandes nmeros y posteriormente demostr muchos resultados estndar sobre estas.
Su inters en ests sucesiones se origin en las necesidades de la teora de la probabilidad;
Markov nunca trat sus aplicaciones a las ciencias. Los nicos ejemplos reales que utiliz eran
de textos literarios, donde los dos estados posibles eran vocales y consonantes. Para ilustrar sus
resultados, hizo un estudio estadstico de la alternancia de las vocales y las consonantes en el
libro de Pushkin Eugene Onegin. Andrei Markov dio clase en la universidad de San Petersburgo
de 1880 a 1905, y se retir para dar paso a matemticos ms jvenes.

CARACTERISTICAS
* Un nmero finito de estados.
* La propiedad Markoviana que se expresa como sigue:
P{Xt+1= j / X0 = k0, X1 = k1, . . . , Xt-1 = kt-1, Xt = i} = P{Xt+1 = j / Xt = i}
Para t = 0, 1, .... nmero de transiciones o pasos y toda sucesin i, j, k0,
k1, . . ., kt-1, que son valores de estas variables no negativas o estados.
* Probabilidades de transicin estacionarias
* Probabilidad de Estado Inicial
TIPOS DE CADENAS DE MARKOV
Existen varios tipos de cadenas segn el nmero de estados esperados, se pueden mencionar
las siguientes:
* Cadenas Irreducibles
Una cadena de Markov se dice irreducible si se cumple cualquiera de las siguientes
condiciones (equivalentes entre s):
1. Desde cualquier estado de E se puede acceder a cualquier otro.
2. Todos los estados se comunican entre s.
3. C(x)=E para algn xE.
4. C(x)=E para todo xE.
5. El nico conjunto cerrado es el total.

* Cadenas positivo-recurrentes
Una cadena de Markov se dice positivo-recurrente si todos sus estados son
positivo-recurrentes. Si la cadena es adems irreducible es posible demostrar que
existe un nico vector de probabilidad invariante y est dado por:


* Cadenas regulares
Una cadena de Markov se dice regular (tambin primitiva o ergdica) si existe
alguna potencia positiva de la matriz de transicin cuyas entradas sean todas
estrictamente mayores que cero.
Cuando el espacio de estados E es finito, si P denota la matriz de transicin de la
cadena se tiene que:

donde W es una matriz con todos sus renglones iguales a un mismo vector de
probabilidad w, que resulta ser el vector de probabilidad invariante de la cadena.
En el caso de cadenas regulares, ste vector invariante es nico.

* Cadenas absorventes
Una cadena de Markov con espacio de estados finito se dice absorbente si se
cumplen las dos condiciones siguientes:
1. La cadena tiene al menos un estado absorbente.
2. De cualquier estado no absorbente se accede a algn estado absorbente.
Si denotamos como A al conjunto de todos los estados absorbentes y a su
complemento como D, tenemos los siguientes resultados:
Su matriz de transicin siempre se puede llevar a una de la forma

donde la submatriz Q corresponde a los estados del conjunto D, I es la matriz
identidad, 0 es la matriz nula y R alguna submatriz.
, esto es, no importa en donde se encuentre la cadena,
eventualmente terminar en un estado absorbente.

* Cadenas de Markov en tiempo continuo
Si en lugar de considerar una secuencia discreta X1, X2,..., Xi,.. con i indexado en
el conjunto de nmeros naturales, se consideran las variables aleatorias Xt con
t que vara en un intervalo continuo del conjunto de nmeros reales,
tendremos una cadena en tiempo continuo. Para este tipo de cadenas en tiempo
continuo la propiedad de Mrkov se expresa de la siguiente manera:
tal que
Para una cadena de Markov continua con un nmero finitod de estados puede definirse
una matriz estocstica dada por:

La cadena se denomina homognea si . Para una cadena de
Markov en tiempo continuo homognea y con un nmero finito de estados puede
definirse el llamado generador infinitesimal como:

Y puede demostrarse que la matriz estocstica viene dada por:

CLASIFICACION DE LOS ESTADOS DE UNA CADENA DE MARKOV


* Estado Alcanzable: un estado j es alcanzable desde el estado i si hay una trayectoria que
conduzca de i a j.
* Estados que se Comunican: se dice que dos estados i y j se comunican si j es alcanzable
desde i, e i es alcanzable desde j.
* Estado Cerrado: un conjunto de estados S en una cadena de Markov es un conjunto cerrado
si ningn estado fuera S es alcanzable desde algn estado en S.
* Estado Absorbente: un estado i es absorbente que cuando j llega all no puede salir de l.
* Estado Transitorio: un estado i es un estado transitorio si existe un estado j que es alcanzable
desde i, pero el estado i no es alcanzable desde el estado j.
* Estado Recurrente: siempre que parta del estado i ser un estado recurrente si se pueda
volver al mismo estado i.
* Estado Peridico: un estado i es peridico con periodo k > 1 si k es el nmero ms pequeo
tal que las trayectorias que conducen del estado i de regreso al estado i tienen una longitud que
es mltiplo de k. Si un estado recurrente no es peridico, se conoce como a peridico.
* Cadena Ergodica: si los estados en una cadena son recurrentes, aperidicos y se comunican
entre s, se dice que la cadena es ergdica.
CADENAS DE MARKOV EN LA TOMA DE DESICIONES
MARKOV Y SU FUNCION EMPRESARIAL
Las cadenas de Markov son una herramienta que nos sirve para analizar el comportamiento de
determinado tipos de procesos estocsticos, para las empresas es un instrumento adecuado
para comprobar la evolucin de ciertos aspectos empresariales sujetos a variaciones constantes,
esto beneficiara en esfuerzos econmicos y de personal, entre otros.
Controlar ciertos factores de la gestin de un negocio es realizar aproximaciones o previsiones
en base a la utilizacin de cadenas de Markov. No es un mtodo totalmente exacto pero si til
para previsiones a largo o muy largo plazo. A diferencia del mtodo clsico de utilizar el ao
inmediatamente anterior como gua, la cadena de Markov utiliza todos los estados anteriores
para determinar una evolucin ms realista de lo que cabe esperar de los prximos ejercicios.
Las empresas utilizan este tipo de cadenas por la capacidad de mostrar datos futuros con criterio
y en base a la historia de la propia empresa. Por ejemplo, en base a ratios de rotacin de
personal, se puede estipular de forma aproximada las necesidades a largo plazo de medios,
entrevistas, formacin interna y bajas que se producirn en el futuro segn lo acontecido en los
ltimos 5 aos (por ejemplo). La previsin ayuda a la planificacin y al ser un mtodo matemtico
con memoria a largo plazo es un aliado perfecto para un empresario con visin estratgica.
El problema de estas cadenas radica en la dificultad de su clculo en casos donde el nmero de
estados es muy grande y en la bsqueda de factores que respondan a las propiedades
markovianas. Adems, requiere de personal calificado para crear un sistema eficiente para esos
casos.
TOMA DE DESICIONES A TRAVES DE MARKOV
Actualmente la sociedad en que vivimos nos clasifica de acuerdo a nuestro comportamiento y
forma de actuar en la vida cotidiana. Estas condiciones tienen un efecto grande en la vida
econmica de las personas en general, esto hace que el mercado y los empresarios tomen
decisiones derivado de nuestras inclinaciones, por consiguiente estas herramientas son tiles en
el apoyo de anlisis y hacen que las decisiones estn basadas en estudios de comportamientos
anteriores.
Las Cadenas de Markov nos explican cmo y cuando las personas cambian sus gustos en
cuanto a productos se refiere. Se puede determinar el cambio en marcas de productos
dependiendo del comportamiento en la compra de estos productos en el periodo de tiempo
anterior. De esta manera los expertos en mercadeo pueden predecir cul ser la marca de
mayor venta en los periodos de tiempos subsiguientes.
Un ejemplo a utilizarse para comprobar lo dicho anteriormente se utiliza en el servicio de finanza
sobre la Data Crdito. La Data-Crdito es un sistema que evala las acciones de las personas
en cuanto a pagos de deudas se refiere. La clasificacin que se le da a las personas en base a
su crdito es una excelente, buena o deficiente, todo depende del comportamiento financiero de
la persona. Si mantiene sus deudas sin atrasos, su crdito es excelente, y si la persona tiene un
largo historial de atrasos en sus deudas entonces su crdito es deficiente. Se puede pensar que
si un cliente en cierto mes es clasificado como deficiente, lo ms seguro es que su crdito sea
negado ya que se estima que para el mes siguiente lo mas probable es que su comportamiento
sea el mismo, lo que deja por entendido que la probabilidad de estar en alguno de estos estados
(excelente, bueno, deficiente), un mes cualquiera depende de la clasificacin del mes anterior, y
que es razonable en el anlisis del crdito concluir que un manejo deficiente en cierto mes,
asegura un mal manejo en el mes siguiente. Se puede observar que en en este ejemplo se
busca la probabilidad de un evento basndose en los eventos anteriores.
Haciendo uso de las cadenas de Markov se podr tomar grandes decisiones en las empresas,
basndose en formas de actuar y comportamientos, es decir si se conoce la historia del sistema
hasta su instante actual, su estado presente resume toda la informacin relevante para describir
en probabilidad su estado futuro.
AREAS DONDE SE PUEDE APLICAR LA TEORIA DE MARKOV
FISICA
Las cadenas de Markov son usadas en muchos problemas de la termodinmica y la fsica
estadstica. Ejemplos importantes se pueden encontrar en la Cadena de Ehrenfest o el modelo
de difusin de Laplace.
METEOROLOGIA
Si consideramos el clima de una regin a travs de distintos das, es claro que el estado actual
solo depende del ltimo estado y no de toda la historia en s, de modo que se pueden usar
cadenas de Markov para formular modelos climatolgicos bsicos.
MODELOS EPIDEMIOLOGICOS
Una importante aplicacin de las cadenas de Markov se encuentra en el proceso Galton-Watson.
ste es un proceso de ramificacin que se puede usar, entre otras cosas, para modelar el
desarrollo de una epidemia.
INTERNET
El pagerank de una pgina web que define a travs de una cadena de Markov, donde la posicin
que tendr una pgina en el buscador ser determinada por su peso en la distribucin
estacionaria de la cadena.
SIMULACION
Las cadenas de Markov son utilizadas para proveer una solucin analtica a ciertos problemas de
simulacin tales como el Modelo M/M/1.
JUEGOS DE AZAR
Son muchos los juegos de azar que se pueden modelar a travs de una cadena de Markov. El
modelo de la ruina del jugador, que establece la probabilidad de que una persona que apuesta
en un juego de azar finalmente termine sin dinero, es una de las aplicaciones de las cadenas de
Markov en este rubro.
ECONOMIA Y FINANZAS
Las cadenas de Markov se pueden utilizar en modelos simples de valuacin de opciones para
determinar cundo existe oportunidad de arbitraje, as como en el modelo de colapsos de una
bolsa de valores o para determinar la volatilidad de precios. En los negocios, las cadenas de
Mrkov se han utilizado para analizar los patrones de compra de los deudores morosos, para
planear las necesidades de personal y para analizar el reemplazo de equipo.
MUSICA
Diversos algoritmos de composicin musical usan cadenas de Markov, por ejemplo el software
Csound o Max
CONCLUSIONES
* Las Cadenas de Markov sirven como apoyo en el anlisis y hacen que la toma de decisiones
se basen en eventos ocurridos con anterioridad.
* Los estudios basados en las Cadenas de Markov ayudan grandemente al movimiento de la
sociedad ante los avances histricos y culturales, ya que si notamos como la poblacin se va
comportando con el pasar del tiempo podemos mejorar la calidad de vida de las poblaciones en
general y hacer que las clases vayan mejorando por el bien de la sociedad.
* Las Cadenas de Markov se pueden considerar como una de las grandes aportaciones de las
matemticas, que han facilitado las predicciones de lo que puede ocurrir.

You might also like