You are on page 1of 9

http://apuntesgadeuned.blogspot.com.

es/

TEMA 5: Anlisis de problemas y toma de decisiones


1. Introduccin:
La adopcin de decisiones tiene tanta importancia en el mbito empresarial que se ha definido a la
empresa como centro de decisiones voluntarias tomadas en el entorno incierto.
Hoy, dado el creciente ritmo de cambio del entorno empresarial, es necesario el mtodo cientfico para
la toma de decisiones, es una aproximacin ordenada y sistemtica para resolver un problema.

2. La modelizacin:
Un modelo es una representacin simplificada de una parte de la realidad. Que permite tomar mejores
decisiones.
Los modelos se pueden clasificar atendiendo a:
Modelos objetivos y subjetivos: en ocasiones intervienen sucesos no experimentales
objetivamente, y en las que no existen mtodos formales, por lo que han de ser informales,
subjetivos y basarse en la intuicin.
Modelos analticos y de simulacin: los analticos han de ser resueltos, sirven para obtener
soluciones (sistema de ecuaciones). Entre estos estn los modelos de optimizacin que permiten
determinar los valores que ha de darse a las variables de modo que se maximice o minimice otra
variable que se tiene por objetivo (prescriptivos).
Los de simulacin son representaciones simplificadas de la realidad sobre las que se opera
para estudiar los efectos de las alternativas de actuacin (modelos descriptivos).
Modelos estticos y dinmicos: los primeros no incorporan la variable tiempo mientras que los
segundos la usan como parmetro fundamental.
Modelos deterministas y probabilsticos: los deterministas se suponen conocidos con certeza
todos los datos de la realidad que representan. Si uno o varios datos se conocen slo en trminos
de probabilidades, el modelo se denomina probabilstico, aleatorio o estocstico.

3. Ambientes de decisin:
Los estados de la naturaleza son los sucesos de los que depende la decisin y en los que no puede
influir apenas el decisor.
Los ambientes de decisin difieren entre s por el diferente nivel de informacin que comportan. Se
distinguen:
a. Certeza: es aqul en el que el decisor conoce con absoluta seguridad los estados de la
naturaleza que van a presentarse.
b. Riesgo: aqul en el que el decisor no sabe qu estados de la naturaleza se presentarn, pero s
conoce cuales pueden presentarse y la probabilidad que tiene cada uno de ellos.
c. Incertidumbre estructurada: aqul en el que se conocen los estados de la naturaleza, pero
no la probabilidad de cada uno de ellos.
d. Incertidumbre no estructurada: aquel en el que ni siquiera se conocen los posibles estados
de la naturaleza (si la demanda pudiera ser cualquiera y con cualquier grado de competencia.
Para pasar de un ambiente a otro es necesario obtener cierto grado de informacin. En teora de la
decisin se le denomina proceso de aprendizaje.

4. Criterios de decisin en incertidumbre:


Si la incertidumbre no es estructurada, y no se puede obtener mayor informacin, hay que basarse en
la intuicin. Si la incertidumbre es estructurada, los criterios de decisin son los siguientes:
a. Laplace, racionalista o de igual verosimilitud: parte de asignar a todos los estados de la
naturaleza la misma probabilidad.
Se calcula la media aritmtica de los resultados que se pueden derivar de cada una de las
decisiones y se elige aquella a la que le corresponda el resultado medio ms elevado, si tales
resultados son favorables, o la que tenga el resultado medio ms bajo, si los resultados son
desfavorables.

1
http://apuntesgadeuned.blogspot.com.es/
Ejemplo:

b. Optimista: cualquiera que sea la estrategia elegida, el estado que se presentar ser el ms
favorable para el decisor bajo ese estado.
1. Para resultados favorables (beneficios): criterio maxi-max: se determina cual es el
resultado ms elevado que puede alcanzarse con cada estrategia y posteriormente, se
elige aquella a la que le corresponda el mximo entre esos mximos.
2. Para resultados desfavorables (costes): criterio mini-min: se determina cul es el
mejor resultado que puede obtenerse con cada estrategia (el menor) y se elige
aquella a la que le corresponda el mnimo entre esos mnimos.
Ejemplo:

c. Pesimista o de Wald: cualquiera que fuera la estrategia elegida, el estado que se presentara
sera el menos favorable para ella. Favorables (beneficios) criterio maxi-min (mximo de los
mnimos); desfavorables (costes) criterio mini-max (mnimo de los mximos).
Ejemplo:

d. Optimismo parcial de Hurwicz: compromiso entre los criterios optimista y pesimista,


mediante la ponderacin del mejor de los resultados con el coeficiente de optimismo , y el
peor de los resultados con el de pesimismo 1 .
1 0 ; 1 Criterio optimista; 0 criterio pesimista o Wald.

2
http://apuntesgadeuned.blogspot.com.es/
Ejemplo:

El mejor de los resultados se multiplica por , el peor por 1-.


o Con valor de :

o Sin valor de :
Estrategias Mximos M i
Mnimos m i H i
M i
1 m i

E1 60 40 60 1 40
E2 70 10 70 1 10

H 1 60 1 40 60 40 40 20 40
H 2
70 1 10 70 10 10 60 10

Para que H 1 H 2 ; 20 40 60 10 ; 0 , 75 ; para valores de de 0 a 0,75 es preferible la estrategia


uno. Para valores de entre 0,75 y 1, es preferible la segunda.

e. Mnimo pesar de Savage:


Criterio que siguen quienes tienen aversin a arrepentirse por equivocarse. Hay que partir de la
elaboracin de la matriz de pesares, y se elige la estrategia que nos de el menor entre los
mximos pesares posibles.
Ejemplo,

En ocasiones existen estrategias dominadas: se dice que A esta dominada sobre B, si


cualquiera que sea el estado de la naturaleza que se presente, B es igual o mejor que A. Ha de
prescindirse de ellas, ya que no son preferibles en ningn caso. (Se elige la mejor opcin de cada
estado de la naturaleza, la estrategia de la que no elijas ningn dato es la dominada y hay que
eliminarla).

3
http://apuntesgadeuned.blogspot.com.es/

5. Juegos de estrategia:
En los juegos de estrategia el resultado final no depende de la alternativa seleccionada por nuestro
decisor, sino tambin de las decisiones tomadas por otro u otros sujetos.
Se pueden clasificar de la forma siguiente:
Nmero de participantes
Ganancia total obtenida por el conjunto de los participantes. Si no hay ganancia (uno slo
gana lo que pierde el otro) se llama de suma nula.
Nmero de jugadas
La informacin de que disponen los jugadores (completa o incompleta)
Los elementos que intervienen en las decisiones, son de estrategia pura (slo interviene la
decisin de los jugadores) o de estrategia mixta (interviene adems algn elemento aleatorio).
El ms sencillo, es el juego de suma nula o juego rectangular, por la forma de la matriz de decisiones.
Es la base de la teora de los juegos.
Para obtener la matriz y la solucin de un juego rectangular hay que hallar las mejores estrategias de
los jugadores y el valor del juego (cantidad que gana un jugador y pierde el otro).
Los juegos en los que el maximin (mximo de los mnimos) del ganador coincide con el mnimas
(mnimo de los mximos) del perdedor se denominan juegos con punto de silla. A veces hay varios puntos
de silla, o sea, varias soluciones posibles.
La mejor manera de encontrar el punto de silla (valor del juego) es determinar un nmero que sea el
menor de su fila y el mayor de su columna (suponiendo que en las filas est el ganador y en las columnas el
perdedor).

Ejemplo,

4
http://apuntesgadeuned.blogspot.com.es/

6. Probabilidad y Riesgo:
En ambiente de riesgo intervienen las probabilidades. Existen dos concepciones:
La definicin clsica (Laplace): Si de un total de n casos, todos igualmente factibles, un suceso S
puede presentarse en h de los casos, la probabilidad de ocurrencia de ese suceso, P(S), es el
cociente entre el nmero de casos favorables y de casos posibles.
h
P S
n
La concepcin frecuencial u objetiva: se toma como probabilidad estimada, o emprica, la
frecuencia relativa de la aparicin del suceso, considerando que el nmero de observaciones del
experimento es suficientemente grande. Es el lmite de la frecuencia relativa cuando el nmero de
observaciones crece infinitamente.
Ejemplo,

Suceso compuesto: de S y T (dos sucesos) consistente en que acontezca S y T, y se le designa


S T.
P S T P T P S / T P S P T / S
Sucesos independientes:
P S / T
P S
Probabilidad de S condicionada a T
P T / S P T
Probabilidad de T condicionada a S

Ejemplo,

5
http://apuntesgadeuned.blogspot.com.es/

Sucesos mutuamente excluyentes: cuando no se pueden presentar conjuntamente. P S T 0


Si no son mutuamente excluyentes:
P S T P S P T S T

Variable aleatoria: cuando no se sabe con certeza el valor que tomar, sino slo qu valores puede
tomar y que probabilidades tiene cada uno de ellos.
Distribucin de probabilidad: es una relacin de los valores posibles resultantes del experimento
(valores de la variable aleatoria), junto con sus probabilidades. Se suele representar por medio de
histogramas de barras.
Esperanza matemtica: es la media aritmtica ponderada de los valores que puede tomar la
variable, utilizndose, como coeficiente de ponderacin de cada valor, su probabilidad. Seala
donde se encuentra centrada la distribucin.
Medidas de dispersin: (dispersin significa riesgo; cuando es muy pequea: probabilidad elevada de
que la variable se aproxime al valor esperado, si es muy elevada: habr una gran probabilidad de que la
variable se desve, respecto al valor medio):
Desviacin absoluta media: coeficiente que mide la dispersin media de los valores de la variable
respecto a su valor esperado.
n

DA X X i
E X P X i

i 1

La varianza: es la esperanza matemtica de los cuadrados de las variaciones de los valores


probables respecto a su media. Da idea de la forma de la distribucin de probabilidad. La unidad de
medida es el cuadrado de la unidad de medida de la variable de que se trate.
n 2


2
x X i E X PX i

i 1

La desviacin tpica: es la raz cuadrada positiva de la varianza. Tiene la ventaja de medirse con la
misma unidad de medida que la variable.
x
2

Coeficiente de variacin: combina el riesgo y la esperanza matemtica: es la desviacin tpica por


unidad de valor esperado.
X
CV X
E X

6
http://apuntesgadeuned.blogspot.com.es/

7. El anlisis Bayesiano:
El teorema de Bayes (reverendo Bayes s. XVIII), permite modificar las probabilidades de los
distintos estados, o sucesos aleatorios, en funcin de la informacin adicional de la que va disponindose, es
decir, transformar las probabilidades a medida que se avanza en el proceso de aprendizaje.
P S i P T / S i
P S i / T
P T / S i P S i P T / S 2 P S 2 ... P T / S n P S n

Ejemplo,

8. El grado de confianza:
Existen variables que pueden tomar ciertos valores (discretas) y otras que pueden tomar infinitos
valores (continuas). Las ms importantes de stas son las llamadas variables normales, a cuyas
distribuciones de probabilidad se llama distribuciones normales. Caractersticas de las mismas:
o Son simtricas y tienen forma acampanada. A su representacin se le llama campana de Gauss.

o El rea correspondiente a cada valor es infinitesimal, es decir, la probabilidad de que la variable


tome un valor en concreto equivale a cero.
o La probabilidad de que la variable tome un valor comprendido en un intervalo finito es tambin
finita e igual al rea existente bajo la campana en ese intervalo. El rea total bajo la campana es
uno: es la probabilidad de que la variable tome un valor entre ( , )
o La esperanza matemtica de la variable se encuentra en el centro de la distribucin, y el rea
situada a su derecha y a su izquierda valen cada una 0,5.
o Es un tipo de distribucin que queda descrita con el conocimiento de su esperanza matemtica
(lugar donde se encuentra centrada) y de su varianza (su dispersin, anchura).

x N E x , x
Significa que la variable x sigue una distribucin normal con una esperanza
matemtica igual a E x y una desviacin tpica igual a x

7
http://apuntesgadeuned.blogspot.com.es/
Para determinar el nivel de confianza que puede tenerse en que una variable aleatoria tomar un valor
comprendido entre ciertos valores, se supone que es aplicable el teorema de central del lmite, segn el
cual si una variable est formada por la suma de un infinito nmero de variables independientes entre s,
cada una de las cuales tiene una distribucin de media y varianza finitas, esa variable-suma seguir una
distribucin normal. Puede aplicarse siempre que el nmero de variables sea suficientemente elevado.
Hay una tabla que indica los valores que puede tomar la distribucin normal variable-suma.
Se trata de una distribucin normal estandarizada o tipificada: esperanza matemtica vale cero y
desviacin tpica es uno, tambin se llama distribucin normal cero uno.
x E x
N 0 ,1
x

Ejemplo,

En algunos casos se pretende averiguar el intervalo de


confianza.

8
http://apuntesgadeuned.blogspot.com.es/

9. Teora de la informacin:
Segn la teora de la informacin (desarrollada por Shannon), la informacin proporcionada por la
materializacin del suceso depende de la probabilidad de su acaecimiento; proporciona tanto ms
informacin cuanto menor fuera la probabilidad de su acaecimiento.
As se puede denominar h(P) a la informacin proporcionada por la realizacin de un suceso de
probabilidad P, con lo que se hace constar que tal informacin es funcin de P. Para determinar la forma
correcta de esta funcin, se debe tener en cuenta:
Debe ser decreciente con P, de acuerdo a lo expuesto, la informacin aumenta al reducirse la
probabilidad del suceso.
Ha de tender a cuando la probabilidad P tienda a 0 (suceso imposible, en el lmite).
La materializacin de un suceso seguro no proporciona informacin alguna, por lo que la
funcin a de tomar el valor 0 cuando P sea el 100 %, igual a uno.
La funcin debe ser montona y continua. A cada uno de los infinitos posibles valores de P les
debe corresponder una y slo una medida de informacin
La informacin proporcionada por la ocurrencia conjunta de dos o ms sucesos independientes
entre s, debe ser igual a la suma de las informaciones que nos proporcionan los distintos sucesos
en su acontecer.
De todo ello resulta la congruencia de emplear, como medida de informacin, el recproco de la
probabilidad.
h P log 1 / P log P
El logaritmo puede ser neperiano (en cuyo caso la informacin viene medida en nits), decimal (y,
entonces la unidad de informacin ser el Hartley) o binario (y, en ese caso, la informacin se mide en bits).
Normalmente se utiliza en logaritmo binario, midindose la informacin en bits. Cada bit constituye la
informacin proporcionada por el acaecimiento de un suceso de probabilidad igual a un medio.
h 1 / 2 log
1 / 2 1bit
2

Si el lugar de un nico suceso, se considera un conjunto de sucesos complementarios y mutuamente


excluyentes S, a los que corresponden unas probabilidades respectivas de P (cuya suma, lgicamente, es
igual a 1), a cada suceso le corresponder una incertidumbre (o una informacin en su acaecimiento) igual a:
h Pi log Pi
La informacin esperada (esperanza matemtica del tamao de la informacin) ser:
H P1 log P1 P 2 log P 2 ... P n log P n
H= entropa o desorden del sistema, mide la incertidumbre que afecta al sistema antes de saberse
cul de los sucesos va a producirse. Es siempre no negativa,
La entropa es mnima (H = 0) cuando slo uno de los sucesos es posible. Y es mxima [H = log (n)]
cuando todos los sucesos tienen la misma probabilidad de presentarse.
Considrese, ahora, una comunicacin o noticia, que se denominar mensaje, que hace variar la
incertidumbre, sobre la ocurrencia del suceso, existente previamente a su llegada. La modificacin valdr:
h P j h Q j
log P j log Q j
log Q j
/ Pj
Cuando son varios sucesos, la variacin de las probabilidades de cada uno de ellos como consecuencia
de la llegada de un mensaje se podr definir el contenido informativo esperado del mensaje, como:
I Q : P Q 1 log Q 1 / P1 Q 2 log Q 2 / P 2 ... Q n log Q n / P n

I Q : P ) Informacin de canal, siempre es no negativa, alcanza su valor mnimo cuando


I Q : P 0 , cuando Q i P i
Si el mensaje alcanzar alguna probabilidad a posteriori igual a la unidad,
I Q : P log 1 / P j h P j

You might also like