You are on page 1of 73

UNIDAD II.

Distribuciones de
Probabilidad
De acuerdo a lo expresado en la Unidad I, el comportamiento de un fenmeno puede
ser descompuesto en una parte explicada y una parte no explicada:

^
Y= Y +

La componente representa la parte del comportamiento del fenmeno Y que


permanece ignorada para nosotros. Esta parte asume la forma de una cantidad variable cuyo
valor en un momento determinado no podemos predecir.

Este tipo de variable, cuyos valores a asumir en un momento determinado no pueden


ser predichos con exactitud, se denominan variables aleatorias. Esta denominacin es para
distinguirlas de las variables del Anlisis Matemtico que son de carcter determinstico.

El hecho que sea una variable aleatoria y que, por lo tanto, el segundo miembro de
la relacin precedente est formado por la suma de un nmero ms una variable aleatoria,
nos permite concluir que Y es una variable aleatoria.

Esto nos conduce a la conclusin general de que cualquiera sea el fenmeno Y que
queramos explicar, ste va a reunir para nosotros las propiedades de una variable aleatoria.
Por lo tanto en esta unidad vamos a dedicarnos al estudio de las caractersticas
generales de las variables aleatorias, y de algunas variables aleatorias especficas
particularmente tiles en sus aplicaciones en Estadstica.

Esta unidad ha sido titulada Distribucin de probabilidades, porque como veremos


en su desarrollo, nuestro estudio de las variables aleatorias estar dirigido fundamentalmente
al anlisis de las probabilidades a asumir por los distintos valores de los mismos, es decir, a la
consideracin de la forma en que se distribuyen las probabilidades en el dominio de las
variables aleatorias.

Comenzaremos por definir y explicar las


caractersticas de las variables aleatorias......

1. La Teora General de las Variables


Aleatorias
Una variable aleatoria se define como una funcin del conjunto de los resultados
posibles () de un fenmeno de comportamiento aleatorio.

Esta definicin traslada el mbito del anlisis del dominio de los eventos al dominio
de los nmeros reales, al cual pertenecen los valores que puede asumir el fenmeno.

Consideremos el fenmeno que se genera al tirar tres monedas.

El siguiente diagrama muestra la transferencia del espacio muestral


correspondiente al nmero de resultados cara a obtener, al dominio de los
nmeros enteros no negativos:
Observe en este grfico que los elementos que componen el dominio de los
eventos son:

E0: obtener ninguna vez el resultado cara.


E1: obtener una vez el resultado cara y dos veces el resultado ceca.
Etc.

Por lo tanto su equivalente en el dominio del nmero real est dado por los
valores:

0 ,1 , 2 y 3

Continuando con nuestra explicacin......

Nuestro estudio de las variables aleatorias estar dirigido, fundamentalmente, a la


determinacin de la probabilidad de asumir cada uno de los posibles valores de su dominio
():

p X =x x
Si suponemos que las monedas a las que se refiere el ejemplo precedente son legtimas,
estas probabilidades sern de la forma:

p E 0 = p X = 0 =
1
8

p E 1 = p X = 1 =
3
8

p E 2 = p X = 2 =
3
8

p E 3 = p X = 3 =
1
8

Si el dominio de una variable est definido por un conjunto numerable, diremos que
la misma es discreta, por el contrario, si denota un conjunto no numerable, diremos que
la variable es continua.

Veamos de qu otra forma pueden ser clasificadas estas


variables......

1.1.- Las Variables Aleatorias


Unidimensionales
Diremos que la variable X es unidimensional cuando su dominio es representable
geomtricamente sobre una recta.

El ejemplo mencionado en el grfico I es tpico de una variable unidimensional


(observe que los valores que puede asumir una variable estn representado sobre una recta).

1.1.1.- Las variables aleatorias


unidimensionales discretas
Sea X una variable aleatoria discreta y sea:

= x1 , x2 , ...

El conjunto (numerable) de sus posibles valores, la probabilidad de que la variable asuma


cada uno de estos valores, se denotar de la siguiente forma:

p X = xi = pi i = 1 , 2 , ...

En conjunto, estos valores definen la funcin de probabilidades de la variable.

Teniendo en cuenta que los eventos (X=xi) son evidentemente incompatibles, ya que X
puede asumir cualquiera de los valores X1, X2, X3,..., pero no puede asumir un par de ellos a
la vez y, de acuerdo con los axiomas vistos en la Unidad 1, se obtiene que la funcin de
probabilidades posee las siguientes propiedades:

Propiedad I

Por el axioma 1 de la Unidad I:


La funcin de probabilidades es no negativa:

pi 0 i = 1 , 2 , ...

Propiedad II

De acuerdo con los axiomas 2 y 3 tambin vistos en la Unidad 1, se verifica que:

p1 + p2 + p3 + ...= p( ) = 1

Veamos ahora cmo se pueden graficar las funciones de


probabilidad......

La funcin de probabilidades puede ser graficada en un plano cartesiano en el que los


valores de la variable figuran en el eje de las abscisas y las probabilidades respectivas estn
representadas por segmentos de recta de longitud proporcional a cada probabilidad:
Continuando con nuestra explicacin.....

Adems de la funcin de probabilidades, asociada a una variable aleatoria, existe la


funcin de distribucin o de probabilidades acumuladas, definida como:

F X xk = p X xk = p1 + p2 + ...+ pk

Esta funcin de distribucin posee las siguientes propiedades:

Propiedad 1

Dado que est definida como la suma progresiva de valores de probabilidad, y que estos
valores por el axioma I son no negativos, es una funcin no negativa:
F X xi 0 i = 1 , 2 , ...

Propiedad 2

Es una funcin no-decreciente de la variable X:

F X xi+1 F X xi

Por qu decimos esto?

Tenga en cuenta que, por definicin:

F X xi+1 = p1 + p2 + ...+ pi+1

Cuenta con un sumando ms que:

F X xi = p1 + p2 + ...+ pi

y que, de acuerdo con la Propiedad 1 de la funcin de probabilidades, ese sumando es no


negativo.

Como consecuencia de las dos propiedades anteriores, se puede concluir que la funcin Fx
puede asumir valores comprendidos entre 0 y 1.

En particular se verifica que:

F X (x)= p1 + p2 + ...+ pn = p( ) = 1

y contina siendo igual a la unidad para cualquier valor de X mayor que xn.

Vamos a graficar ahora la funcin de distribucin...


Observe que, de acuerdo con su definicin, FX(x) toma el valor p1 para todos los valores de X
comprendidos en el intervalo [x1,x2). En x2, y para todos los puntos incluidos en el intervalo
[x2,x3), se verifica que FX(x2) = p1 + p2, y as sucesivamente.

Esto hace que su representacin grfica asuma la siguiente forma:

Aplicaremos en la siguiente actividad los conceptos de variable aleatoria, funcin de


probabilidades y funcin de distribucin:

1. Sea X la variable aleatoria que representa el nmero a obtener al tirar un dado


legtimo. Complete el siguiente cuadro en el que figura el dominio, la funcin de
probabilidades y la funcin de distribucin de la variable X:

xi pi Fi
1 1/6 1/6

2 1/6

3 3/6
4

2. Verifique si la funcin de probabilidades definida cumple con las propiedades enunciadas.

3. Grafique la funcin de probabilidades de la variable X:

4. Grafique la correspondiente funcin de distribucin de probabilidades:

5. Verifique si la funcin Fi cumple las propiedades enunciadas.

1.1.2.- Las variables aleatorias


unidimensionales continuas
Se dice que X es una variable aleatoria continua, si su funcin de distribucin, FX X
es continua para todo x y si existe, adems, una funcin (a la que denominaremos funcin de
densidad) no-negativa (fX(x)) tal que:

F X (x)= p(X x)=


-
F (u) du
x

De la definicin precedente se concluye que:

d
f X (x)= F X (x)
dx
Estrictamente hablando, fX(x) no es una funcin de probabilidades, ya que, para las
variables continuas, la probabilidad en cada punto es nula:

a
p(X = a) = f X (x) dx = 0
a

No obstante desempea el mismo rol que la distribucin pi (i=1,2,...) para las variables
aleatorias discretas.

Es as que sus propiedades son similares a las de la funcin pi:

Propiedad 1

f X (x) 0

Propiedad 2

x
f X (x) dx = 1

Veamos ahora cul es la probabilidad de que la variable


est incluida en un intervalo.

A partir de la definicin anterior es posible calcular la probabilidad de que la variable asuma


valores incluidos en un intervalo cualquiera de su espacio muestral:
b
p(a x b) = F X (b) - F X (a) = f X (x)dx
a

Veamos que sucede en la siguiente situacin. Le proponemos que reflexione sobre ella.

Sea X la variable aleatoria que representa el valor a asumir por el activo Molinos Ro
de la Plata al cierre de las operaciones de la Bolsa de Comercio, en un da determinado.

Suponga que hayamos asignado la siguiente funcin de probabilidades a la variable X:

f X (x)=
4
9x - 6 x2 + x3 (0 x 3)
27

Responda ahora las siguientes preguntas:

1. Cul es la probabilidad de que el precio del activo se ubique por debajo de $2.7 al
cierre de las operaciones de ese da?

2. Cul es la probabilidad de que el precio al cierre est entre $2.5 y $2.6?

3. Cul es la probabilidad de que el precio del activo supere los $2.0, al cierre de las
operaciones de ese da?

1.2.- Las variables aleatorias de ms de


una dimensin
Obviamente, igual que en el caso de las variables aleatorias unidimensionales, las variables
aleatorias de ms de una dimensin pueden ser clasificadas en:

variables aleatorias multidimensionales discretas.


variables aleatorias multidimensionales continuas.

1.2.1. - Las variables aleatorias


multidimensionales discretas.
Sean X e Y dos variables aleatorias unidimensionales discretas, con dominios
(X)={x1,x2,...} y (Y)={y1,y2,...}, respectivamente. Si consideramos una combinacin de
estas variables, obtendremos una variable aleatoria (Z) de dos dimensiones, cuya funcin de
probabilidades conjunta ser de la forma:


p Z = z ij = p X = xi Y = y j = p ij (i , j = 1 , 2 , ...)

Esta funcin posee las siguientes propiedades:

Propiedad 1

pij 0 (i , j = 1 , 2 , ...)

Propiedad 2

p
i=1 j=1
ij =1

Lea la siguiente explicacin.....

Cuando hablamos de variables aleatorias unidimensionales discretas hemos


considerado la variable aleatoria (X) que representa los puntos a obtener al "tirar" un
dado legtimo. Su dominio estaba definido por el conjunto:

(X)= 1 , 2 , 3, 4 , 5, 6

Supongamos ahora que, en forma simultnea con el anterior, se arroje un


segundo dado (tambin legtimo). La variable aleatoria (Y) que representa el resultado
a obtener en este dado est definida por el conjunto:

(Y) = 1 , 2 , 3 , 4 , 5 , 6

Luego, la variable aleatoria que representa la suma de los puntos a obtener en


los dos dados:

Z = X +Y

tendr un dominio representable de la siguiente forma:


(1,1) (1,2) ... (1,6)
(2,1) (2,2) ... (2,6)
... ... ... ...
(6,1) (6,2) ... (6,6)

y su funcin de probabilidades puede ser expresada de acuerdo con una tabla de doble
entrada de la forma:

xi 1 2 3 4 5 6

yj
1 1/36

6 1/36

Le proponemos que realice la siguiente actividad......

1. Complete este cuadro con la distribucin conjunta de probabilidades de la variable Z.


Recuerde que el resultado de que salga el nmero 4 la primera vez y 5 la segunda es la
probabilidad conjunta.

p Z = z 4,5 = p4,5 = p X = 4 Y = 5 =
11
66
2. Despus de completar el cuadro verifique si la funcin de probabilidades conjunta cumple las
propiedades enunciadas en la pgina precedente.

1.2.2 Las variables aleatorias multidimensionales continuas

Sean X e Y dos variables aleatorias unidimensionales continuas con dominios (X) y (Y),
respectivamente. Su combinacin nos permite definir una variable de dos dimensiones:

Z = (X , Y)

cuya funcin de densidad conjunta denotaremos de la siguiente forma:

f XY (x, y)

Esta funcin posee las siguientes propiedades:

Propiedad 1

Es esencialmente no-negativa:

f XY (x, y) 0

Propiedad 2


(X) (Y)
f XY (x, y) dx dy = 1
1.3- La independencia de las variables
aleatorias
Generalizaremos los conceptos de independencia entre eventos (comentados en la
tem 2.3 de la Unidad I al tratar el teorema de la probabilidad compuesta) a las variables
aleatorias.

Sea (X,Y) una variable aleatoria discreta bidimensional con funcin de probabilidades
conjunta pij (i,j=1,2,...).,la probabilidad de que la variable X asuma un valor particular (xi),
condicionado por el supuesto de que Y haya asumido previamente un valor dado (yj), define la
funcin de probabilidades condicionadas:

p X = x / Y = y = p X =p xY = Y = Y
i j
i j

Yj

que posee las siguientes propiedades:

Propiedad 1

p X = xi / Y = Y j 0 (i , j = 1 , 2 , ...)

Propiedad 2:

p X = x / Y = y = 1

i j
i=1

Obviamente,la probabilidad condicionada slo puede ser definida si


p (Y=yj) > 0

Por lo tanto, la definicin anterior es aplicable nicamente a variables aleatorias


discretas.

Se dice que las variables X e Y son independientes si, y slo si, se verifica la relacin:

p X = x / Y = y = p X = x
i j i = p i (i , j = 1, 2 , ... )

Es decir, si el supuesto de que Y ha asumido el valor yj no modifica la asignacin de


probabilidades de que la variable aleatoria X asuma uno cualquiera de sus posibles valores.

Le sugerimos realizar la siguiente actividad ........

1. Retornando al ejemplo mencionado en el tem 2.1, referido a los resultados a


obtener al tirar dos dados legtimos y utilizando el cuadro de la funcin de probabilidades
conjunta.
1.1 Resuelva:

p X 2 = 4 / X 1 = 3 =

p X 2 = 4 =

1.2. Indique si estas variables aleatorias pueden ser consideradas independientes.


1.3. Complete la siguiente afirmacin:

Al tirar 4 veces un dado se genera una variable aleatoria que tiene .....
dimensiones. La probabilidad de que:

4

p X 1 = 3 X 2 = 4 X 3 = 4 X 4 = 4 =

ya que en el experimento las variables aleatorias marginales son independientes entre


s.

2. El siguiente cuadro presenta la distribucin de probabilidades conjunta


asignada a la variable aleatoria (X1,X2), donde X1 representa el porcentaje anual de
rentabilidad esperada de un proyecto A, y X2 representa el porcentaje anual de
rentabilidad esperada de un proyecto B.

X1 -1 0 1

X2

-1 0,02 0,03

0 0,04

1 0,15 0,20
2.1. Complete el cuadro, sabiendo que la probabilidad de que el proyecto A produzca,
en el trmino de un ao, una ganancia del 1% es p(X1=1)=0,5 y que la probabilidad de
que el proyecto B produzca una prdida del 1% en el mismo perodo es p(X2=-1)=0,10.

2.2 Calcule las siguientes probabilidades:

p X 1 = 0 / X 2 = 1 =

p X 2 = -1 / X 2 = 0 =

p X 1 = -1 / X 2 = 1 =

Veamos ahora en qu consisten los momentos de una


variable aleatoria......

1.4.- Valores esperados o "momentos"


de una variable aleatoria

1.4.1.- Definicin
Existen ciertos valores tpicos, denominados momentos, de gran importancia en el
estudio de las variables aleatorias, que describen aspectos particulares de las mismas y
permiten, en cierta forma, su caracterizacin.
Cuando hablamos de aspectos particulares, nos referimos a ciertas caractersticas de
las variables aleatorias vinculadas, por ejemplo, con su posicin, es decir su ubicacin en el
plano, el grado de dispersin de sus valores con respecto a su valor central, su grado de
asimetra, etc.

Recuerde que, de acuerdo a lo expresado en el tem 1.1.1, la


distribucin de probabilidades de una variable aleatoria
puede ser representada en un plano cartesiano, en el que
los valores de su espacio muestral figuran en el eje de las
abcisas, y las probabilidades respectivas estndares por
segmentos de recta de longitud proporcional a cada
probabilidad.

Los momentos son promedios ponderados de potencia de los valores de la variable.

En un promedio ponderado los valores involucrados intervienen con un peso


proporcional a su importancia relativa (contrariamente a lo que ocurre con los promedios
simples, en los que todos los valores poseen el mismo peso relativo). En el caso de las
variables aleatorias las ponderaciones son sus respectivas probabilidades (es decir
adjudicaremos ms importancia a aquellos valores de la variable a los que les corresponden
mayores probabilidades).

De modo que en el clculo de los momentos intervienen los valores de la variable y


sus respectivas probabilidades.

El valor de la potencia a la cual est elevada la variable define el orden del momento.
Por su parte, los valores de la variable pueden estar expresados en su forma natural (xi), o
referidos a un origen distinto del origen de coordenadas, por ejemplo: con un origen en su
valor central (m(x)), es decir, calculados a partir de la siguiente modificacin de los valores
de la variable:
xi - m (x)

Segn veremos inmediatamente, el orden y el origen del momento ayudan a identificar


diferentes caractersticas.

Aplicaremos, en primer lugar, el concepto de momento para el caso de variables


aleatorias unidimensionales (discretas y continuas), para extenderlo luego al caso de variables
multidimensionales.

1.4.2.- Clasificacin de los momentos


Existen distintas clases de momentos, entre las que se destacan por la importancia de
sus aplicaciones, los llamados momentos absolutos y los momentos centrados.

Segn se trate de una variable discreta o de una variable continua, la expresin del
momento absoluto de orden s ser:

m s (X) = x i p i
s

i=1

m s (X) = x f X (x) dx
s

(x)

En particular, el momento absoluto de primer orden define el valor central que


caracteriza la posicin de la variable:


m1 (X) m(X)= x i p i
i= 1

m1 (X) = x f X (x) dx
(x)
Como sabemos, los promedios son siempre cocientes, en los que el denominador es igual al
total de las ponderaciones. En nuestro caso, en particular, la suma de las ponderaciones es
igual a la unidad:

p =1
i=1
i


(X)
f X (x) dx = 1

Es por esta razn que en las definiciones anteriores no aparece explcitamente, un


denominador.

Los momentos centrados o con origen en el valor central de la variable aleatoria X


estn definidos de la siguiente forma, segn que sta sea discreta o continua:


s (X) = x i - m(X) s p i
i=1

s (X) = x - m(X)
s
f X (x) dx
-
( x)

Los momentos absolutos y centrados estn relacionados a travs de las siguientes


expresiones:
2 (X) = m2 (X) - m(X) 2

3 (X) = m3 (X) - 3 m2 (X)m(X) + 2 m(X) 3

4 (X) = m4 (X) - 4 m3 (X)m(X) + 6 m2 (X) m(X) 2 - 3 m(X) 4

Para un demostracin de estas relaciones, le sugerimos ver Landro, Toranzos: "Teora


estadstica y aplicaciones". Editorial Macchi, 1997. tem 6, Cap. III

1. Supongamos ahora una variable aleatoria X que represente el nmero a obtener al


tirar una vez un dado legtimo.

1.1. Utilizando los conceptos de momentos absolutos de orden 1, 2 y 3 complete la


tercera, cuarta y quinta columnas del siguiente cuadro:

xi pi xi pi xi2 pi xi3 pi
1 1/6

2 1/6 2/6 4/6 8/6

3 1/6

4 1/6

5 1/6

6 1/6

1.2. Despus de sumar los valores de la tercera cuarta y quinta columnas, indicar los valores
de
m1 (X) =

m 2 (X) =

m3 (X) =

1.3. Represente grficamente la distribucin de probabilidades y ubique en el eje de las


absisas el valor de m1(x):

Pi

1 2 3 4 5 6 xi

2. Le proponemos ahora, aplicar el concepto de momento centrado a una variable


aleatoria Y, cuyo dominio y funcin de probabilidades figuran en el siguiente cuadro:
xi Pi (xi- m) (xi- m) (xi-m)2 Pi xi-m)3
pi pi

1 1/6

2 1/6

3 1/6

4 1/6

5 1/6

6 1/6

2.1. Complete la tercera, cuarta, quinta y sexta columnas del cuadro anterior.

2.2. Despus de sumar la cuarta, quinta y sexta columnas, indique los valores de:

1 (X) =

2 (X) =

3 (X) =

3. Retornemos a la actividad del tem 1.2, referido a la variable aleatoria que


representa el valor a asumir por el precio de un activo al cierre de las operaciones de
un da determinado, cuya funcin de probabilidades estaba definida por la expresin:

f X (x)=
4
9x - 6 x2 + x3 (0 x 3)
27
Calcule los momentos absolutos de primero, segundo y tercer orden:

m(X) =

m 2 (X) =

m 3 (X) =

Continuando con nuestra explicacin........

De la misma forma en que se definen momentos para las variables aleatorias


unidimensionales, es posible definir momentos para variables aleatorias de ms de una
dimensin. Dada, por ejemplo, una variable de dos dimensiones, (X,Y), se puede definir un
momento mixto absoluto de orden (r,s) como:


mr,s (X,Y) = xi y j pij
r s
(r , s = 0 , 1 , 2 , ...)
i=1 j=1

Aplicando un criterio similar al utilizado en las variables unidimensionales, se pueden


definir los momentos mixtos centrados de orden (r,s), como:



rs (X) = xi - m(X) r y j - m(Y) pij
s
(r , s = 1 , 2 , ...)
i=1 j=1
Entre los momentos mixtos tiene particular importancia el momento centrado de
orden (1,1), denominado comnmente covarianza:

cov(X.y) (X,Y) = m11(X,Y) - m(X)m(Y)

La covarianza proporciona una medida del grado de relacin lineal que existe entre las
variables. Este tema ser ampliado ms adelante en esta unidad.

1.4.3.- La esperanza matemtica


Aritmticamente la esperanza matemtica de una variable aleatoria X coincide con su
momento absoluto de primer orden:


E(X) = xi pi = m(X)
i=1


E(X) = x f X (x) dx = m(X)
-

Pero, el concepto de esperanza matemtica va mucho ms all de la simple


definicin como medida de la posicin de una variable aleatoria. Representa la medida de la
equivalencia entre una cantidad cierta y una cantidad aleatoria.

En realidad, ni Pascal ni los probabilistas clsicos razonaron en trminos de


probabilidades, sino en trminos de expectativa o esperanza matemtica, entendida como
el valor que caracteriza a un contrato aleatorio, como la relacin entre un presente cierto y
un futuro incierto, entre una cantidad cierta (apuesta), X, a pagar para recibir una cantidad
aleatoria Xp (E) si un evento E se verificara.
Supongamos un juego con dos contrincantes (A y B) en el que A ganar si se obtiene
como resultado un nmero par al tirar un dado legtimo, y B ganar si se obtiene
como resultado un nmero impar.

Supongamos que la apuesta de A sea de $100 y la de B sea de $200.

La variable aleatoria que representa las cantidades a ganar por el jugador A puede ser
definida de la siguiente forma:

X p(X)

-100 1/2

200 1/2

(la cantidad a perder por A est considerada como una ganancia negativa)

Para que el juego pueda ser considerado equitativo, su esperanza matemtica debe
ser nula (es decir, las esperanzas matemticas de ambos jugadores deben coincidir).

En nuestro caso se verifica que:

1 1
E(X) = (-100) + (200) = 100 0
2 2

Supongamos, en trminos ms generales, que las apuestas de los jugadores sean a y b


respectivamente, y que sus probabilidades de ganar el juego sean p(A) y p(B).
La variable aleatoria que representa los valores a ganar por el jugador A puede ser
definida de la siguiente forma:

X p(X)

-a p(A)

b p(B)

Para que el juego pueda ser considerado equitativo se debe verificar que:

E(X) = - a p(B) + b p(A) = 0

Es decir, se debe verificar la relacin:

b p(A)
=
a p(B)

Vamos a tratar a continuacin las propiedades de la esperanza matemtica........

Propiedad 1

Sea una variable aleatoria X que puede asumir solamente el valor c, de modo que p(X=c)=1
(este tipo de variables, denominadas "degeneradas", define una funcin en un espacio
muestral que est compuesto nicamente por el valor c). Entonces ser:

E(X) = c p(X = c) = c

Propiedad 2
Sea una variable aleatoria X, y sea k un valor constante, entonces ser:

E(kX)= k E(X)

Propiedad 3

Sean dos variables aleatorias X e Y y sea la variable aleatoria bidimensional Z=X+Y. Entonces
ser:

E(Z) = E(X + Y) = E(X) + E(Y)

Esta propiedad es generalizable a cualquier conjunto {X1,X2,...,Xn} de variables aleatorias:

E X 1 + X 2 + ...+ X n = E X 1 + E X 2 + ...+ E X n

Propiedad 4

Sean dos variables aleatorias independientes, X e Y, y sea la variable aleatoria bidimensional


W=XY. Se verificar, entonces, que:

E(XY) = E(X) E(Y)

Esta propiedad es inmediatamente generalizable a cualquier conjunto (X1,X2,...,Xn) de


variables aleatorias independientes:

E X 1 X 2 ... X n = E X 1 E X 2 ... E X n
Para ver una demostracin ms detallada de estas propiedades le sugerimos consultar:
Landro (op. cit.). tem 6.1.2, cap. III

1.4.4- La esperanza matemtica


condicionada
De acuerdo a lo ya expresado, dada una variable aleatoria bidimensional, (X,Y),
discreta o continua, es posible definir la funcin de probabilidades para la variable X,
condicionada por la suposicin de la ocurrencia de un valor particular, yj, de la variable Y:

p X = x / Y = y = p X =p xY=y Y= y
i j
i j
(i , j = 1 , 2 , ...)
j

Se puede definir, entonces, la esperanza matemtica condicionada por la suposicin


de la ocurrencia de un valor particular (yj) de Y, de la siguiente forma:

= x p X = x / Y = y

E X / Y = yj i i j
i=1

En particular, si X e Y son dos variables aleatorias independientes, se verificar que:


E X / Y = yj = E(X)

Retornemos a la actividad del tem 1.1.2 referido a la variable aleatoria que


representa la suma de los puntos a obtener al tirar dos veces un dado legtimo.
En el siguiente cuadro figura la distribucin conjunta de probabilidades de la variable
bidimensional (xi; yj).

xi 1 2 3 4 5 6

yj

1 1/36 1/36 1/36 1/36 1/36 1/36

2 1/36 1/36 1/36 1/36 1/36 1/36

3 1/36 1/36 1/36 1/36 1/36 1/36

4 1/36 1/36 1/36 1/36 1/36 1/36

5 1/36 1/36 1/36 1/36 1/36 1/36

6 1/36 1/36 1/36 1/36 1/36 1/36

1) Trate de hallar la probabilidad de obtener como resultado el nmero 3 (X2 = 4) en la


segunda "tirada". Suponga que hubiera obtenido como resultado el nmero 4 en la
primera "tirada" (X1 = 4)

En trminos simblicos se trata de hallar:

p X 2 = 3 / X1= 4 = p X 1 = 4 X 2 = 3
p X1= 4

2) Calcule el valor esperado de X2 condicionado al supuesto que X1 = 4:

1 1
E X 2 / X1= 4 = 1
1 +2 + ... + ...+ ... =
6/36 36 36

3) De la misma manera calcule:


E X 2 =6 / X1=6 =

4. Puede afirmar que las variables X1 y X2 son independientes?

1.4.5.- La Varianza
Los momentos centrados son particularmente apropiados para caracterizar la forma
de la concentracin de los valores de la variable alrededor de su valor central.

En especial, el momento centrado de segundo orden define una medida del grado de
dispersin de los valores de la variable con respecto a su valor esperado, denominada
varianza o desvo medio cuadrtico:


2 (X) 2 (X) = xi - E(X) 2 pi
i=1

2 (X) 2 (X) =
(X)
[x - E(X) ] 2 f X (x) dx

Desarrollando en esta ecuacin el binomio al cuadrado que figura en el segundo


miembro, se obtiene la siguiente expresin de la varianza en funcin de los momentos
absolutos:

2 (X) = m2 (X) - [m(X) ]


2

Esta relacin ya ha sido citada en el tem 1.4.2 de esta a


unidad.
Esta medida, por ser un momento de segundo orden, posee una dimensin distinta a la
de la variable (est expresada en trminos de X2). A fin de resolver este problema de falta de
homogeneidad entre la variable y su medida se define, entonces, otra medida -denominada
coeficiente de dispersin o desviacin estndar- igual a la raz cuadrada positiva de la
varianza:

(X) = + 2 (X)

Tomando en consideracin a la variable aleatoria que representa la rentabilidad anual


esperada en un proyecto:

1. Complete el siguiente cuadro:

xi pi xi pi xi2 pi

-1 0.30

0 0.20

1 0.50

2. Calcule el valor de la varianza, utilizando su expresin en funcin de los momentos


absolutos.

Continuando con la explicacin....


El desvo medio cuadrtico y el desvo estndar son medidas absolutas intrnsecas a la
variable X. Para comparar los desvos estndar correspondientes a dos variables aleatorias se
debe calcular una medida relativa llamada coeficiente de variacin:

(X)
k(X)=
m(X)

Cuanto mayor sea este coeficiente de variacin, ms dispersa ser la variable.

A partir de su definicin es posible enumerar las siguientes propiedades de la varianza:

Propiedad 1

La igualdad:

2 (X) = 0

se verifica si, y slo si, todos los posibles valores de X coinciden con E(X), o lo que es lo
mismo, solamente si X es una variable que puede tomar un valor nico que, obviamente,
coincidir con su valor medio.

Recuerde que este tipo de variables que pueden asumir


un valor nico fueron introducidas al tratar la
propiedad 1 de la esperanza matemtica, en el tem
1.4.3 de esta unidad.

Propiedad 2
Sean una variable aleatoria X y una constante k. De acuerdo con la definicin de varianza,
ser:

2 (kX)= k 2 2 (X)

Propiedad 3 (propiedad de aditividad para variables aleatorias independientes):

Sea una variable aleatoria bidimensional Z=X + Y. Entonces, ser:

2 (Z) = 2 (X + Y) = 2 (X) + 2 (Y) - 2 (X,Y)

Donde (X,Y) denota la covarianza entre las variables X e Y.

La covarianza ha sido presentada en el tem 1.4.2 de


esta Unidad, y ser tratada en detalle en el tem
siguiente.

1.4.6 La Covarianza
Como se expres en el tem 1.4.2, entre los momentos mixtos tiene particular
importancia el momento centrado de orden (1,1), denominado comnmente covarianza:

cov(X,Y) (X,Y) = E X - E(X) Y - E(Y) = E(XY) - E(X) E(Y)


De las propiedades de la esperanza matemtica se puede concluir que, si las variables
son independientes, la covarianza es nula.

E(XY) = E(X)E(Y)

Pero que la covarianza sea nula no implica que las variables sean independientes,
slo implica que no estn relacionadas linealmente. Cuando (X,Y)>0, se dice que la relacin
entre las variables es positiva o directa. Esto ocurre cuando los valores pequeos de X
tienden a combinarse con los valores pequeos de Y, y los valores grandes de X tienden a
agruparse con los valores grandes de Y. Viceversa, cuando (X,Y)<0, se dice que la relacin
entre las variables es negativa o inversa.

Retornando al ejemplo del tem 1.3 referido a las variables aleatorias (X1 y X2) que
representan los porcentajes de rentabilidad esperada para dos proyectos (A y B)
durante un ao, cuya distribucin de probabilidades conjunta figura en el siguiente
cuadro:

1. Calcule las esperanzas matemticas correspondientes a las variables X1 y X2.

2. Calcule la esperanza matemtica correspondiente a la variable bidimensional


definida por el producto (X1X2).
3. Calcule la covarianza entre las variables X1 y X2.

1.4.7.-El coeficiente de correlacin lineal


El cociente:

(X,Y)
(X,Y) =
(X) (Y)

define el coeficiente de correlacin lineal entre las variables X e Y.

Este coeficiente, al igual que la covarianza, mide el grado de relacin lineal entre las
variables. En particular, se demuestra que:

(X,Y)
1
(X) (Y)

De lo que se conluye que (X,Y) puede sumir solamente valores en el intervalo:

- 1 (X,Y) 1

Ser igual a -1 solamente si las variables X e Y estn vinculadas por una relacin lineal con
pendiente negativa de la forma:
(X)
Y= X + k (X)
(Y)

Ser igual a la unidad cuando las variables estn vinculadas mediante una relacin lineal con
pendiente positiva de la forma:

(Y)
Y X + k (X)
(X)

1.4.8 La asimetra
Los momentos centrados de orden impar son especialmente tiles para medir el
grado de concentracin de los valores de la variable a la izquierda o a la derecha de su valor
central; es decir, el grado de distorsin de la funcin de probabilidades con relacin a la
distribucin simtrica respecto de su valor esperado.

Si una variable X es simtrica con respecto a su valor central, entonces, todos sus
momentos centrados de orden impar sern nulos.

La medida de asimetra utilizada habitualmente es el coeficiente:

3 (X)
As(X) =
3 (X)

Cuanto ms se aleje de cero en valor absoluto este coeficiente, indicar que ms asimtrica
es la variable en cuestin.
1.4.9- La kurtosis
El momento centrado de cuarto orden de la distribucin de probabilidades Normal,
cumple la siguiente condicin:

4 (X) = 3 4 (X)

Las caractersticas de la distribucin Normal, en general,


y esta relacin en particular sern tratadas en el tem
2.2 de este captulo al referirnos al comportamiento de
algunas variables aleatorias.

Continuando con nuestra explicacin..........

Se puede, entonces, definir una medida que permita comparar una variable cualquiera
con la variable Normal en lo que hace al valor de mayor probabilidad:

4 (X)
K(X) = -3
4 (X)

Segn que este coeficiente -al que se denomina kurtosis- sea mayor, igual o menor que cero,
indicar que la distribucin de probabilidades dada es ms, igual o menos apuntada que la
distribucin Normal (si es ms apuntada que la funcin Normal, se dice que la variable es
leptokrtica, si es menos apuntada que la Normal, se dice que platokrtica).
1.5. La convergencia de las variables
aleatorias
Como sabemos, el concepto de convergencia fue introducido en el anlisis matemtico
con relacin al comportamiento de sucesiones de nmeros y generalizado, posteriormente, a
sucesiones de funciones.

En ste tem trataremos un tipo particular de convergencia, la convergencia


estocstica, cuya diferencia con la convergencia en el sentido del anlisis radica en que
aquella se verifica a travs del operador probabilidades.

De los distintos tipos de convergencia estocstica que existen nos interesan


particularmente la convergencia en distribucin y la convergencia en probabilidad.

1.5.1.- La convergencia en distribucin


Sea una sucesin de variables aleatorias X1,X2,...,Xn, y sea la variable aleatoria X con
funcin de probabilidades:

f 1 (x) , f 2 (x) , ... , f n (x)

f X (x)

respectivamente.
Si se verifica que:

lim
n
f n (x)= f X (x)

se dice que Xn converge en distribucin a la variable X:

Xn

d
X

En otros trminos, decir que la variable Xn converge en distribucin a la variable X


implica afirmar que la funcin de probabilidades de la variable Xn tiende a transformarse en
la funcin de probabilidades de la variable X.

Como se ver en el tem 1.2 de la Unidad III, un ejemplo de este tipo de convergencia
est dado por el teorema central del lmite, segn el cual la distribucin de probabilidades
correspondiente a la variable aleatoria definida como una suma de variables independientes,
tiende a transformarse en una funcin Normal, a medida que el nmero de sumandos
aumenta indefinidamente.

Le anticipamos que la distribucin de Probabilidades


Normal ser tratada en el tem 2.2 de esta unidad.

De acuerdo con las llamadas hiptesis clsicas, el mercado de capitales se comporta


como un mercado eficiente, y por lo tanto la rentabilidad de un activo (y en consecuencia su
precio), en un momento dado est formado como la agregacin de las opiniones de infinitos
operadores, las cuales pueden ser consideradas como variables aleatorias independientes.
La conclusin a la que se arrib en forma inmediata, a travs de esta propiedad de
convergencia en distribucin, es que a la variable rentabilidad de un activo" puede
asignrsele una distribucin de probabilidades Normal.

1.5.2.- La convergencia en probabilidad


Sea una sucesin de variables aleatorias X1,X2,...,Xn , y sea una variable X. Se dice
que la sucesin Xn converge en probabilidad a la variable X:

Xn X

si se verifica que la probabilidad de la variable Xn asuma valores comprendidos en un intervalo


infinitesimal alrededor de X, tiende a uno cuando n aumenta indefinidamente:

lim p X - X
n
n X + = 1

En el tem 1.1 de la unidad III veremos una aplicacin


de este tipo de convergencia al tratar la ley de los
grandes nmeros.

1.6.- La funcin generatriz de


momentos

Adems de las ya mencionadas funciones de probabilidades y de distribucin, existen


otras funciones tiles para el estudio de algunas variables aleatorias.

Entre todas estas funciones es particularmente importante la denominada funcin


generatriz de momentos, definida como la esperanza matemtica de la variable ewx, es decir,
como la suma de cada valor de esta variable por su respectiva probabilidad:

M X (w) = E e = e
wX w xi
pi
i=1

M X (w) = E e = e
wX wX
f X (x)
-

donde w es una variable real (sin significado probabilstico).

La funcin generatriz de momentos posee las siguientes propiedades:

Propiedad 1 (Propiedad multiplicativa):

Sea X e Y dos variables aleatorias independientes con funciones generatrices de momentos:

M X (w) y M Y (w)

respectivamente. Entonces la funcin generatriz de momentos de la variable suma Z=X+Y


estar definida por:

M Z (w) = M X +Y (w) = M X (w) M Y (w)

Propiedad 2
Sea una variable aleatoria X con funcin generatriz de momentos Mx(w), entonces, ser:

2
w w
M X (w) = 1 + m1 (X) + m2 (X) + ...
1! 2!

Propiedad 3

Derivando la serie de potencias anterior trmino a trmino, se obtiene que:

s
d 1 1 1 2
s MX
(w) = ms (X) + ms+1 (X)w + ms+2 (X) w + ... (s = 1 , 2 , ...)
dw s! (s + 1)! (s + 2)!

De esta expresin se deduce que el momento absoluto de orden s (=1,2,3,...) de la


variable X es igual al valor que asume la derivada de orden s de la funcin M en el punto
w=0:

d
m1 (X) = M X (w)
dw
w= 0

2
d
m 2 (X) = 2 M X
(w)
dw
w= 0

3
d
m 3 (X) = 3 M X
(W)
dw
w= 0
Propiedad 4

Sean una sucesin de variables aleatorias X1,X2,...,Xn y una variable X, con funciones
generatrices de momentos M1(w), M2(w),...,Mn(w) y MX(w), respectivamente. Si se verifica
que:

lim
n
M n (w) = M X (w)

entonces se puede asegurar que Xn converge en distribucin a la variable X.

1) Sea una variable aleatoria X discreta, con funcin de probabilidades de la forma:

n
p(X) = p x q n- x (x = 1 , 2 , ... , n ; p + q = 1)
x

De acuerdo con la definicin, su funcin generatriz de momentos ser de la forma:

n x n- x n n
M X (w) = E e = e p q = p e q = q + p ew
n
wX wX wX x n- x n

x=0 x x=0 x
Las dos primeras derivadas de esta funcin estn dadas por:
M X (w) = n q + p ew
n -1
p ew

M X " (w) = n(n - 1) q + p ew pe +n q+ pe


n- 2 w 2 w n -1
p ew

Los valores de estas derivadas en el punto w=0 nos proporcionan los momentos
absolutos de primero y segundo orden:

M X (w) m(X)= np

M X " (w) m2 (X) = n(n - 1) p + np = n p - n p + np = n p + np(1 - p) = n p + npq


2 2 2 2 2 2 2 2

2) Sea una variable aleatoria X continua, con distribucin de probabilidades de la forma:

f X (x)= e- x (x > 0)

A partir de la definicin obtenemos que:

M X (w) = E e = e e dx = e e dx = e
wX wx -x wx -x -( - w)x
dx
0 0 0

Si en esta integral efectuamos la transformacin (-w)x=y, se obtiene que:



-w
-y
M X (w) = e dy =
0
-w

Las dos primeras derivadas de esta funcin son de la forma:



M X (w) =
( - w )2

2
M X " (w) =
( - w )3

De las cuales obtenemos las siguientes expresiones para los momentos absolutos de
primero y segundo orden:

1
m(X)= M X (0) =

2
m2 (X) = M X " (0) =
2

Trataremos a continuacin algunas


variables aleatorias que son especialmente
tiles en la Estadstica para la explicacin
de fenmenos econmicos.......

2. Algunas variables
aleatorias especficas
En la primera parte de esta unidad hemos analizado las propiedades de las variables
aleatorias en general.

En esta parte trataremos las caractersticas de algunas variables aleatorias, que son
especialmente tiles en nuestras aplicaciones para la explicacin de fenmenos econmicos.
2.1.- El esquema de pruebas repetidas
Denominaremos esquema de pruebas repetidas al conjunto de observaciones sobre un
fenmeno realizadas en igualdad de condiciones. Por ejemplo: las sucesivas tiradas de una
moneda, las sucesivas jugadas de una ruleta, etc.

2.1.1.- La variable binomial


Llamaremos binomial a aquel fenmeno observable repetidamente en igualdad de
condicin, es que admita slo dos resultados posibles.

La variable binomial es aquella variable aleatoria que representa el resultado a


obtener en un fenmeno binomial.

Supongamos un fenmeno binomial Y (es decir, un fenmeno sobre el cual se supone


que pueden realizarse observaciones sucesivas en igualdad de condiciones), para el cual los

nicos resultados posibles sean: E (xito) y E (fracaso), y sean, respectivamente:

P(E) = p


p E = q 1- p
las probabilidades asignadas a la ocurrencia de cada uno de ellos. Es posible definir, entonces,
una variable aleatoria "u" que asuma los valores 1 0 segn que el resultado producido por el
fenmeno Y sea, respectivamente, "xito" o "fracaso", la distribucin de probabilidades de
esta variable ser de la forma:

q= 1- p (u = 0)

p(u) =
p (u = 1)

De acuerdo con las definiciones dadas en el tem 1.4.2, sus momentos, sern:

s s
m s (u) = 1 p + 0 q = p (s = 1 , 2 , ...)

2 (u) = p - p = p(1 - p) = pq
2

Le proponemos considerar el fenmeno que representa la rentabilidad diaria de un


activo (r) al cierre de las operaciones de un da cualquiera. Supongamos que esta

rentabilidad admita slo dos resultados posibles: ser mayor (E) o menor ( E ) que la tasa de
inters libre de riesgo, i.

Definiremos como rentabilidad diaria de un activo a la variacin relativa de los precios del
mismo, correspondientes a dos das consecutivos:
V t - V t -1
r=
V t -1

(donde Vt representa el precio del activo al cierre de las operaciones del da t).

Sea, entonces, una variable aleatoria binomial que asumir el valor u=0, si r i, y el valor
u=1, r i.

Supongamos que el conjunto de informacin con que contamos nos permita asignar las
siguientes probabilidades a los posibles valores de esta variable:

p(u = 0) = 0.7

p(u = 1) = 0.3

Complete el siguiente cuadro:

u p(u) up(u) u2p(u)

0 0.7

1 0.3

y calcule la esperanza matemtica y el desvo estndar.

Continuando con la explicacin......


Suponga ahora una variable aleatoria X que represente el nmero de xitos que se
pueden obtener en la serie de n repeticiones del fenmeno binomial, suponiendo que la
probabilidad de obtener "xito" en una prueba individual se mantenga constante a lo largo de
toda la serie.

Su espacio muestral estar formado, entonces, por los valores:

(X)= 0 , 1 , 2 , ... , n

(obsrvese que la variable X puede ser definida como la suma de n variables u, similares a las
definidas precedentemente).

La probabilidad de que la variable X asuma un valor particular x es equivalente a la


probabilidad de que el conjunto de n resultados incluya x "xitos" y (n-x) "fracasos":

E , E , ... , E , E , E , ... , E

Teniendo en cuenta que el orden en que se producen los "xitos" y los "fracasos" es
irrelevante, se concluye fcilmente que este conjunto puede adoptar:

n n!
Pn
x, n - x
= =
x x! (n - x)!

ordenamientos distintos. Por lo tanto, se tiene que:


n n
p(X = x)= (p p ... p)(q q ... q) = p x q n- x
x n- x x x

La distribucin de probabilidades de la variable X queda entonces definida de la siguiente


forma:

n
p(X = x)= p x q n - x (x = 0 , 1 , 2 , ...)
x

En este caso se dice que la variable X tiene una distribucin de probabilidades


binomial con parmetros n y p, y se la denota por

X:b(n,p).

La denominacin "binomial" se debe a que las probabilidades correspondientes a los


distintos valores de X pueden ser obtenidas a partir del desarrollo del binomio (p+q)n=1:

n x n - x n
n
n!
(p + q ) = p q
n
= x
p q
n- x

x = 0 x x = 0 x! (n - x)!

De acuerdo a la definicin dada en el tem 1.6 la funcin generatriz de momentos de


la variable X est definida por:

n

n

M X (w) = E e = x p e = q+ p e w
n
e
wX wX w x n- x n
p(X = x)= q
x=0 x=0
Los momentos quedan definidos, entonces, de la siguiente forma:

E(X) = np

2 (X) = npq

3 (X) = (q - p) 2 (X)

4 (X) = (1 - 6pq + 3npq) 2 (X)

Para la obtencin de los momentos a partir de las derivadas sucesivas de la funcin


generatriz de momentos, le sugerimos ver Landro, A. H.: Acerca de la probabilidad.
Editorial Economizarte, 1999. tem 1.1.2. cap. IV

Retornando al ejemplo anterior, denotemos por X a la variable aleatoria que representa


el nmero de das en que un activo dado puede generar tasas de rentabilidad mayores
que la tasa de inters libre de riesgo, en las cinco rondas de una semana. Es decir que
consideraremos como xito al evento que la tasa de rentabilidad del activo de un da
sea mayor que la tasa de inters libre de riesgo.

Para definir esta variable supondremos que la ocurrencia de un xito en un da determinado


es independiente de los xitos ocurridos en los das anteriores (hiptesis que, por otra parte,
se verifica en el comportamiento del mercado de capitales).

Complete el siguiente cuadro con los valores de la funcin de Probabilidades de X.


x P (x) xp(x) x2 p(x)

0 (0.75)5

5 (0.39)5

En base a la informacin contenida en este cuadro responda los siguientes interrogantes:

1. Cul es la probabilidad de que a lo sumo en tres das la rentabilidad diaria supere la tasa
de inters libre de riesgo?.

2. El nmero esperado de das que la rentabilidad diaria supere la tasa de inters libre de
riesgo es de 2.3 y el desvo estndar 1.2: Indicar si esta afirmacin es verdadera o falsa.
Fundamente su respuesta.

2.1.2.- La variable multinomial


Supngase ahora, generalizando las definiciones obtenidas para la variable binomial,
un fenmeno repetible Y que admita k resultados posibles:

E 1 , E 2 , ... , E k

siendo, respectivamente,

p E 1 = p 1 , p E 2 = p 2 , ... , p E k = p k

las probabilidades de que se produzca cada uno de dichos resultados en una prueba dada.
Estas probabilidades sern tales que:
k

p
j =1
j =1

Supnganse n repeticiones estocsticamente independientes de Y. El conjunto de resultados


posibles de esas n repeticiones estar formado por sucesiones del tipo:

Y 1 ,Y 2 , ... ,Y n

en las que cada Yi (i=1,2,...,n) asumir las modalidades E1,E2,...o Ek, segn que el resultado
de la i-sima repeticin sea E1,E2,...o Ek, respectivamente.

Consideremos, entonces, una variable de k dimensiones:

X 1 , X 2 , X 3 , ... , X k

en la que las variables marginales X1,X2,...,Xk representan, respectivamente, el nmero de


veces que se pueden presentar los resultados E1, E2,..., Ek al cabo de las n repeticiones.
Suponiendo que la probabilidad de obtener cada uno de los resultados posibles en una prueba
individual, se mantiene constante en la sucesin de n repeticiones, la probabilidad de que la
variable aleatoria (X1,X2,...,Xk) asuma el valor (x1,x2,...,xk), es decir, de que se verifique el
resultado:

E1 , E1 , ... , E 1 E2 , E2 , ... , E 2 ... E k , E k , ... , E k


x1 x2 xk

siendo irrelevante el orden de su presentacin, ser:


n x1 x2
p X 1 = x1 X 2 = x2 ... X k = xk = n!
p1 p2 ... p kxk = p x1 p x2 ... pkxk
! ... xk ! 1 2
x1 x2
, , ... , xk x1 ! x 2

En consecuencia, la funcin de probabilidades correspondiente a la variable {X1,X2,...,Xk}


queda definida de la siguiente forma:

n x1 x 2 k

p x1 , x 2 , ... , x k = p1 p 2 ... p kx k
x1 , x 2 , ... , x k = 0 , 1 , 2 , ... , n ; xi = n
x1 , x 2 , ... , x k i=1

A esta variable se la denomina multinomial de k dimensiones, debido a que sus valores de


probabilidad son los correspondientes al desarrollo del polinomio:

p 1 + p 2 + ...+ p k n

Supongamos que de una baraja espaola se realicen 8 extracciones con reposicin, y


consideremos como posibles los siguientes resultados en cada extraccin:

E1: obtener oro.

E2: obtener copa.

E3: obtener espada.

E4: obtener basto.

Calcule la probabilidad de que en las 8 extracciones se obtengan 3 veces el resultado


oro, 2 veces el resultado copa, y una vez el resultado "basto".

p X 1,X 2 ,X 3 ,X 4 (3,2,2,1) =
2.1.3.- La variable hipergeomtrica
Supongamos un universo de tamao N, formados por elementos correspondientes a una
de dos clases incompatibles, E1 o E2, (que estas dos clases sean incompatibles significa que
ningn elemento del universo puede pertenecer a la vez a las clases E1 y E2), siendo N1 el
nmero de elementos pertenecientes a la clase E1, y N2 el nmero de elementos
pertenecientes a la clase E2.

Supongamos que de dicho universo se extraigan, al azar n elementos (es decir que se toman
de una muestra n elementos), entonces la probabilidad de que ese conjunto de n elementos
est formado por x elementos de la clase E1 y n-x elementos de la clase E2:

E1 ,E1 , ... , E 1 E2 ,E2 , ... , E 2


x n- x

estar dada por el nmero de conjuntos de tamao x que se pueden formar con los N1
elementos de la clase E1 solamente, combinados con el nmero de conjuntos de tamao n-x
que se pueden formar, exclusivamente, con los N-N1 elementos de la clase E2, dividido por el
nmero total de conjuntos de n elementos que se pueden formar con los N elementos del
universo:

N 1 N N1


x n - x N 1 N 1 - 1 N 1 - (x - 1) N - N 1 N - N 1 - 1 N - N 1 - (n - x)+ 1 n
p(X = x)= = ... ...
N N N - 1 N - (x - 1) N - x N - (x + 1) N - (n - 1) x

n
De modo que la distribucin de probabilidades de la variable aleatoria X -llamada
hipergeomtrica-, que representa el nmero de elementos de la clase E contenida en el
conjunto de n elementos queda definida de la siguiente forma:

N 1
N N 1

p(X = x)= x n - x max 0 , n - N + N 1 x min n , N 1
N

n

Supongamos que en la baraja espaola del ejemplo anterior se realizan 8 extracciones al


azar sin reposicin. Supongamos en este ejemplo que se consideren los siguientes
resultados posibles:
E1: obtener como resultado un oro.

E2: obtener como resultado una carta que no sea oro.

Calcule la probabilidad de que el conjunto de cartas extradas al azar contenga dos


oros:

P (x=2)

Continuando con nuestra explicacin......

Aplicando, entonces, las definiciones correspondientes, se obtienen las siguientes expresiones


para los primeros momentos de la variable X:
N1
m(X) E(X) = n
N

N1 N - N1 N - n
2 (X) 2 (X) = n
N N N -1

N 1 N - N 1 N - 2 N 1 (N - n)(N - 2n)
3 (X) = n
N N N (N - 1)(N - 2)

2.2.- La variable Normal


Definicin

Se dice que una variable X est normalmente distribuida, si tiene una funcin de
probabilidades de la forma:

1 1 x-m
2

f X (x)= exp - (- x )
2 2

donde m y >0 son parmetros reales que, como se ver en el prximo tem, denotan el
valor esperado y el desvo estndar de la variable X (utilizando una notacin compacta, se
puede escribir X:N(m, 2).

La distribucin de probabilidades de la variable, u=(X-m)/, que no depende de los


parmetros m y .

1
(- u )
2
-u /2
f(u) = e
2
define la forma estandarizada de la distribucin Normal (utilizando una expresin compacta,
se dice que u:N(0,1)).

La funcin generatriz de momentos de la variable X est definida de la siguiente


forma:

1 2 2
M X (w) = exp mw + w
2

A partir de esta expresin se obtiene, en forma inmediata, que:

m(X) E(X) = m

2 (X) = 2

A partir de la definicin anterior podemos concluir fcilmente que la funcin


generatriz de momentos de la variable estandarizada ser de la forma:

2
/2
M u (w) = e w
2.2.3.- La funcin Normal como lmite de la
distribucin binomial
De acuerdo con los postulados del teorema central del lmite -demostrado por A De
Moivre, en 17331-, ste dice:

Dada una variable aleatoria X del tipo b(n,p) simtrica, es decir, con
p=1/2, cuando n aumenta indefinidamente, se verifica la convergencia
de la distribucin de probabilidades de la variable X a la funcin
Normal.

De modo que para valores suficientemente grandes de n puede utilizarse la siguiente


aproximacin:

x - np u 2

p u1 u 2 = p u 1 u u 2 =
1
e
2
u /2
lim
du
n
npq 2 u 1

(donde u denota a una variable aleatoria Normal con valor esperado nulo y varianza unitaria,
u=N(0,1)).

Ntese que este teorema asimila una variable discreta como la binomial a una variable
continua como la Normal.

En realidad, si bien, segn demuestra el teorema de De Moivre, esta asimilacin se verifica


cuando:

1
Una expresin detallada de las circunstancias que dieron origen a este teorema, su demostracin y su rol en el
proceso de formalizacin de la inferencia inductiva, pueden ser hallados en el tem 1.2 de la unidad III
y p = , suele aplicarse a casos en que los valores de n estn muy alejados del infinito
matemtico, y p no es exactamente igual a 1/2.

Esta circunstancia introduce en la solucin errores originados precisamente en los supuestos


de continuidad y simetra.

Para un anlisis de estos errores de aproximacin, le sugerimos consultar Landro, A.


H.(op. cit.) tem 1.1.3. cap. IV.

Supongan un experimento consistente en arrojar 10.000 veces una moneda legtima.

Sea X la variable aleatoria que representa el nmero de resultados cara a obtener en


las 10.000 pruebas. De acuerdo a lo expresado en los tems anteriores se demuestra
que:

X: b (10.000; )

De acuerdo con el teorema de De Moivre, la probabilidad de obtener un nmero de


resultados cara comprendido entre 4950 y 5100:

P(4950 x 5100)

Puede ser aproximado por una funcin Normal de la siguiente forma:


2
p 4950 x 5100 = p - 1
x - 5000 1
2 = p(-1 u 2) = e
-u 2 /2
du = F u (2) - F u (-1)
50 2 -1
Donde Fu(2) y Fu(-1) denotan dos valores de la funcin de distribucin de probabilidades
de la variable u:

1
F u (2) = p(u 2) = + (2) = 0,97725
2
y obtenemos que:

1
F u (-1) = p(u - 1) = - (1) = 0,15866
2

Los valores de la funcin pueden ser obtenidos en la tabla nmero II, que se halla en
Toranzos , F. I. (op.cit.). La forma de utilizacin de esta tabla puede ser consultada en
Toranzos , F. I. (op.cit.), Item 2, Cap. V.

De modo que, teniendo en cuenta las consideraciones expresadas, podemos escribir:

p 4950 x 5100 = 0,81859

De la observacin de la variable (X) que representa el comportamiento diario de la


rentabilidad del activo Molinos se puede concluir que sta es asimilable a una funcin
Normal del tipo N( 0.2793; 4.4636)

1. Verifique las siguientes afirmaciones para el caso del comportamiento diario de la


rentabilidad del activo Molinos:

La distribucin normal tiene la caracterstica que la probabilidad de que la variable


asuma valores comprendidos en el intervalo [ m (X) (X) ] es aproximadamente del 0. 68,
de que asuma valores en el intervalo [ m (X) 2 (X) ] es del 0. 955 y en el intervalo [ m (X)
3 (X) ] la probabilidad es prcticamente 1.
2. Calcule la probabilidad de que la rentabilidad del activo Molinos supere el valor: 2.827.

3. Determine la rentabilidad tal que se puede asegurar que existe una probabilidad del 90%
de que X no supere dicho valor.

2.3.- La variable de Poisson


Se dice que X es una variable de Poisson, con parmetro (en forma compacta, X:
P(), cuando su distribucin de probabilidades es de la forma:

x
p(X = x)= e
-
(x = 0 , 1 , 2 , ... ; > 0)
x!

De acuerdo con la versin de S.D. Poisson (1837) del teorema central del lmite (que ser
tratado en el tem 1.2 de la Unidad III), una forma de generacin de esta variable es como
lmite de una distribucin binomial fuertemente asimtrica, cuando

n , p 0 y np =

Recuerde que, de acuerdo con la versin de De Moivre del teorema central del lmite, si p q,
la distribucin binomial converge a una distribucin Normal.

La funcin generatriz de momentos de la variable X est dada por:



e w x

M X (w) = E e = e = e - e e = e e
-

w w
wX -1

x=0 x!

A partir de la cual se obtienen los siguientes momentos de la variable X:

m(X)= E(X) =

2 (X) = 2 (X) =

3 (X) =

4 (X) = (1 + 3 )

Si usted desea obtener una demostracin ms detallada de las propiedades de esta


variable, le sugerimos ver Landro, A. H. (op. cit.). Item 5.1. Cap. IV.

2.4.- La variable gamma


Esta variable se caracteriza porque su funcin de probabilidades es de la forma:

k -1
x - m*
m x
1 x- m*
f X (x)= e
*

*
(k)
*

Donde k>0 denota un parmetro que caracteriza la forma de la distribucin denota la
medida de dispersin, y - m* denota un parmetro que caracteriza la posicin de la
variable x:


(k)= y k - 1 e - y dy (k > 0)
0

define la llamada "funcin gamma-completa".

Haciendo m*=0 y (*=1 en la funcin de probabilidades original, se obtiene la forma


estandarizada de la distribucin gamma:

k -1 -x
xe
f X (x)= (x 0)
(k)

Para conocer ms caractersticas de esta variable usted puede consultar Landro (0p.cit.).
tem 6. Cap. IV

Le recordamos que las aplicaciones de la variable gamma sern desarrolladas en las unidades
III y IV de esta gua.

2.5.- La variable 2
La distribucin x2 se identifica como aquella que, bajo ciertas condiciones,
corresponde a la suma de los cuadrados de variables aleatorias:

Dada una sucesin de variables aleatorias independientes, {X1,X2,...,Xn}, todas con


distribucin de probabilidades del tipo N(0,1), entonces, la variable:
r
Y = X 2j
j=1

tiene distribucin de probabilidades 2 con r grados de libertad (en forma compacta)

Y: 2(r)

donde r es un nmero entero positivo.

Se dice que una variable aleatoria X tiene distribucin del tipo : 2(r)

si su funcin de probabilidades es de la forma:

r - x/2
-1 e
x 2
f X (x)= (r = 1 , 2 , ... ; 0 x )
r
2
r/2

2

La funcin generatriz de momentos est definida por:

1
M X (w) =
(1 - 2w )r/2

A partir de las derivadas sucesivas de esta funcin se obtienen los momentos:


m(X)= r

2 (X) = 2r

3 (X) = 8r

4 (X) = 12 r(r + 4)

Si usted desea profundizar sobre las caractersticas de esta variable, puede consultar
Landro (op. cit.). Item 7. Cap. IV

Le recordamos que las aplicaciones de la 2 sern


desarrolladas en las unidades III y IV de esta gua.

2.6.- La variable t
Esta variable -que fue estudiada por primera vez por el matemtico escocs W.S.
Gosset (quien firmaba sus trabajos con el pseudnimo The Student)- fue tratada
formalmente por R.A. Fisher, (1925), quien la defini como la relacin entre una variable
N(0,1) y la raz cuadrada de una variable 2(r) dividida por el nmero de grados de
libertad:

N(0,1)
t=
(r)
2

Se dice que una variable aleatoria X tiene distribucin "t" con r grados de libertad, si
su funcin de probabilidades es de la forma:
r +1

2
f X (x)= r + 1/2
(- x ; r = 1 , 2 , ...)
r x
2

r 1 +
2 r

A partir de las definiciones correspondientes se obtiene la siguiente sucesin de


momentos absolutos:

r
2 (X) = (r > 2)
r-2

3 (X) = 0

3 r2
4 (X) = (r > 4)
(r - 2)(r - 4)

Para tener ms detalles sobre las caractersticas de estas variables usted podr
consultar Landro(Op. Cit.). tem 11. Cap. IV.

Las aplicaciones de la variable t sern desarrolladas


en las unidades III y IV.
2.7.- La variable F
Sean X1 y X2 dos variables aleatorias independientes, ambas con distribucin de
probabilidades x2 con r1 y r2 grados de libertad, respectivamente. Se demuestra que la
variable:

X 1 / r1
X=
X 2 / r2

Tiene una distribucin de probabilidades "F de Snedecor" con r1 y r2 grados de libertad (en
forma compacta, X: F(r1,r2)) y su funcin de probabilidades es de la forma:

/2 /2 r /2 - 1
r 1r 1 r r2 2 x
r 1 , r 2 = 1 , 2 , ... ; 0 x
1

f (x)=
r 1+ r 2 x r /2
X
r1 r2 1 +r 2

B ,

2 2

donde:

B(p , q) = y p - 1 (1 - y ) q - 1 dy (p , q > 0)
0

Define una funcin Beta-completa.

Para obtener ms detalles de esta variable le sugerimos ver Landro (op.cit.). Item 12.
Cap. IV.
Las aplicaciones de la variable F tambin
sern desarrolladas en las unidades III y
IV.

Hemos concluido el estudio de las


variables aleatorias. Lo invitamos, a
continuar con la unidad III, en la que se
aplicar la teora de las variables
aleatorias al problema de la Inferencia.

You might also like