Professional Documents
Culture Documents
Distribuciones de
Probabilidad
De acuerdo a lo expresado en la Unidad I, el comportamiento de un fenmeno puede
ser descompuesto en una parte explicada y una parte no explicada:
^
Y= Y +
El hecho que sea una variable aleatoria y que, por lo tanto, el segundo miembro de
la relacin precedente est formado por la suma de un nmero ms una variable aleatoria,
nos permite concluir que Y es una variable aleatoria.
Esto nos conduce a la conclusin general de que cualquiera sea el fenmeno Y que
queramos explicar, ste va a reunir para nosotros las propiedades de una variable aleatoria.
Por lo tanto en esta unidad vamos a dedicarnos al estudio de las caractersticas
generales de las variables aleatorias, y de algunas variables aleatorias especficas
particularmente tiles en sus aplicaciones en Estadstica.
Esta definicin traslada el mbito del anlisis del dominio de los eventos al dominio
de los nmeros reales, al cual pertenecen los valores que puede asumir el fenmeno.
Por lo tanto su equivalente en el dominio del nmero real est dado por los
valores:
0 ,1 , 2 y 3
p X =x x
Si suponemos que las monedas a las que se refiere el ejemplo precedente son legtimas,
estas probabilidades sern de la forma:
p E 0 = p X = 0 =
1
8
p E 1 = p X = 1 =
3
8
p E 2 = p X = 2 =
3
8
p E 3 = p X = 3 =
1
8
Si el dominio de una variable est definido por un conjunto numerable, diremos que
la misma es discreta, por el contrario, si denota un conjunto no numerable, diremos que
la variable es continua.
= x1 , x2 , ...
p X = xi = pi i = 1 , 2 , ...
Teniendo en cuenta que los eventos (X=xi) son evidentemente incompatibles, ya que X
puede asumir cualquiera de los valores X1, X2, X3,..., pero no puede asumir un par de ellos a
la vez y, de acuerdo con los axiomas vistos en la Unidad 1, se obtiene que la funcin de
probabilidades posee las siguientes propiedades:
Propiedad I
pi 0 i = 1 , 2 , ...
Propiedad II
p1 + p2 + p3 + ...= p( ) = 1
F X xk = p X xk = p1 + p2 + ...+ pk
Propiedad 1
Dado que est definida como la suma progresiva de valores de probabilidad, y que estos
valores por el axioma I son no negativos, es una funcin no negativa:
F X xi 0 i = 1 , 2 , ...
Propiedad 2
F X xi+1 F X xi
F X xi = p1 + p2 + ...+ pi
Como consecuencia de las dos propiedades anteriores, se puede concluir que la funcin Fx
puede asumir valores comprendidos entre 0 y 1.
F X (x)= p1 + p2 + ...+ pn = p( ) = 1
y contina siendo igual a la unidad para cualquier valor de X mayor que xn.
xi pi Fi
1 1/6 1/6
2 1/6
3 3/6
4
d
f X (x)= F X (x)
dx
Estrictamente hablando, fX(x) no es una funcin de probabilidades, ya que, para las
variables continuas, la probabilidad en cada punto es nula:
a
p(X = a) = f X (x) dx = 0
a
No obstante desempea el mismo rol que la distribucin pi (i=1,2,...) para las variables
aleatorias discretas.
Propiedad 1
f X (x) 0
Propiedad 2
x
f X (x) dx = 1
Veamos que sucede en la siguiente situacin. Le proponemos que reflexione sobre ella.
Sea X la variable aleatoria que representa el valor a asumir por el activo Molinos Ro
de la Plata al cierre de las operaciones de la Bolsa de Comercio, en un da determinado.
f X (x)=
4
9x - 6 x2 + x3 (0 x 3)
27
1. Cul es la probabilidad de que el precio del activo se ubique por debajo de $2.7 al
cierre de las operaciones de ese da?
3. Cul es la probabilidad de que el precio del activo supere los $2.0, al cierre de las
operaciones de ese da?
p Z = z ij = p X = xi Y = y j = p ij (i , j = 1 , 2 , ...)
Propiedad 1
pij 0 (i , j = 1 , 2 , ...)
Propiedad 2
p
i=1 j=1
ij =1
(X)= 1 , 2 , 3, 4 , 5, 6
(Y) = 1 , 2 , 3 , 4 , 5 , 6
Z = X +Y
y su funcin de probabilidades puede ser expresada de acuerdo con una tabla de doble
entrada de la forma:
xi 1 2 3 4 5 6
yj
1 1/36
6 1/36
p Z = z 4,5 = p4,5 = p X = 4 Y = 5 =
11
66
2. Despus de completar el cuadro verifique si la funcin de probabilidades conjunta cumple las
propiedades enunciadas en la pgina precedente.
Sean X e Y dos variables aleatorias unidimensionales continuas con dominios (X) y (Y),
respectivamente. Su combinacin nos permite definir una variable de dos dimensiones:
Z = (X , Y)
f XY (x, y)
Propiedad 1
Es esencialmente no-negativa:
f XY (x, y) 0
Propiedad 2
(X) (Y)
f XY (x, y) dx dy = 1
1.3- La independencia de las variables
aleatorias
Generalizaremos los conceptos de independencia entre eventos (comentados en la
tem 2.3 de la Unidad I al tratar el teorema de la probabilidad compuesta) a las variables
aleatorias.
Sea (X,Y) una variable aleatoria discreta bidimensional con funcin de probabilidades
conjunta pij (i,j=1,2,...).,la probabilidad de que la variable X asuma un valor particular (xi),
condicionado por el supuesto de que Y haya asumido previamente un valor dado (yj), define la
funcin de probabilidades condicionadas:
p X = x / Y = y = p X =p xY = Y = Y
i j
i j
Yj
Propiedad 1
p X = xi / Y = Y j 0 (i , j = 1 , 2 , ...)
Propiedad 2:
p X = x / Y = y = 1
i j
i=1
Se dice que las variables X e Y son independientes si, y slo si, se verifica la relacin:
p X = x / Y = y = p X = x
i j i = p i (i , j = 1, 2 , ... )
p X 2 = 4 / X 1 = 3 =
p X 2 = 4 =
Al tirar 4 veces un dado se genera una variable aleatoria que tiene .....
dimensiones. La probabilidad de que:
4
p X 1 = 3 X 2 = 4 X 3 = 4 X 4 = 4 =
X1 -1 0 1
X2
-1 0,02 0,03
0 0,04
1 0,15 0,20
2.1. Complete el cuadro, sabiendo que la probabilidad de que el proyecto A produzca,
en el trmino de un ao, una ganancia del 1% es p(X1=1)=0,5 y que la probabilidad de
que el proyecto B produzca una prdida del 1% en el mismo perodo es p(X2=-1)=0,10.
p X 1 = 0 / X 2 = 1 =
p X 2 = -1 / X 2 = 0 =
p X 1 = -1 / X 2 = 1 =
1.4.1.- Definicin
Existen ciertos valores tpicos, denominados momentos, de gran importancia en el
estudio de las variables aleatorias, que describen aspectos particulares de las mismas y
permiten, en cierta forma, su caracterizacin.
Cuando hablamos de aspectos particulares, nos referimos a ciertas caractersticas de
las variables aleatorias vinculadas, por ejemplo, con su posicin, es decir su ubicacin en el
plano, el grado de dispersin de sus valores con respecto a su valor central, su grado de
asimetra, etc.
El valor de la potencia a la cual est elevada la variable define el orden del momento.
Por su parte, los valores de la variable pueden estar expresados en su forma natural (xi), o
referidos a un origen distinto del origen de coordenadas, por ejemplo: con un origen en su
valor central (m(x)), es decir, calculados a partir de la siguiente modificacin de los valores
de la variable:
xi - m (x)
Segn se trate de una variable discreta o de una variable continua, la expresin del
momento absoluto de orden s ser:
m s (X) = x i p i
s
i=1
m s (X) = x f X (x) dx
s
(x)
m1 (X) m(X)= x i p i
i= 1
m1 (X) = x f X (x) dx
(x)
Como sabemos, los promedios son siempre cocientes, en los que el denominador es igual al
total de las ponderaciones. En nuestro caso, en particular, la suma de las ponderaciones es
igual a la unidad:
p =1
i=1
i
(X)
f X (x) dx = 1
s (X) = x i - m(X) s p i
i=1
s (X) = x - m(X)
s
f X (x) dx
-
( x)
xi pi xi pi xi2 pi xi3 pi
1 1/6
3 1/6
4 1/6
5 1/6
6 1/6
1.2. Despus de sumar los valores de la tercera cuarta y quinta columnas, indicar los valores
de
m1 (X) =
m 2 (X) =
m3 (X) =
Pi
1 2 3 4 5 6 xi
1 1/6
2 1/6
3 1/6
4 1/6
5 1/6
6 1/6
2.1. Complete la tercera, cuarta, quinta y sexta columnas del cuadro anterior.
2.2. Despus de sumar la cuarta, quinta y sexta columnas, indique los valores de:
1 (X) =
2 (X) =
3 (X) =
f X (x)=
4
9x - 6 x2 + x3 (0 x 3)
27
Calcule los momentos absolutos de primero, segundo y tercer orden:
m(X) =
m 2 (X) =
m 3 (X) =
mr,s (X,Y) = xi y j pij
r s
(r , s = 0 , 1 , 2 , ...)
i=1 j=1
rs (X) = xi - m(X) r y j - m(Y) pij
s
(r , s = 1 , 2 , ...)
i=1 j=1
Entre los momentos mixtos tiene particular importancia el momento centrado de
orden (1,1), denominado comnmente covarianza:
La covarianza proporciona una medida del grado de relacin lineal que existe entre las
variables. Este tema ser ampliado ms adelante en esta unidad.
E(X) = xi pi = m(X)
i=1
E(X) = x f X (x) dx = m(X)
-
La variable aleatoria que representa las cantidades a ganar por el jugador A puede ser
definida de la siguiente forma:
X p(X)
-100 1/2
200 1/2
(la cantidad a perder por A est considerada como una ganancia negativa)
Para que el juego pueda ser considerado equitativo, su esperanza matemtica debe
ser nula (es decir, las esperanzas matemticas de ambos jugadores deben coincidir).
1 1
E(X) = (-100) + (200) = 100 0
2 2
X p(X)
-a p(A)
b p(B)
Para que el juego pueda ser considerado equitativo se debe verificar que:
b p(A)
=
a p(B)
Propiedad 1
Sea una variable aleatoria X que puede asumir solamente el valor c, de modo que p(X=c)=1
(este tipo de variables, denominadas "degeneradas", define una funcin en un espacio
muestral que est compuesto nicamente por el valor c). Entonces ser:
E(X) = c p(X = c) = c
Propiedad 2
Sea una variable aleatoria X, y sea k un valor constante, entonces ser:
E(kX)= k E(X)
Propiedad 3
Sean dos variables aleatorias X e Y y sea la variable aleatoria bidimensional Z=X+Y. Entonces
ser:
E X 1 + X 2 + ...+ X n = E X 1 + E X 2 + ...+ E X n
Propiedad 4
E X 1 X 2 ... X n = E X 1 E X 2 ... E X n
Para ver una demostracin ms detallada de estas propiedades le sugerimos consultar:
Landro (op. cit.). tem 6.1.2, cap. III
p X = x / Y = y = p X =p xY=y Y= y
i j
i j
(i , j = 1 , 2 , ...)
j
= x p X = x / Y = y
E X / Y = yj i i j
i=1
E X / Y = yj = E(X)
xi 1 2 3 4 5 6
yj
p X 2 = 3 / X1= 4 = p X 1 = 4 X 2 = 3
p X1= 4
1 1
E X 2 / X1= 4 = 1
1 +2 + ... + ...+ ... =
6/36 36 36
1.4.5.- La Varianza
Los momentos centrados son particularmente apropiados para caracterizar la forma
de la concentracin de los valores de la variable alrededor de su valor central.
En especial, el momento centrado de segundo orden define una medida del grado de
dispersin de los valores de la variable con respecto a su valor esperado, denominada
varianza o desvo medio cuadrtico:
2 (X) 2 (X) = xi - E(X) 2 pi
i=1
2 (X) 2 (X) =
(X)
[x - E(X) ] 2 f X (x) dx
(X) = + 2 (X)
xi pi xi pi xi2 pi
-1 0.30
0 0.20
1 0.50
(X)
k(X)=
m(X)
Propiedad 1
La igualdad:
2 (X) = 0
se verifica si, y slo si, todos los posibles valores de X coinciden con E(X), o lo que es lo
mismo, solamente si X es una variable que puede tomar un valor nico que, obviamente,
coincidir con su valor medio.
Propiedad 2
Sean una variable aleatoria X y una constante k. De acuerdo con la definicin de varianza,
ser:
2 (kX)= k 2 2 (X)
1.4.6 La Covarianza
Como se expres en el tem 1.4.2, entre los momentos mixtos tiene particular
importancia el momento centrado de orden (1,1), denominado comnmente covarianza:
E(XY) = E(X)E(Y)
Pero que la covarianza sea nula no implica que las variables sean independientes,
slo implica que no estn relacionadas linealmente. Cuando (X,Y)>0, se dice que la relacin
entre las variables es positiva o directa. Esto ocurre cuando los valores pequeos de X
tienden a combinarse con los valores pequeos de Y, y los valores grandes de X tienden a
agruparse con los valores grandes de Y. Viceversa, cuando (X,Y)<0, se dice que la relacin
entre las variables es negativa o inversa.
Retornando al ejemplo del tem 1.3 referido a las variables aleatorias (X1 y X2) que
representan los porcentajes de rentabilidad esperada para dos proyectos (A y B)
durante un ao, cuya distribucin de probabilidades conjunta figura en el siguiente
cuadro:
(X,Y)
(X,Y) =
(X) (Y)
Este coeficiente, al igual que la covarianza, mide el grado de relacin lineal entre las
variables. En particular, se demuestra que:
(X,Y)
1
(X) (Y)
- 1 (X,Y) 1
Ser igual a -1 solamente si las variables X e Y estn vinculadas por una relacin lineal con
pendiente negativa de la forma:
(X)
Y= X + k (X)
(Y)
Ser igual a la unidad cuando las variables estn vinculadas mediante una relacin lineal con
pendiente positiva de la forma:
(Y)
Y X + k (X)
(X)
1.4.8 La asimetra
Los momentos centrados de orden impar son especialmente tiles para medir el
grado de concentracin de los valores de la variable a la izquierda o a la derecha de su valor
central; es decir, el grado de distorsin de la funcin de probabilidades con relacin a la
distribucin simtrica respecto de su valor esperado.
Si una variable X es simtrica con respecto a su valor central, entonces, todos sus
momentos centrados de orden impar sern nulos.
3 (X)
As(X) =
3 (X)
Cuanto ms se aleje de cero en valor absoluto este coeficiente, indicar que ms asimtrica
es la variable en cuestin.
1.4.9- La kurtosis
El momento centrado de cuarto orden de la distribucin de probabilidades Normal,
cumple la siguiente condicin:
4 (X) = 3 4 (X)
Se puede, entonces, definir una medida que permita comparar una variable cualquiera
con la variable Normal en lo que hace al valor de mayor probabilidad:
4 (X)
K(X) = -3
4 (X)
Segn que este coeficiente -al que se denomina kurtosis- sea mayor, igual o menor que cero,
indicar que la distribucin de probabilidades dada es ms, igual o menos apuntada que la
distribucin Normal (si es ms apuntada que la funcin Normal, se dice que la variable es
leptokrtica, si es menos apuntada que la Normal, se dice que platokrtica).
1.5. La convergencia de las variables
aleatorias
Como sabemos, el concepto de convergencia fue introducido en el anlisis matemtico
con relacin al comportamiento de sucesiones de nmeros y generalizado, posteriormente, a
sucesiones de funciones.
f X (x)
respectivamente.
Si se verifica que:
lim
n
f n (x)= f X (x)
Xn
d
X
Como se ver en el tem 1.2 de la Unidad III, un ejemplo de este tipo de convergencia
est dado por el teorema central del lmite, segn el cual la distribucin de probabilidades
correspondiente a la variable aleatoria definida como una suma de variables independientes,
tiende a transformarse en una funcin Normal, a medida que el nmero de sumandos
aumenta indefinidamente.
Xn X
lim p X - X
n
n X + = 1
M X (w) = E e = e
wX w xi
pi
i=1
M X (w) = E e = e
wX wX
f X (x)
-
M X (w) y M Y (w)
Propiedad 2
Sea una variable aleatoria X con funcin generatriz de momentos Mx(w), entonces, ser:
2
w w
M X (w) = 1 + m1 (X) + m2 (X) + ...
1! 2!
Propiedad 3
s
d 1 1 1 2
s MX
(w) = ms (X) + ms+1 (X)w + ms+2 (X) w + ... (s = 1 , 2 , ...)
dw s! (s + 1)! (s + 2)!
d
m1 (X) = M X (w)
dw
w= 0
2
d
m 2 (X) = 2 M X
(w)
dw
w= 0
3
d
m 3 (X) = 3 M X
(W)
dw
w= 0
Propiedad 4
Sean una sucesin de variables aleatorias X1,X2,...,Xn y una variable X, con funciones
generatrices de momentos M1(w), M2(w),...,Mn(w) y MX(w), respectivamente. Si se verifica
que:
lim
n
M n (w) = M X (w)
n
p(X) = p x q n- x (x = 1 , 2 , ... , n ; p + q = 1)
x
n x n- x n n
M X (w) = E e = e p q = p e q = q + p ew
n
wX wX wX x n- x n
x=0 x x=0 x
Las dos primeras derivadas de esta funcin estn dadas por:
M X (w) = n q + p ew
n -1
p ew
Los valores de estas derivadas en el punto w=0 nos proporcionan los momentos
absolutos de primero y segundo orden:
M X (w) m(X)= np
f X (x)= e- x (x > 0)
M X (w) = E e = e e dx = e e dx = e
wX wx -x wx -x -( - w)x
dx
0 0 0
-w
-y
M X (w) = e dy =
0
-w
2
M X " (w) =
( - w )3
De las cuales obtenemos las siguientes expresiones para los momentos absolutos de
primero y segundo orden:
1
m(X)= M X (0) =
2
m2 (X) = M X " (0) =
2
2. Algunas variables
aleatorias especficas
En la primera parte de esta unidad hemos analizado las propiedades de las variables
aleatorias en general.
En esta parte trataremos las caractersticas de algunas variables aleatorias, que son
especialmente tiles en nuestras aplicaciones para la explicacin de fenmenos econmicos.
2.1.- El esquema de pruebas repetidas
Denominaremos esquema de pruebas repetidas al conjunto de observaciones sobre un
fenmeno realizadas en igualdad de condiciones. Por ejemplo: las sucesivas tiradas de una
moneda, las sucesivas jugadas de una ruleta, etc.
P(E) = p
p E = q 1- p
las probabilidades asignadas a la ocurrencia de cada uno de ellos. Es posible definir, entonces,
una variable aleatoria "u" que asuma los valores 1 0 segn que el resultado producido por el
fenmeno Y sea, respectivamente, "xito" o "fracaso", la distribucin de probabilidades de
esta variable ser de la forma:
q= 1- p (u = 0)
p(u) =
p (u = 1)
De acuerdo con las definiciones dadas en el tem 1.4.2, sus momentos, sern:
s s
m s (u) = 1 p + 0 q = p (s = 1 , 2 , ...)
2 (u) = p - p = p(1 - p) = pq
2
Definiremos como rentabilidad diaria de un activo a la variacin relativa de los precios del
mismo, correspondientes a dos das consecutivos:
V t - V t -1
r=
V t -1
(donde Vt representa el precio del activo al cierre de las operaciones del da t).
Sea, entonces, una variable aleatoria binomial que asumir el valor u=0, si r i, y el valor
u=1, r i.
Supongamos que el conjunto de informacin con que contamos nos permita asignar las
siguientes probabilidades a los posibles valores de esta variable:
p(u = 0) = 0.7
p(u = 1) = 0.3
0 0.7
1 0.3
(X)= 0 , 1 , 2 , ... , n
(obsrvese que la variable X puede ser definida como la suma de n variables u, similares a las
definidas precedentemente).
E , E , ... , E , E , E , ... , E
Teniendo en cuenta que el orden en que se producen los "xitos" y los "fracasos" es
irrelevante, se concluye fcilmente que este conjunto puede adoptar:
n n!
Pn
x, n - x
= =
x x! (n - x)!
n
p(X = x)= p x q n - x (x = 0 , 1 , 2 , ...)
x
X:b(n,p).
n x n - x n
n
n!
(p + q ) = p q
n
= x
p q
n- x
x = 0 x x = 0 x! (n - x)!
n
n
M X (w) = E e = x p e = q+ p e w
n
e
wX wX w x n- x n
p(X = x)= q
x=0 x=0
Los momentos quedan definidos, entonces, de la siguiente forma:
E(X) = np
2 (X) = npq
3 (X) = (q - p) 2 (X)
0 (0.75)5
5 (0.39)5
1. Cul es la probabilidad de que a lo sumo en tres das la rentabilidad diaria supere la tasa
de inters libre de riesgo?.
2. El nmero esperado de das que la rentabilidad diaria supere la tasa de inters libre de
riesgo es de 2.3 y el desvo estndar 1.2: Indicar si esta afirmacin es verdadera o falsa.
Fundamente su respuesta.
E 1 , E 2 , ... , E k
siendo, respectivamente,
p E 1 = p 1 , p E 2 = p 2 , ... , p E k = p k
las probabilidades de que se produzca cada uno de dichos resultados en una prueba dada.
Estas probabilidades sern tales que:
k
p
j =1
j =1
Y 1 ,Y 2 , ... ,Y n
en las que cada Yi (i=1,2,...,n) asumir las modalidades E1,E2,...o Ek, segn que el resultado
de la i-sima repeticin sea E1,E2,...o Ek, respectivamente.
X 1 , X 2 , X 3 , ... , X k
n x1 x 2 k
p x1 , x 2 , ... , x k = p1 p 2 ... p kx k
x1 , x 2 , ... , x k = 0 , 1 , 2 , ... , n ; xi = n
x1 , x 2 , ... , x k i=1
p 1 + p 2 + ...+ p k n
p X 1,X 2 ,X 3 ,X 4 (3,2,2,1) =
2.1.3.- La variable hipergeomtrica
Supongamos un universo de tamao N, formados por elementos correspondientes a una
de dos clases incompatibles, E1 o E2, (que estas dos clases sean incompatibles significa que
ningn elemento del universo puede pertenecer a la vez a las clases E1 y E2), siendo N1 el
nmero de elementos pertenecientes a la clase E1, y N2 el nmero de elementos
pertenecientes a la clase E2.
Supongamos que de dicho universo se extraigan, al azar n elementos (es decir que se toman
de una muestra n elementos), entonces la probabilidad de que ese conjunto de n elementos
est formado por x elementos de la clase E1 y n-x elementos de la clase E2:
estar dada por el nmero de conjuntos de tamao x que se pueden formar con los N1
elementos de la clase E1 solamente, combinados con el nmero de conjuntos de tamao n-x
que se pueden formar, exclusivamente, con los N-N1 elementos de la clase E2, dividido por el
nmero total de conjuntos de n elementos que se pueden formar con los N elementos del
universo:
N 1 N N1
x n - x N 1 N 1 - 1 N 1 - (x - 1) N - N 1 N - N 1 - 1 N - N 1 - (n - x)+ 1 n
p(X = x)= = ... ...
N N N - 1 N - (x - 1) N - x N - (x + 1) N - (n - 1) x
n
De modo que la distribucin de probabilidades de la variable aleatoria X -llamada
hipergeomtrica-, que representa el nmero de elementos de la clase E contenida en el
conjunto de n elementos queda definida de la siguiente forma:
N 1
N N 1
p(X = x)= x n - x max 0 , n - N + N 1 x min n , N 1
N
n
P (x=2)
N1 N - N1 N - n
2 (X) 2 (X) = n
N N N -1
N 1 N - N 1 N - 2 N 1 (N - n)(N - 2n)
3 (X) = n
N N N (N - 1)(N - 2)
Se dice que una variable X est normalmente distribuida, si tiene una funcin de
probabilidades de la forma:
1 1 x-m
2
f X (x)= exp - (- x )
2 2
donde m y >0 son parmetros reales que, como se ver en el prximo tem, denotan el
valor esperado y el desvo estndar de la variable X (utilizando una notacin compacta, se
puede escribir X:N(m, 2).
1
(- u )
2
-u /2
f(u) = e
2
define la forma estandarizada de la distribucin Normal (utilizando una expresin compacta,
se dice que u:N(0,1)).
1 2 2
M X (w) = exp mw + w
2
m(X) E(X) = m
2 (X) = 2
2
/2
M u (w) = e w
2.2.3.- La funcin Normal como lmite de la
distribucin binomial
De acuerdo con los postulados del teorema central del lmite -demostrado por A De
Moivre, en 17331-, ste dice:
Dada una variable aleatoria X del tipo b(n,p) simtrica, es decir, con
p=1/2, cuando n aumenta indefinidamente, se verifica la convergencia
de la distribucin de probabilidades de la variable X a la funcin
Normal.
x - np u 2
p u1 u 2 = p u 1 u u 2 =
1
e
2
u /2
lim
du
n
npq 2 u 1
(donde u denota a una variable aleatoria Normal con valor esperado nulo y varianza unitaria,
u=N(0,1)).
Ntese que este teorema asimila una variable discreta como la binomial a una variable
continua como la Normal.
1
Una expresin detallada de las circunstancias que dieron origen a este teorema, su demostracin y su rol en el
proceso de formalizacin de la inferencia inductiva, pueden ser hallados en el tem 1.2 de la unidad III
y p = , suele aplicarse a casos en que los valores de n estn muy alejados del infinito
matemtico, y p no es exactamente igual a 1/2.
X: b (10.000; )
P(4950 x 5100)
2
p 4950 x 5100 = p - 1
x - 5000 1
2 = p(-1 u 2) = e
-u 2 /2
du = F u (2) - F u (-1)
50 2 -1
Donde Fu(2) y Fu(-1) denotan dos valores de la funcin de distribucin de probabilidades
de la variable u:
1
F u (2) = p(u 2) = + (2) = 0,97725
2
y obtenemos que:
1
F u (-1) = p(u - 1) = - (1) = 0,15866
2
Los valores de la funcin pueden ser obtenidos en la tabla nmero II, que se halla en
Toranzos , F. I. (op.cit.). La forma de utilizacin de esta tabla puede ser consultada en
Toranzos , F. I. (op.cit.), Item 2, Cap. V.
3. Determine la rentabilidad tal que se puede asegurar que existe una probabilidad del 90%
de que X no supere dicho valor.
x
p(X = x)= e
-
(x = 0 , 1 , 2 , ... ; > 0)
x!
De acuerdo con la versin de S.D. Poisson (1837) del teorema central del lmite (que ser
tratado en el tem 1.2 de la Unidad III), una forma de generacin de esta variable es como
lmite de una distribucin binomial fuertemente asimtrica, cuando
n , p 0 y np =
Recuerde que, de acuerdo con la versin de De Moivre del teorema central del lmite, si p q,
la distribucin binomial converge a una distribucin Normal.
M X (w) = E e = e = e - e e = e e
-
w w
wX -1
x=0 x!
m(X)= E(X) =
2 (X) = 2 (X) =
3 (X) =
4 (X) = (1 + 3 )
k -1
x - m*
m x
1 x- m*
f X (x)= e
*
*
(k)
*
Donde k>0 denota un parmetro que caracteriza la forma de la distribucin denota la
medida de dispersin, y - m* denota un parmetro que caracteriza la posicin de la
variable x:
(k)= y k - 1 e - y dy (k > 0)
0
k -1 -x
xe
f X (x)= (x 0)
(k)
Para conocer ms caractersticas de esta variable usted puede consultar Landro (0p.cit.).
tem 6. Cap. IV
Le recordamos que las aplicaciones de la variable gamma sern desarrolladas en las unidades
III y IV de esta gua.
2.5.- La variable 2
La distribucin x2 se identifica como aquella que, bajo ciertas condiciones,
corresponde a la suma de los cuadrados de variables aleatorias:
Y: 2(r)
Se dice que una variable aleatoria X tiene distribucin del tipo : 2(r)
r - x/2
-1 e
x 2
f X (x)= (r = 1 , 2 , ... ; 0 x )
r
2
r/2
2
1
M X (w) =
(1 - 2w )r/2
2 (X) = 2r
3 (X) = 8r
4 (X) = 12 r(r + 4)
Si usted desea profundizar sobre las caractersticas de esta variable, puede consultar
Landro (op. cit.). Item 7. Cap. IV
2.6.- La variable t
Esta variable -que fue estudiada por primera vez por el matemtico escocs W.S.
Gosset (quien firmaba sus trabajos con el pseudnimo The Student)- fue tratada
formalmente por R.A. Fisher, (1925), quien la defini como la relacin entre una variable
N(0,1) y la raz cuadrada de una variable 2(r) dividida por el nmero de grados de
libertad:
N(0,1)
t=
(r)
2
Se dice que una variable aleatoria X tiene distribucin "t" con r grados de libertad, si
su funcin de probabilidades es de la forma:
r +1
2
f X (x)= r + 1/2
(- x ; r = 1 , 2 , ...)
r x
2
r 1 +
2 r
r
2 (X) = (r > 2)
r-2
3 (X) = 0
3 r2
4 (X) = (r > 4)
(r - 2)(r - 4)
Para tener ms detalles sobre las caractersticas de estas variables usted podr
consultar Landro(Op. Cit.). tem 11. Cap. IV.
X 1 / r1
X=
X 2 / r2
Tiene una distribucin de probabilidades "F de Snedecor" con r1 y r2 grados de libertad (en
forma compacta, X: F(r1,r2)) y su funcin de probabilidades es de la forma:
/2 /2 r /2 - 1
r 1r 1 r r2 2 x
r 1 , r 2 = 1 , 2 , ... ; 0 x
1
f (x)=
r 1+ r 2 x r /2
X
r1 r2 1 +r 2
B ,
2 2
donde:
B(p , q) = y p - 1 (1 - y ) q - 1 dy (p , q > 0)
0
Para obtener ms detalles de esta variable le sugerimos ver Landro (op.cit.). Item 12.
Cap. IV.
Las aplicaciones de la variable F tambin
sern desarrolladas en las unidades III y
IV.