You are on page 1of 22

Probabilidades y variables

aleatorias
1 Espacios probabilsticos.
Un experimento aleatorio es un experimento, test, proceso o cualquier ope-
racion en los cuales no se puede predecir de antemano cual va a ser el resultado,
aunque si se conoce un conjunto de posibles resultados. Esta situacion puede
describirse mediante el conjunto , cuyos elementos representan los posibles
resultados del experimento aleatorio en consideracion. Al conjunto se le de-
nomina espacio muestral, y a sus elementos valores muestrales o sucesos
elementales.
Ejemplo 1: El lanzamiento de un dado constituye un experimento aleatorio
porque antes de lanzar el dado no sabemos que valor va a salir. Sin embargo si
sabemos los posibles valores que pueden salir. Por tanto, el espacio muestral es
= {1, 2, 3, 4, 5, 6}.
Un suceso A es un subconjunto del espacio muestral. Se dice que el suceso
A ha ocurrido cuando el resultado del experimento A, y, por lo tanto,
el suceso A no ha ocurrido si / A. El espacio muestral, considerado como
un subconjunto de si mismo es un suceso particular: el suceso seguro, que
siempre ocurre. Por otra parte, el conjunto vaco se considera siempre como
un suceso: el suceso imposible.
Ejemplo 2: Si consideramos el experiento aleatorio del lanzamiento del
dado, entonces A = saldra un n umero impar constituye un suceso. Como
subconjunto del espacio muestral A = {1, 3, 5}. Si en un lanzamiento particular
(realizacion del experimento aleatorio) obtenemos el valor 3 entonces decimos
que el suceso A ha ocurrido, pero si sale el valor 4 entonces el suceso A no ha
ocurrido.
A partir de unos sucesos es posible construir otros. Si A es un suceso entonces
su opuesto, A
c
, es el suceso que ocurre exactamente cuando no ocurre A. Este
suceso es teoricamente el suceso complementario de A, es decir, contiene
precisamente aquellos valores que no estan contenidos en A, A
c
= { : / A}.
Si A y B son dos sucesos, podemos considerar el suceso C que ocurre exacta-
mente si ocurren ambos sucesos A y B. C es el suceso A y B, que teoricamente
es la interseccion A B, esto es, el conjunto de valores que pertenecen a A y
a B al mismo tiempo:
C = A B = { : A y B}
1
Dos sucesos A y B se dice que son incompatibles o disjuntos si AB = ,
es decir, ambos sucesos no pueden ocurrir simultaneamente. Si A B, esto es,
si A es un subconjunto de B entonces B ocurre cada vez que ocurra A. De
aqu se tiene que C = A B = A. Si I = {1, 2, . . .} es un conjunto numerable
de ndices y si A
i
es un suceso para todo i I entonces podemos construir el
suceso
C =

iI
A
i
= { : A
i
para todo i I} (1)
Si A
1
A
2
A
3
. . ., entonces (1) se denomina tambien lim
i
A
i
.
Por otra parte, podemos considerar el suceso C que ocurre exactamente
cuando al menos uno de los dos sucesos A y B ocurre. C es el suceso A o
B, que teoricamente es la union A B, esto es, el conjunto de valores que
pertenecen a A mas el conjunto de valores que pertenecen a B:
C = A B = { : A y/o B}
Si A B entonces C = A B = B. Si I = {1, 2, . . .} es un conjunto
de ndices numerable y si A
i
es un suceso para todo i I entonces podemos
construir el suceso
C =
_
iI
= { : A
i
para al menos un i I} (2)
Si A
1
A
2
A
3
. . . entonces (2) se denomina tambien lim
i
A
i
.
En general no todos los subconjuntos del espacio muestral se tienen en
cuenta como sucesos. Solamente se considera una cierta clase A de subconjuntos
de . Esa clase de conjuntos debe satisfacer las siguientes condiciones.
1. A, A.
2. Si A A entonces A
c
A.
3. Si A
i
A, i = 1, 2, . . ., es una secuencia nita o innita numerable de
sucesos entonces
i
A
i
A y
i
A
i
A.
Una clase de subconjuntos que satisface las condiciones anteriores se denomina
sigma algebra o - algebra.
Cada suceso A de la - algebra A tiene asociado una probabilidad P(A)
que es un n umero real del intervalo [0, 1]. Estas probabilidades deben satisfacer
las siguientes condiciones.
1. P() = 1, P() = 0, 0 P(A) 1 para todo A A.
2. Para todo A A, P(A
c
) = 1 P(A).
2
3. Si A
i
A, i = 1, 2, . . ., es una secuencia nita o innita numerable de
sucesos disjuntos (A
i
A
j
= si i = j), entonces
P(
i
A
i
) =

i
P(A
i
)
4. Si para A
i
A, i = 1, 2, . . ., A
1
A
2
A
3
. . . o A
1
A
2
A
3
. . .,
entonces:
lim
i
P(A
i
) = P
_
lim
i
A
i
_
La funcion de conjunto P denida sobre una - algebra A del espacio
muestral y que satisface las condiciones anteriores se denomina medida de
probabilidad y la tripleta (, A, P) espacio probabilstico.
Se pueden obtener importantes consecuencias de las condiciones 1 a 4 ante-
riores: si A B entonces P(A) P(B). Por otra parte, si A y B son sucesos
cualesquiera entonces P(A B) = P(A) +P(B) P(A B).
Si A y B son dos sucesos podemos conocer durante el transcurso de un
experimento que el suceso B ha ocurrido. Esto se traduce generalmente en
que cambiara la probabilidad de ocurrencia de A. Esta nueva probabilidad se
denomina probabilidad condicionada P(A/B) de A dado B. La probabilidad
condicionada se dene como
P(A/B) =
P(A B)
P(B)
, cuando P(B) > 0
La probabilidad condicionada no esta denida en el caso de que P(B) = 0.
Esta denicion tiene la siguiente interpretacion intuitiva: si sabemos que B ha
ocurrido entonces el resultado del experimento satisface B. El suceso A
solo puede ocurrir si AB. La probabilidad de que A ocurra puede medirse
mediante la probabilidad relativa de A B con respecto a B.
La probabilidad condicionada satisface las siguientes propiedades:
P(/B) = P(B/B) = 1 P(/B) = 0
P(A
c
/B) = 1 P(A/B)
Ademas si A
i
A, i = 1, 2, . . ., son disjuntos entonces
P(
i
A
i
/B) =

i
P(A
i
/B)
Y nalmente, si A
1
A
2
A
3
. . . o A
1
A
2
A
3
. . ., entonces
(A
1
B) (A
2
B) . . . o (A
1
B) (A
2
B) . . ., respectivamente y por
lo tanto
lim
i
P(A
i
/B) = P( lim
i
A
i
/B)
3
Teniendo en cuenta lo anterior la funcion de conjunto P(A/B), para un
suceso B jo con P(B) > 0, es una medida de probabilidad en A pues satisface
las condiciones 1 a 4.
Si P(A/B) = P(A) entonces se tiene que P(AB) = P(A)P(B). Dos suce-
sos que satisfacen lo anterior se dice que son (mutuamente) independientes.
La probabilidad de ocurrencia de uno de los sucesos no se modica si el otro ha
ocurrido.
Finalizaremos este apartado con unas cuantas formulas para la probabilidad
condicionada. Sean A
i
A, i = 1, 2, . . ., es una secuencia nita o innita
numerable de sucesos disjuntos tales que
i
A
i
= y P(A
i
) > 0 para todo i, y
sea A A un suceso cualquiera. Entonces se tiene que
P(A) =

i
P(A
i
)P(A/A
i
)
Esta ecuacion se denomina formula de la probabilidad total.
Por otra parte si A
i
A, son sucesos tales que P(A
1
) > 0, P(A
1
A
2
) > 0,
P(A
1
A
2
A
3
) > 0, . . . entonces se tienen que:
P(A
1
A
2
. . .A
n
) = P(A
1
)P(A
2
/A
1
)P(A
3
/A
1
A
2
) . . . P(A
n
/A
1
A2. . .A
n1
)
Los sucesos A
1
, A
2
, . . . , A
n
son mutuamente independientes (o simplemente
independientes) si para cualquier subconjunto de ndices i
1
, i
2
, . . . , i
n
se tiene
que:
P(A
i
1
A
i
2
. . . A
i
n
) = P(A
i
1
)P(A
i
2
) . . . P(A
i
n
)
2 Variable aleatoria.
Una variable aleatoria es una funcion real X denida sobre un espacio proba-
bilstico (, A, P), tal que el suceso { : X() x} pertenece a Apara cualquier
x, < x < .
Si X es una variable aleatoria y B el algebra de Borel en IR, entonces pode-
mos probar que el suceso { : X() B} pertence a A para todo B B. Estos
sucesos se denotan por X
1
(B). Si consideramos P

(B) = P(X
1
(B)) para
todo B B, entonces P

es una medida de probabilidad en B y, por consigu-


iente, (IR, B, P

) es un espacio probabilstico. Cuando consideramos una vari-


able aleatoria X podemos restringir nuestra atencion al espacio probabilstico
(IR, B, P

) y olvidarnos del espacio original (, A, P). Toda variable aleatoria X


en (, A, P) puede ser representada como una variable aleatoria en (IR, B, P

)
deniendo X(x) = x para todo x IR.
Para simplicar la notacion escribiremos {X B} para referirnos al suceso
{ : X() B} y para la probabilidad de este suceso P(X B).
4
La funcion de distribucion F(x) de una variable aleatoria X se dene como:
F(x) = P(X x), para < x <
Si g(x) es una funcion real denida en < x < de tal forma que para
todo y, el conjunto {x : g(x) y} pertenece al algebra de Borel, entonces g es
una variable aleatoria por denicion. En este caso decimos que es una funcion
B-medible. Si ademas X es una variable aleatoria en un espacio probabilstico
(, A, P), entonces Y () = g(X()) es de nuevo una variable aleatoria en el
mismo espacio, a la cual denominamos simplemente Y = g(X). Por lo tanto,
toda transformacion medible de una variable aleatoria es una variable aleatoria.
La mayora de las variables con las que se trabaja habitualmente son o de
tipo discreto o de tipo continuo.
2.1 Variables aleatorias discretas.
Una variable aleatoria X es discreta si solo puede tomar valores x
1
, x
2
, . . ., en
un conjunto nito o numerable. La probabilidad de esos valores individuales
viene dada por P(X = x
i
) = p
i
, 0 < p
i
< 1, i = 1, 2, . . . Puesto que el suceso
{X x} es la union de todos los sucesos {X = x
i
} con x
i
x, la funcion de
distribucion F(x) de una variable aleatoria discreta satisface
F(x) = P(X x) =

x
i
x
p
i
La funcion F(x) es de tipo escalera; solo cambia su valor en los puntos x
1
, x
2
, . . .
y tiene en el punto x
i
un salto de altura p
i
, i = 1, 2, . . .
F(x
i
) F(x

i
) = p
i
= P(X = x
i
)
Por otra parte
lim
x
F(x) =

i
p
i
= 1
La funcion de distribucion de una variable aleatoria discreta esta unvoca-
mente determinada por las probabilidades {p
i
, i = 1, 2, . . .} de todos los posibles
valores x
1
, x
2
, . . . Las probabilidades p
i
, i = 1, 2, . . . junto con los valores asoci-
ados x
i
, i = 1, 2, . . . determinan la distribucion de la variable aleatoria discreta
X. Con variables discretas es a menudo mas conveniente trabajar con las prob-
abilidades p
i
que con la funcion de distribucion F(x).
2.2 Variables aleatorias continuas.
Una variable aleatoria X es continua si existe una funcion f(x) 0 para
< x < tal que la funcion de distribucion F(x) puede representarse de la
5
forma
F(x) =
_
x

f(t)dt (3)
La funcion f(x) es la funcion de densidad de la variable aleatoria X con
funcion de distribucion F(x) dada por (3). De acuerdo a (3) la funcion de dis-
tribucion esta unvocamente determinada por su funcion de densidad. Ademas
tenemos que para x
1
< x
2
,
P(x
1
< X < x
2
) = F(x
2
) F(x
1
) =
_
x2
x
1
f(t)dt
La misma relacion se verica para P(x
1
< X x
2
), P(x
1
X < x
2
) y
P(x
1
X x
2
). La ecuacion (3) implica por otra parte que
_

f(t)dt = 1
2.3 Variables aleatorias independientes.
Frecuentemente se trabaja con varias variables aleatorias X
1
, . . . , X
n
(n > 1),
denidas sobre un mismo espacio probabilstico (, A, P). Como en una so-
la variable, escribimos {X
1
x
1
, . . . , X
n
x
n
} para denotar el suceso { :
X
1
() x
1
, . . . , X
n
() x
n
}. La funcion F(x
1
, . . . , x
n
) esta denida para
< x
i
< , i = 1, . . . , n, por
F(x
1
, . . . , x
n
) = P(X
1
x
1
, . . . , X
n
x
n
)
y se denomina funcion de distribucion conjunta (n-dimensional) de X
1
, . . . , X
n
.
Si hacemos que X
2
, . . . , X
n
tiendan a innito obtenemos una funcion de x
1
F
1
(x
1
) = F(x
1
, , . . . , )
que se denomina distribucion marginal con respecto a X
1
, y que constituye la
funcion de distribucion de X
1
. De forma mas general, si X
m+1
, . . . , X
n
tienden
a innito entonces
F
1..m
(x
1
, . . . , x
m
) = F(x
1
, . . . , x
m
, , . . . , )
es la distribucion marginal con respecto a X
1
, . . . , X
m
o la funcion de distribu-
cion m-dimensional de X
1
, . . . , X
m
. De manera analoga esta denicion puede
utilizarse para cualquier subconjunto de variables de {X
1
, . . . , X
n
}.
Las n variables aleatorias X
1
, . . . , X
n
son mutuamente independientes si
la funcion de distribucion conjunta es el producto de las funciones de distribucion
marginales de cada variable
F(x
1
, . . . , x
n
) = F
1
(x
1
) . . . F
n
(x
n
)
6
La distribucion marginal F
i
(x
i
) tiene funcion de densidad f
i
(x
i
). Las variables
X
1
, . . . , X
n
son mutuamente independientes si y solo si
f(x
1
, . . . , x
n
) = f
1
(x
1
) . . . f
n
(x
n
)
2.4 Momentos de variables aleatorias.
Distinguimos las deniciones seg un sea X variable discreta o continua. En
primer lugar, sea X una variable aleatoria discreta que toma los valores x
1
, . . . , x
n
.
La esperanza o valor esperado de X se dene como
E[X] =
n

i=1
x
i
P(X = x
i
)
La varianza de X se dene como:
V (X) = E[(X E[X])
2
] =
n

i=1
(x
i
E[X])
2
P(X = x
i
)
De forma general, dada cualquier transformacion g(x) entonces
E[g(X)] =
n

i=1
g(x
i
)P(X = x
i
)
Sea X una variable aleatoria discreta que toma los innitos valores x
1
, x
2
, . . ..
La esperanza o valor esperado de X se dene como
E[X] =

i=1
x
i
P(X = x
i
)
La varianza de X se dene como:
V (X) = E[(X E[X])
2
] =

i=1
(x
i
E[X])
2
P(X = x
i
)
De forma general, dada cualquier transformacion g(x) entonces
E[g(X)] =

i=1
g(x
i
)P(X = x
i
)
Sea X una variable aleatoria continua con funcion de densidad f(x). En-
tonces se dene la esperanza como:
E[X] =
_

xf(x)dx
7
La varianza se dene como
V (X) = E[(X E[X])
2
] =
_

(x E[X])
2
f(x)dx
De forma general, dada cualquier transformacion g(x), entonces
E[g(X)] =
_

g(x)f(x)dx
Las siguientes propiedades se verican para variables aleatorias continuas y
discretas:
1. Para todo c IR, E[c] = c y V (c) = 0.
2. Para todo c IR y X variable aleatoria, E[cX] = cE[X] y V (cX) =
c
2
V (X).
3. Dadas X, Y variables aleatorias, E[X +Y ] = E[X] +E[Y ].
4. Dada X variable aleatoria, |E[X]| E[|X|].
5. Para todo X variable aleatoria, V (X) = E[X
2
] (E[X])
2
Como consecuencia de las propiedades 2 y 3 se deduce que para toda com-
binacion lineal Z = aX +bY , con a, b IR,
E[Z] = E[aX +bY ] = aE[X] +bE[Y ]
Los valores esperados de las variables aleatorias g(X) = X
r
, para r = 1, 2, ...
se denominan momentos de orden r de la variable aleatoria X. En particular
el primer momento de X es la esperanza de X y el segundo momento de XE[X]
es la varianza de X.
Sea (X
1
, X
2
, . . . , X
n
) es un vector aleatorio n-dimensional con funcion de
distribucion F(x
1
, x
2
, . . . , x
n
). Supongamos que todas las varibles componentes
del vector son continuas (proceder de manera analoga para variables discretas).
El valor esperado E[X
i
] de las variables aleatorias X
i
, i = 1, 2, . . . , n, es igual a
E[X
i
] =
_

xf
i
(x)dx
donde f
i
(x) es la funcion de densidad marginal de F(x
1
, x
2
, . . . , x
n
) con respec-
to a la componente i-esima. De particular importancia son los momentos de
segundo orden mixtos
E[X
i
X
j
] =
_

. . .
_

x
i
x
j
f(x
1
, x
2
, . . . , x
n
)dx
1
...dx
n
, i, j = 1, 2, . . . , n
8
Si las variables aleatorias X
1
, X
2
, . . . , X
n
son independientes se obtienen que
el valor esperado del producto es igual al producto de los valores esperados,
E[X
i
X
j
] = E[X
i
]E[X
j
], para i = j
Los momentos de segundo orden mixtos de las variables aleatorias X
1

E[X
1
], . . . , X
n
E[X
n
], esto es, los valores esperados

ij
= E[(X
i
E[X
i
])(X
j
E[X
j
])]
se denominan covarianzas de las variables aleatorias X
1
, X
2
, . . . , X
n
. La co-
varianza
ii
es igual a la varianza de X
i
. Si X
1
, X
2
, . . . , X
n
son independientes
entonces
ij
= 0 para i = j. La proposicion inversa no es necesariamente cierta:
si la covarianza de dos variables aleatorias es cero entonces esas dos variables
no tienen porque ser independientes.
Si X e Y son variables aleatorias la varianza de la suma X +Y verica
V (X +Y ) = V (X) +V (Y ) + 2Cov(X, Y )
donde Cov(X, Y ) denota la covarianza entre las variables X e Y . Notese que si
las variables son independientes entonces la varianza de la suma es la suma de
las varianzas.
2.5 Desigualdades relevantes.
Si X es una variable aleatoria continua con valor esperado = E[X], varianza

2
= E[(X )
2
] y funcion de densidad f(x) (para variable discreta se sigue
un razonamiento analogo), y si k > 0, entonces

2
=
_
+k
k
(x )
2
f(x)dx +
_
k

(x )
2
f(x)dx +
_

+k
(x )
2
f(x)dx
Si omitimos el termino de la primera integral y reemplazamos x en los dos
integrandos restantes por una cota superior y una cota inferior, respectivamente,
entonces

_
k

(k)
2
f(x)dx +
_

+k
(k)
2
f(x)dx = (k)
2
P(|X | k)
y de aqu se obtiene la desigualdad de Chebyshev
P(|X | k)
1
k
2
Esta desigualdad nos indica que los valores de una variable aleatoria caen con
alta probabilidad en un entorno del valor esperado . La raz cuadrada de la
9
esperanza, la desviacion tpica, es, de acuerdo a la desigualdad de Chebyshev,
una medida para la desviacion esperada de los valores de la variable desde su
valor esperado.
Si X e Y son dos variables aleatorias arbitrarias y si es un n umero real
entonces E[(X + Y )
2
] = E[X
2
] + 2E[XY ] +
2
E[Y
2
] 0 para todo . Por
consiguiente el discriminante de esta funcion cuadratica en no puede ser pos-
itivo: 4(E[XY ])
2
4E[X
2
]E[Y
2
] 0. De aqu se obtiene la desigualdad de
Schwarz
(E[XY ])
2
E[X
2
]E[Y
2
]
Aplicando esta desigualdad a X = X
i
E[X
i
], Y = X
j
E[X
j
] podemos
concluir que

2
ij

ii

jj
2.6 Funci on generatriz.
Dada una variable aleatoria X su funcion generatriz de momentos (t) se
dene como
(t) = E[e
tX
]
Se dice que la funcion generatriz de una variable aleatoria X existe cuando existe
una constante positiva b tal que (t) es nita para |t| < b, es decir, es nita en
un entorno del cero. La funcion generatriz puede utilizarse para determinar los
momentos respecto al cero de una variable aleatoria. En este sentido, la k-esima
derivada de (t) evaluada en el cero coincide con el k-esimo momento de X

(k)
(0) = E[X
k
]
La funcion generatriz es unica, es decir, si dos variables aleatorias tienen igual
funcion generatriz entonces tienen la misma distribucion. Esta caracterstica nos
puede ayudar a identicar la distribucion de una variable aleatoria a traves del
calculo de su funcion generatriz. Otras propiedades que nos ayudan a obtener
la funcion generatriz de variables aleatorias son
Si Y = a +bX entonces
Y
(t) = e
at

X
(bt).
Si X
1
, ..., X
n
son variables aleatorias independientes entonces la funcion
generatriz de la suma Y = X
1
+ ... + X
n
es igual al producto de las
funciones generatrices de las variables X
i
, es decir,

Y
(t) =
n

i=1

Xi
(t)
10
2.7 Funci on generatriz de probabilidades.
Sea X una variable aleatoria discreta que toma valores en IN. La funcion
generatriz de probabilidades se dene como
P(t) = E[t
X
]
Como propiedad fundamental de esta funcion tenemos que las derivadas evalu-
adas en el 1 estan relacionadas con los momentos de la variable de la forma:
P
(k)
(1) = E[X(X 1)(X 2)...(X k + 1)], k = 1, 2, ...
como casos particulares
P(1) = 1 P

(1) = E[X] P

(1) = E[X(X 1)] = E[X


2
] E[X]
Si X e Y son variables aleatorias discretas independientes con funciones
generatrices de probabilidades P(t) y Q(t), respectivamente, entonces la funcion
generatriz de probabilidades de la suma X +Y es P(t)Q(t).
2.8 Teorema central del lmite
Consideremos la media aritmetica de n variables aleatorias independientes
X
n
=
1
n
n

i=1
X
i
en particular respecto a su comportamiento cuando n . Las variables
aleatorias tiene todas la misma distribucion y por lo tanto la misma esperanza
E[X
i
] = y la misma varianza V (X
i
) =
2
. Supongamos que esos momentos
existen y son nitos, < ,
2
< . El valor esperado de X
n
viene dado por
E
_
X
n

=
1
n
E
_
n

i=1
X
i
_
=
1
n
n

i=1
E[X
i
] =
La media aritmetica X
n
tiene el mismo valor esperado que las variables X
i
.
La varianza de la media aritmetica es

2
X
= E
_
_
_
1
n
n

i=1
X
i

_
2
_
_
=
1
n
2
E
_
_
_
n

i=1
X
i

_
2
_
_
=

2
n
La varianza de X
n
tiende a cero cuando n . Eligiendo > 0 y aplicando
la desigualdad de Chebyshev a X
n
se tiene que
P
_

X
n


2
n
2
11
Para todo > 0 tenemos por lo tanto
lim
n
P
_

X
n


_
= 0
Para n , se dice que X
n
converge en probabilidad al valor esperado . Este
resultado se conoce como ley debil de los grandes n umeros.
Ademas, si las X
i
, i = 1, 2, . . ., estan denidas en el espacio probabilstico
(, A, P), entonces X
n
es tambien una funcion en el mismo espacio de prob-
abilidad. Se puede probar que el suceso { : lim
n
X
n
() = }, es decir,
el conjunto de todos los valores muestrales para los cuales X
n
converge a ,
pertenece a A, y por consiguiente tiene una probabilidad. Esta probabilidad
es, de hecho, igual a 1. Se dice entonces que X
n
converge con probabilidad
1 o converge casi seguramente a . Este resultado recibe el nombre de ley
fuerte de los grandes n umeros
P
_
lim
n
X
n
=
_
= 1
Estas leyes de los grandes n umeros juegan un papel importante en es-
tadstica matematica. Estas leyes establecen que la media aritmetica de una
gran n umero de variables aleatorias independientes con distribuciones iguales
cae cerca al valor esperado de las variables aleatorias individuales.
Las variables aleatorias

n(X
n
)

n
i=1
X
i
n

n
tienen esperanza 0 y varianza 1, para todo n. Puede probarse que las fun-
ciones de distribucion de las variables aleatorias convergen a medida que n se
incrementa a la distribucion normal estandarizada, es decir,
lim
n
P
_
n(X
n
)

x
_
= (x) =
1

2
_
x

e
z
2
2
dz
Este es un caso especial del teorema central del lmite, uno de los prin-
cipales resultados de teora de probabilidad.
Para n sucientemente grande tenemos por lo tanto
P
_
n(X
n
)

x
_
(x) (4)
donde signica es aproximadamente igual a. Desde aqu se sigue que si
reemplazamos x en (4) por

n(x )/, entonces
P
_
X
n
x
_

_
n(x )

_
12
que signica que para n sucientemente grande, X
n
se distribuye aproximada-
mente como una normal de media y varianza
2
/n. Por otra parte, si reem-
plazamos x por (x n)

n en (4) obtenemos
P
_
n

i=1
X
i
x
_

_
x n

n
_
La suma de las X
i
se distribuye para n grande aproximadamente como una nor-
mal de media n y varianza n
2
. En este sentido X
n
y

n
i=1
X
i
se distribuyen
asintoticamente como normales.
3 Principales variables aleatorias discretas.
3.1 Distribucion de Bernoulli, Be(p).
Una variable aleatoria de Bernoulli tomo solo dos valores diferentes 1 y 0 con
probabilidades p y 1 p, respectivamente. La funcion de probabilidad puede
expresarse como sigue:
P(X = x) = p
x
(1 p)
1x
, x {0, 1}
El parametro p es una probabilidad, y por tanto p [0, 1]. Esta distribucion
modeliza aquellas situaciones en las que existe solo dos tipos de respuesta ex-
cluyentes y exhaustivas, como por ejemplo, exito o fracaso, verdadero y falso, si
y no, funcionamiento o fallo. La esperanza y la varianza son
E[X] = p V (X) = p(1 p)
La funcion generatriz de probabilidades es
P(t) = (1 p) +pt
3.2 Distribucion Binomial, Bi(n, p).
Un experimento binomial es aquel que consta de n pruebas identicas de Bernoul-
li, es decir, pruebas en las que solo se puede dar uno de dos posibles resultados,
que llamaremos de forma general exito y fracaso. Las pruebas son independi-
entes y la probabilidad de exito en cada una de ellas es p. Esta probabilidad
no se modica a medida que se realizan las pruebas. Una variable aleatoria
binomial es aquella que cuenta el n umero de exitos en un experimento binomial.
La funcion de probabilidad de tal variable es
P(X = x) =
_
n
x
_
p
x
(1 p)
nx
, x = 0, 1, ..., n
13
La esperanza y varianza de esta variable son
E[X] = np V (X) = np(1 p)
La funcion generatriz de probabilidades es
P(t) = (1 p +pt)
n
La variable aleatoria binomial se utiliza en el control de calidad por atributos
y en las tecnicas de muestreo con reemplazamiento.
Por denicion de la variable se tiene que si X
1
, ..., X
n
son variables aleatorias
independientes con distribucion Be(p), entonces la distribucion de X
1
+... +X
n
es Bi(n, p).
Por otra parte, si X Bi(n
1
, p) e Y Bi(n
2
, p) son independientes, en-
tonces X+Y Bi(n
1
+n
2
, p). Es decir la suma de distribuciones independientes
binomiales es binomial si tienen en com un la probabilidad de exito p.
3.3 Distribucion multinomial.
La distribucion multinomial generaliza a la distribucion binomial. Supongamos
un experimento que tiene como salida k posibles resultados, cuyas probabili-
dades de ocurrencia son p
1
, ..., p
k
(p
1
+ ... + p
k
= 1). Si realizamos n pruebas
independientes del experimento, la variable aleatoria multinomial es la que cuen-
ta cuantos resultados de cada tipo se han obtenido en las n pruebas. Es decir,
la variable aleatoria X = (X
1
, ..., X
k
), donde X
i
cuenta el n umero de resulta-
dos de tipo i que ocurrieron, tiene distribucion multinomial. La distribucion de
probabilidades es
P(X
1
= x
1
, ..., X
k
= x
k
) =
n!
x
1
! x
k
!
p
x
1
1
p
x
k
k
con x
i
{0, 1, ..., n}i = 1, ..., k, (x
1
+... +x
k
= n)
3.4 Uniforme discreta o equiprobable, UD(n).
En su forma mas sencilla, esta variable controla la ocurrencia de n sucesos
incompatibles y exhaustivos equiprobables. La funcion de probabilidad es
P(X = x) =
1
n
, x = 1, 2, ..., n
La esperanza y varianza son
E[X] =
n + 1
2
V (X) =
n
2
1
12
14
3.5 Geometrica, Ge(p).
Si realizamos consecutivamente experimentos independientes de Bernoulli en los
que la probabilidad de exito p se mantiene constante, la variable que cuenta el
n umero de fracasos hasta conseguir el primer exito es una variable aleatoria con
distribucion geometica. La funcion de probabilidad es
P(X = x) = (1 p)
x
p, x = 0, 1, ...
La esperanza y varianza son
E[X] =
1 p
p
V (X) =
1 p
p
2
Se utiliza en estudios de abilidad, meteorologa y en general en situaciones
cclicas donde se alternan los sucesos exito y fracaso.
Notese que si X es una geometrica de parametro p, entonces Y = X + 1
es otra variable aleatoria geometrica que cuenta el n umero de pruebas hasta
conseguir un exito. De manera similar se pueden considerar las variables que
cuentan el n umero de exitos hasta el primer fracaso o el n umero de pruebas
hasta el primer fracaso, relacionadas con X e Y , intercambiando p por 1 p.
3.6 Distribucion binomial negativa, BiNeg(k, p).
Si realizamos consecutivamente experimentos independientes de Bernoulli en los
que la probabilidad de exito p se mantiene constante, la variable que cuenta el
n umero de fracasos hasta que se producen k exitos es una variable binomial
negativa. La funcion de probabilidad es
P(X = x) =
_
x +k 1
k 1
_
p
k
(1 p)
x
, x = 0, 1, ...
La media y la varianza son
E[X] =
k
p
V (X) =
k(1 p)
p
2
Si X
1
, ..., X
n
son variables aleatorias independientes con distribucion Ge(p)
entonces X
1
+... +X
n
es una variable con distribucion BiNeg(n, p).
Por otra parte, Si X BiNeg(k
1
, p) e Y BiNeg(k
2
, p) son independientes,
entonces X + Y BiNeg(k
1
+ k
2
, p). Es decir, que la suma de distribuciones
binomiales negativas independientes vuelve a ser binomial negativa si comparten
la probabilidad de exito p.
15
3.7 Distribucion de Poisson, Poiss().
La funcion de probabilidad es
P(X = x) = e

x
x!
, x = 0, 1, ...
donde el parametro debe ser positivo. La esperanza y la varianza coinciden
con el parametro de esta distribucion, es decir, E[X] = V (X) = .
Es la distribucion del n umero de puntos en un dominio espacial o de ocur-
rencias en un intervalo de tiempo de un cierto fenomeno bajo ciertas hipotesis.
Rige, por ejemplo, los procesos de llegada de muchos fenomenos de espera y
aparece con gran frecuencia en los estudios de abilidad. Es el lmite de la bi-
nomial cuando n , p 0 y np se mantiene constante en un valor . Por
eso se la conoce como ley de los sucesos raros.
Debido a lo anterior, las probabilidades de una distribucion binomial pueden
aproximarse mediante las probabilidades de una distribucion de Poisson. En
general si {n > 50 y p < 1} o {np < 5}, la distribucion Bi(n, p) se puede
aproximar mediante la distribucion Poiss(np)
3.8 Distribucion Hipergeometrica, H(N, r, n).
Supongamos que disponemos de una poblacion nita de N individuos dividida
en dos subconjutos disjuntos, diferenciados, por ejemplo, por poseer o no sus
individios una determinada caracterstica. El n umero de individuos con la citada
caracterstica es r, y llamaremos exito al hecho de que en una seleccion al azar
se obtenga uno de estos individuos. Se seleccionan al azar n individuos de
la poblacion sin reemplamiento. Entonces la variable que cuenta el n umero
de exitos obtenidos es uns var4iable aleatoria hipergeometrica. La funcion de
probabilidad es:
P(X = x) =
_
r
x
__
Nr
nx
_
_
N
n
_ , max{0, n N +r} x min{n, r}
La esperanza y la varianza son
E[X] =
nr
N
V (X) = n
r
N
N r
N
N n
N 1
Por su propia denicion esta distribucion se utiliza en el muestreo de poblaciones
nitas.
Si N es grande con respecto a n, las probabilidades de exito varan muy
poco de una prueba (seleccion de individuo) a otra. En este caso, la distribucion
hipergeometrica H(N, r, n) puede aproximarse mediante la distribucion binomi-
al Bi(n, r/N). En general esa aproximacion suele utilizarse si n/N < 0.1
16
4 Principales variables aleatorias continuas.
4.1 Distribucion uniforme, U[a, b].
La variable aleatoria X sigue una distribucion uniforme en el intervalo [a, b] si
su fucnion de densidad es constante en dicho intervalo. Por tanto
f(x) =
1
b a
, a x b
Los parametros de esta distribucion son el lmite inferior a y el lmite superi-
or b del intervalo donde esta denida la variable. La funcion de distribucion,
esperanza y varianza son
F(x) =
x a
b a
, a x b; E[X] =
a +b
2
V (X) =
(b a)
2
12
Las funciones generatriz es
(t) =
e
bt
e
at
(b a)t
Una variable X con distribucion U[a, b] se puede estardarizar mediante el
cambio
Y = (X a)/(b a)
cuya distribucion es U[0, 1].
Si una variable X tiene funcion de distribucion F(x), la variable Y = F(X)
es U(0, 1). Esta propiedad es fundamental y la base de la generacion de n umeros
aleatorios en las tecnicas de simulacion. Sirve tambien como modelo para los
errores de redondeo.
4.2 Distribucion Normal, N(, ).
La funcion de densidad de la distribucion normal es
f(x) =
1

2
e

1
2
(
x

)
2
, < x <
donde los parametros son la experanza y la desviacion tpica, es decir, E[X] =
y V (X) =
2
. La funcion generatriz es de la forma
(t) = e
t
1
2
t
2

2
Si X es una variable aleatoria con distribucion N(, ), entonces
Z =
X

17
tiene distribucion N(0, 1). A esta transformacion se le conoce como tipicacion
o estardarizacion de la distribucion normal. La funcion de distribucion N(0, 1)
esta tabulada.
La transformacion lineal de una distribucion normal produce una nueva dis-
tribucion normal, es decir, si X N(, ) entonces Y = aX+b N(a+b, a).
La suma de distribuciones normales es normal, esto es, si X N(
1
,
1
) e
Y N(
2
,
2
) son independientes entonces X +Y N(
1
+
2
,
_

2
1
+
2
2
).
Esta distribucion permite aproximar algunas distribuciones discretas como
la binomial y la Poisson. Por ejemplo, una distribucion binomial Bi(n, p) puede
ser aproximada por una normal N(np,
_
np(1 p)), si n es grande y ocurre
{p 0.5 y np > 5} o {(1 p) 0.5 y n(1 p) > 5}.
Una distribucion Poiss() se piede aproximar por una N(,

) si el parametro
es grande ( > 10)
Muchos fenomenos se modelan adecuadamente con esta ley. Ademas, y
bajo ciertas condiciones, muchas distribuciones pueden aproximarse por esta ley.
Representa tambien cantidades, p.e., errores de medida, que son el resultado de
la suma de un gran n umero de otras cantidades, ya que el teorema central del
lmite garantiza la normalidad de una suma de una gran n umero de variables
aleatorias (al menos 30) bajo condiciones de independencia entre las mismas y
medias y varianzas nitas.
4.3 Distribucion exponencial, exp().
La distribucion exponencial tiene como funcion de densidad
f(x) = e
x
, x > 0
donde el parametro debe ser positivo, > 0. La funcion de distribucion y la
funcion generatriz son respectivamente
F(x) = 1 e
x
, x > 0; (t) =
_
1
t

_
1
La esperanza y la varianza son
E[X] =
1

V (X) =
1

2
Esta distribucion puede tipicarse dividiendo la variable por el parametro, es
decir, si X es una variable aleatoria con distribucion exp(), entonces Y = X/
tiene distribucion exp(1).
18
4.4 Distribucion Erlang, Er(, n).
Esta distribucion depende de dos parametros: el parametro de forma n y el
parametro de escala . En esta distribucion n es un n umero natural. La funcion
de densidad es
f(x) =

n
(n 1)!
x
n1
e
x
, x > 0
La funcion de distribucion puede ponerse como
F(x) = 1 e
x
_
1 +
x
1!
+... +
(x)
n1
(n 1)!
_
, x > 0
La esperanza y varianza son
E[X] =
p
a
V (X) =
p
a
2
Para p = 1 aparece como caso especial la ley exponencial. Utilizada en la
teora de la abilidad, mantenimiento y fenomenos de espera como teora de
colas.
Su relacion con la distribucion exponecial es la siguiente: si X
1
, ..., X
n
son
variables aleatorias independientes que siguen una distribucion com un exp(),
entonces X
1
+ ... + X
n
sigue una distribucion Erlang(, n). Es decir, la suma
de distribuciones independientes exponenciales de igual parametro da como re-
sultadouna distribucion Erlang.
4.5 Distribucion Gamma, G(a, p).
La distribucion gamma generaliza la distribucion Erlang imponiendo que p > 0
sin la restriccion de que sea n umero natural. La funcion de densidad es
f(x) =
a
p
(p)
x
p1
e
ax
, x > 0
donde a > 0 y (p) se conoce como integral gamma. La integral gamma se
dene como
(p) =
_

0
x
p1
e
x
dx
y tiene las siguientes propiedades:
(1) = 1 (1/2) =

(p) = (p 1)(p 1)
Una generalizacion de esta integral viene dada por:
_

0
x
p1
e
ax
dx =
(p)
a
p
19
La esperanza y la varianza de la distribucion gamma son
E[X] =
p
a
V (X) =
p
a
2
la funcion generatriz es
(t) =
_
1
t
a
_
p
Como es una generalizacion de la distribucion Erlang se aplica en campos simi-
lares. Se emplea tambien como distribucion para el tiempo invertido en realizar
alguna tarea, p.e., el servicio a un cliente o la reparacion de una maquina.
Una propiedad importante de esta distribucion es que admite la transforma-
cion
kG(a, p) = G(a/k, p)
Ademas la distribucion gamma es reproductiva respecto al segundo parametro,
esto es, si X G(a, p
1
) e Y G(a, p
2
) son independientes, entonces X + Y
G(a, p
1
+p
2
).
4.6 Distribucion Beta, B(p, q).
La distribucion beta tiene por funcion de densidad
f(x) =
1
B(p, q)
x
p1
(1 x)
q1
, 0 x 1
donde los parametros deben ser positivos, p, q > 0 y B(p, q) representa la integral
beta denida como
B(p, q) =
_
1
0
x
p1
(1 x)
q1
dx
cuya relacion con la integral gamma es
B(p, q) =
(p)(q)
(p +q)
La esperanza y varianza son
E[X] =
p
p +q
V (X) =
pq
(p +q)
2
(p +q + 1)
Los parametros pueden ponerse en funcion de la media y la varianza
2
p =

2

2
q =
(1 )(
2

2
)

2
La funcion generatriz si existe pero es difcil de calcular.
20
Utilizada como modelo aproximado en la ausencia de datos. Una adecuada
eleccion de los parametros p y q permite su ajuste a una gran variedad de dis-
tribuciones empricas. Se utiliza tambien como distribucion de una proporcion
aleatoria.
Un caso particular de la funcion beta es B(p, 1). La funcion de densidad y
distribucion son
f(x) = px
p1
, F(x) = x
p
, 0 x 1
Ademas podemos obtener una exponencial aplicando logaritmo a esta distribu-
cion: si X B(p, 1), entonces Y = log X exp(p).
4.7 Distribucion Chi-cuadrado,
2
n
.
La distribucion chi-cuadrado es un caso particular de la distribucion gamma.
La funcion de densidad es
f(x) = 2
n/2

1
(n/2)x
n/21
e
x/2
, x > 0
es decir que
2
n
= gamma(1/2, n/2). El parametro n recibe el nombre de grados
de libertad y es un n umero natural. La esperanza y la varianza son
E[X] = n V (X) = 2n
y la funcion generatriz es (t) = (1 2t)
n/2
.
Es una distribucion fundamental en Inferencia Estadstica y en los test es-
tadsticos de ajuste. Su relacion con la distribucion normal es la siguiente:
si X
1
, ..., X
n
son variables aleatorias independientes con distribucion com un
N(0, 1), entonces X
2
1
+ ... + X
2
n
sigue una distribucion Chi - cuadrado con n
grados de libertad.
4.8 Distribucion t de Student, t
n
.
La funcion de densidad de esta distribucion es
f(x) =

_
n+1
2
_

_
n
2
_
n
_
1 +
x
2
n
_

n+1
2
, < x <
donde el parametro n es un n umero natural y recibe el nombre de grados de
libertad. Es una distribucion simetrica respecto del 0, por lo que E[X] = 0. La
varianza es V (X) = n/(n 2) para n > 2.
Juega un papel fundamental en la Inferencia Estadstica de medidas de
poblaciones normales con varianzas desconocidas cuando las muestras son peque nas
21
(menos de 30 elementos). Es la distribucion de la variable
t =
Z
_
Y/n
donde Z N(0, 1) e Y
2
n
son independientes.
4.9 Distribucion F de Fisher - Snedecor, F
n,m
.
f(x) =

_
n+m
2
_ _
n
m
_
n2

_
n
2
_

_
m
2
_ x
n2
2
_
1 +
n
m
x
_

n+m
2
, x > 0
donde los parametros n y m se denominan grados de libertad del numerador y
del denominador respectivamente. La esperanza y varianza son
E[X] =
m
m2
V (X) =
2m
2
(n +m2)
n(m2)
2
(m4)
Es la distribucion de un cociente de leyes Chi-cuadrado independientes cada una
de ellas dividida por sus grados de libertad, es decir, si X
2
n
e Y
2
m
son
independientes, entonces
F =
X/n
Y/m
sigue una distribudion F
n,m
. Juega un papel fundamental en las tecnicas de
analisis de la varianza y del dise no de experimentos. Se emplea en inferencias
sobre la razon de varianzas de poblaciones normales independientes.
22

You might also like