You are on page 1of 19

Distribuciones de probabilidad tericas: Wilks Cap 4 1/19

------------------------------------------------------------
Cap 4: Distribuciones de probabilidad tericas
Por qu usar distribuciones de probabilidad tericas?
-Para compactar la informacin: unos pocos parmetros por muchos datos.
-Para suavizar e interpolar valores que son ruidosos por defectos del muestreo
-Para extrapolar valores extremos
Pero los datos son imprescindibles para:
-elegir la distribucin con la forma apropiada
-ajustar los parmetros de la distribucin
-verificar que la distribucin ajusta los datos
Qu es una distribucin? Es una forma matemtica abstracta cutya naturaleza depende de
algunos parmetros.
Parmetros vs estadsticos:
Hay distribuciones discretas y continuas:
Distribuciones discretas:
Ensayo de Bernouilli: es un ensayo con slo dos resultados posibles (xito o fracaso) que
agotan el espacio de muestreo (exhaustivos) y sin posibilidad de que ambos ocurran
simultneamente (excluyentes). Sea p la probabilidad de xito y q = 1-p la probabilidad de
fracaso. La distribucin binomial entrega la probabilidad de x xitos en n ensayos o
intentos, en los cuales la probabilidad de xito p es constante en cada ensayo y stos son
mutuamente independientes.
Distribucin Binomial:
Esta distribucin se aplica a situaciones en que en un nmero de intentos slo pueden
ocurrir dos sucesos MECE, (mutualmente excluyentes y colectivamente exhaustivos).
Tpicamente a estos sucesos se le denomina xito y fracaso, asignndoles los nmeros
1 y 0 respectivamente.
La v.a. de inters, X, es el nmero de veces que ocurre un xito en un cierto nmero de
intento, N. N puede ser cualquier entero positivo y la v.a. X puede tomar el valor de
cualquier entero desde 0 a N. Para calcular las probabilidades de que ocurra cualquiera de
estos N+1 valores de X se deben cumplir dos condiciones: (1) la probabilidad de ocurrencia
del xito no debe cambiar de intento a intento y (2) el resultado de cada uno de los N
intentos deben ser mutuamente independientes. Estas condiciones se cumplen rara vez de
manera estricta, pero existen situaciones reales suficientemente prximas a este ideal para
hacer til la aplicacin de la distribucin binomial.
Una implicancia de la primera condicin es que la ocurrencia de ciclos regulares (anual y
diario) debe ser tratada con cuidado separando los datos a analizar en perodos ms breves
(meses o horas) dentro de los cuales la probabilidad de ocurrencia sea poco cambiante. La
segunda condicin es ms difcil de satisfacer por la persistencia de los fenmenos
Distribuciones de probabilidad tericas: Wilks Cap 4 2/19
------------------------------------------------------------
meteorolgicos en cuyo caso deben ser considerados como series de tiempo o extender los
perodos cubiertos por loas datos individuales hasta hacerlos efectivamente independientes,
por ejemplo precipitaciones anuales.
La distribucin binomial de probabilidades para los N+1 valores de X estn dados por:
) 1 . 4 ( ,..., 2 , 1 , 0 ) 1 ( } Pr{ N x p p
x
N
x X
x N x

,
_

Esta distribucin tiene dos parmetros, N y p. El parmetro p es la probabilidad de


ocurrencia de un xito en cada uno de los N intentos independientes. Es evidente que los
N+1 probabilidades de (4.1) cumplen con sumar uno, su suma es el desarrollo del binomio
de Newton (a+b)
N
para el caso en que a=p, b=1-p que suman a+b=1 y 1
N
=1.
Ejemplo: Caso de congelamiento del Lago Cayuga. I y II. Este lago se ha congelado en 10
aos durante un intervalo de 200 aos, luego p = 10/200 = 0.05.
En la dist. Binomial el parmetro N es especial pues depende de la pregunta que se intenta
responder. Por ejemplo si se desea saber cual es la probabilidad de que el lago se congele el
prximo ao o cualquier ao en particular N=1, pero para estimar la probabilidad de que se
congele al menos una vez en alguna dcada futura N=10.
Notar que la Dist. Binomial puede aplicarse a situaciones que no son intrnsicamente
binarias mediante una redefinicin de los sucesos: ocurrencia o no ocurrencia de un valor
especfico de la variable (temp>0C o temp <=0C). Hecho vinculado con la ocurrencia de
heladas.
Distribucin Geomtrica:
La dist. Geomtrica est relacionada con la binomial, pero describe un aspecto distinto de la
misma situacin conceptual. Ambas tratan con experimentos dicotmicos e independientes,
pero que en este segundo caso deben ocurrir en secuencia. La dist. Geomtrica describe las
probabilidades del nmero de intentos que se requieren para observar el prximo xito.
Entonces, la v.a. X es tal nmero de intentos y su probabilidad est dada por
) 5 . 4 ( ,... 2 , 1 ) 1 ( } Pr{
1

x p p x X
x

A menudo esta distribucin se aplica intentos que ocurren consecutivamente, por lo que se
la suele denominar la distribucin de las esperas. Por ejemplo, para describir la duracin de
regmenes o estados del tiempo (spells). Entre ellos, secuencias de sequas a la espera de la
lluvia, o secuencias de perodos lluviosos a la espera de uno seco.
Distribucin binomial negativa:
Muy ligada a la distribucin geomtrica est la distribucin binomial negativa que se
define para valores enteros no negativos de la v.a. x:
,... 2 , 1 , 0 ) 1 (
) ( !
) (
} Pr{

+
x p p
k x
x k
x X
x k

La distribucin tiene dos parmetros , p, 0<p<1, y k, k>0. Para valores enteros de k, la
distribucin binomial negativa se llama distribucin de Pascal y se interpreta como una
extensin de la distribucin geomtrica asociada a tiempos de espera para del primer xito
Distribuciones de probabilidad tericas: Wilks Cap 4 3/19
------------------------------------------------------------
en una secuencia de ensayos de Bernouilli independientes con probabilidad p. En el caso
binomial negativo la v.a. X corresponde al nmero de fracasos que anteceden al xito k-
simo, de manera que x+k es el tiempo de espera requerido para observar el k-simo xito.
La funcin gama o funcin factorial se define mediante la integral definida
) ( ) 1 ( ) (
0
1
k k k a recurrenci de relacin la con cumple y dt e t k
t k
+


la cual en el caso especial de k entero con (k+1)=k! permite visualizar la coincidencia
entre las distribuciones geomtrica y binomial negativa para k=1, con la salvedad de la
ltima incluye el intento adicional correspondiente al ltimo xito.
Ejemplo 4.3: Aplicacin al Lago Cayuga.para k=1,2,3 congelamientos en un siglo.
Distribucin de Poisson:
La distribucin de Poisson describe el nmero de sucesos discretos que ocurren en serie, o
en una secuencia, y que muestran una independencia de tipo muy particular. Ellos son
independientes en cuanto que su ocurrencia en un intervalo de tiempo (de distancia o rea)
depende slo del largo del intervalo sobre el cual son contados, pero no depende de donde
se ubica el intervalo ni de las ocurrencias en otros intervalos no sobrepuestos. As los
sucesos ocurren aleatoriamente, pero a una tasa temporal media constante. Este tipo de
independencia resulta difcil de probar en datos atmosfricos, pero resulta til en casos en
que el grado de dependencia no sea muy fuerte. Los sucesos de tipo Poisson deben ser
suficientemente raros para que la probabilidad de ocurrencia de ms de uno sea muy
pequea. Otra forma de motivar la ocurrencia de tipo Poisson es como el caso lmite de la
distribucin binomial, con p tendiendo a cero y N tendiendo a infinito.
La distribucin de Poisson tiene slo un parmetro, , que especifica la tasa promedio de
ocurrencia, suele denominarse la intensidad del fenmeno y sus dimensiones son
ocurrencias en la unidad de tiempo. La distribucin de Poisson es
) 6 . 4 ( ... 2 , 1 , 0
!
} Pr{

x
x
e
x X
x


Para ajustar la distribucin de Poisson a la muestra de datos lo ms simple es usar el
mtodo de los momentos, es decir se igualan los momentos de la muestra con los momentos
de la distribucin o poblacin. Recordando que el primer momento es el promedio de la
muestra, resulta muy fcil el ajuste en el caso de la distribucin de Poisson. Simplemente el
promedio es igual al nmero de ocurrencias de la v.a. en la unidad de tiempo.
Ejemplo: Numero de tornados anuales en el estado de Nueva York (1959-1988).
Histograma: 0, 1, 2, 3, 4, 5, 6, 7, 8, 9, 10, 11, 12
0, 3, 2, 6, 3, 5, 5, 3, 2, 1, 0, 0, 0
= 138 tornados en 30 aos = 4.6 tornados/ao
Distribuciones de probabilidad tericas: Wilks Cap 4 4/19
------------------------------------------------------------
Esperanza estadstica
El valor esperado de una v.a. o de una funcin de una v.a. es simplemente el promedio
ponderado por la probabilidad respectiva de esa v.a. o de su funcin.
Valor esperado de una v.a.: Es ms fcil comprender los promedios ponderados por
probabilidades en el caso de distribuciones discretas como la binomial. Convencionalmente
el operador esperanza se denota por E[ ]:
) 7 . 4 ( } Pr{ ] [


x
x X x X E
La sumatoria toma sobre todos los valores permitidos de X. Por ejemplo, la esperanza de X
cuando X tiene un distribucin binomial es
) 8 . 4 ( ) 1 ( ] [
0

,
_

N
x N x
p p
x
N
x X E
Los valores permitidos de X son los enteros no negativos hasta e incluyendo N. La
esperanza E[X] tiene un significado especial, es la media de la distribucin de X. Las
medias de las distribuciones (o poblaciones) se denotan comnmente por . Es posible
simplificar (4.8) para obtener E[X] = Np, as la media de cualquier distribucin binomial es
= Np. Un resultado anlogo para la distribucin Geomtrica es = 1/p, y para la
distribucin de Poisson es E[X] = .
Valor esperado de una funcin de una v.a.:
La esperanza de una funcin g(x) de una v.a., es E[g(x)] y cumple con
) 9 . 4 ( ] ) ( [ ) ( )] ( [ )] ( [ ] [
1 1
1 1

1
]
1


J
j
j
J
j
j
x g E x g E x g cE x cg E c c E
X #Obs Poisson Frec
0 0 0.0101 0.0000
1 3 0.0462 0.1000
2 2 0.1063 0.0667
3 6 0.1631 0.2000
4 3 0.1875 0.1000
5 5 0.1725 0.1667
6 5 0.1323 0.1667
7 3 0.0869 0.1000
8 2 0.0500 0.0667
9 1 0.0255 0.0333
10 0 0.0118 0.0000
11 0 0.0049 0.0000
12 0 0.0019 0.0000
0.00
0.05
0.10
0.15
0.20
0.25
0 1 2 3 4 5 6 7 8 9 10 11 12
Poisson
Frec
Distribuciones de probabilidad tericas: Wilks Cap 4 5/19
------------------------------------------------------------
Sea la funcin g(x)=(x )
2
. El valor esperado de esta funcin se denomina varianza y su
valor esperado es
) 10 . 4 ( ] [
1 * ] [ 2 ] [
} Pr{ } Pr{ 2 } Pr{
} Pr{ ) 2 (
} Pr{ ) ( ] ) [( ] [
2 2
2 2
2 2
2 2
2 2






+
+
+

X E
X E X E
x X x X x x X x
x X x x
x X x X E X Var
x x x
x
x
Para la distribucin binomial Var[X]= Np(1-p). Para la distribucin geomtrica Var[X] =
(1-p)/p
2
. Para la distribucin de Poisson Var[X] = .
Distribuciones continuas
La mayora de las variables atmosfricas pueden tomar un continuo de valores:
temperatura, precipitacin, geopotencial, velocidad del viento, y otras cantidades no estn
restringidas a valores enteros. Aunque La naturaleza de las mediciones y sistemas de
informacin es tal que sus valores se redondean a valores discretos, el conjunto de valores
usados es suficientemente grande para que la mayora de las variables puedan considerase
como continuas.
Funciones de distribucin y valores esperados
Las matemticas de probabilidades para variables continuas son algo diferentes aunque
anlogas a las de variables discretas. As como los clculos de probabilidades para
variables discretas involucran sumatorias sobre funciones de probabilidad discontinuas, los
clculos de probabilidades par v.a. continuas contienen integraciones de funciones
continuas llamadas funciones de densidad de probabilidad, o pdfs.
Convencionalmente, la pdf de una v.a. X se denota por f(x). As como la sumatoria de una
funcin discreta de probabilidad sobre todos los valores posibles de la v.a. deben sumar 1,
la integral de cualquier pdf sobre los valores permitidos de x debe ser igual a 1:

x
dx x f ) 11 . 4 ( 1 ) (
Una funcin no puede ser pdf a menos que satisfaga esta relacin. Adicionalmente, f(x) de
ser no negativa para todo valor de x. No se han indicado lmites en la integral porque
dependen de cada distribucin. Las pdf son el anlogo continuo y terico de los
histogramas de datos. Sin embargo, el significado de la pdf resulta confuso al comienzo por
esta analoga. En particular, la altura de la funcin f(x) evaluada para un valor particular de
la v.a., carece de un significado probabilstico. La confusin se produce porque rara vez se
tiene presente que la probabilidad es proporcional al rea y no a la altura, tanto en la pdf
como en el histograma.
Distribuciones de probabilidad tericas: Wilks Cap 4 6/19
------------------------------------------------------------
La figura muestra una pdf hipottica, definida sobre valores de una v.a. X. En tanto la pdf
puede ser evaluada para valores especficos de la v.a., digamos X = 1, por si mismo f(1) no
es interpretable en trminos de probabilidades de X.
De hecho, puesto que X vara continuamente sobre algn segmento de los nmeros reales,
la probabilidad de X=1 exactamente es infinitamente pequea. S tiene sentido evaluar
probabilidad para valores de una v.a. en vecindades no infinitesimales en torno a X=1. La
figura muestra la probabilidad de X entre 0.5 y 1.5 como la integral de la pdf entre estos
lmites.
Una idea vinculada con la pdf es la funcin de distribucin acumulada (cdf). La cdf es una
funcin de la v.a. X, dada por la integral de la pdf hasta un valor determinado de x. As la
cdf especifica la probabilidad de que la v.a. no exceda valores particulares. Es por tanto la
contraparte continua y terica de la cdf emprica. Convencionalmente la cdf se denota por
F(x):


x X
dx x f x X x F ) 12 . 4 ( ) ( } Pr{ ) (
Puesto que los valores de F(x) son probabilidades, 0 F(x) 1.
La ec. (4.12) transforma un valor particular de la v.a. en una probabilidad acumulada. El
valor de la v.a. que corresponde a una prob. Acumulada est dado por funcin inversa de la
CDF: F
-1
(p) = x(F) donde p es la probabilidad acumulada. Esta relacin especifica el
lmite superior de la integracin en (4.12) que proporciona la prob. ac. particular p = F((x).
Que entrega el cuantil correspondiente a una probabilidad dada especfica.
Tambin se definen esperanzas para v.a. continuas. El valor esperado de una v.a. o bein de
una funcin de la v.a. como el promedio ponderado correspondiente:

x
dx x f x g x g E ) 14 . 4 ( ) ( ) ( )] ( [
f(x)
f(1)

< <
5 . 1
5 . 0
) ( } 5 . 1 5 . 0 Pr{ dx x f x

0
1 ) ( dx x f
{ }

< <
5 . 1
5 . 0
) ( 5 . 1 5 . 0 Pr dx x f x
f(x) f(1)
0 1 x
Distribuciones de probabilidad tericas: Wilks Cap 4 7/19
------------------------------------------------------------
estas esperanzas gozan de las mismas propiedades descritas en (4.9). . Para g(x) = x.
E[X]=m es la media de la distribucin cuya densidad de prob. es f(x). Anlogamente, la
varianza de una v.a. continua est dada por la esperanza de la funcin g(x) = (x E[X])
2
,
) 15 . 4 ( ] [ ]) [ ( ) ( ) ( ]) [ ( ] ]) [ [( ] [
2 2 2 2 2 2


X E X E dx x f x dx x f X E x X E x E X Var
x x
Dependiendo de la forma de f(x) algunas de lasa ecs. (4.12), (4.14) y (4.15) pueden no ser
integrables analticamente y para algunas distribuciones puede ser inexistentes.
Distribucin Gaussiana (Normal)
La gran aplicacin de la distribucin gaussiana deriva de un resultado terico muy
poderoso, conocido como el teorema del valor central. Informalmente este teorema
establece que en el lmite, a medida que la muestra crece, la suma (o equivalentemente, la
media aritmtica de un conjunto de observaciones independientes tiene una distribucin
gaussiana. Esto es vlido sin importar de que distribucin derivan los datos. Ni siquiera
tiene que provenir de la misma distribucin. En la prctica la independencia de las
observaciones tampoco es necesaria, lo cual implica que el teorema del valor central es
directamente aplicable a los datos atmosfricos.
Lo que no est claro para un conjunto de datos particular es cuan grande debe ser la
muestra para que el teorema del lmite central sea aplicable. En la prctica este tamao de
la muestra depende de la distribucin desde la cual los sumando se extraigan. Si las
observaciones a ser sumadas provienen de una distribucin gaussiana, la suma de cualquier
nmero de ellas tambin ser gaussiana. Para distribuciones de origen no muy distintas de
la gaussiana (unimodales y no muy asimtricas) La suma de un modesto nmero de
observaciones tambin ser aproximadamente gaussiana.
La pdf de la distribucin gaussiana es:
) 17 . 4 (
2
) (
exp
2
1
) (
2
2
1
]
1


x
x f
Los dos parmetros de la distribucin son la media, , y la desviacin standard, . El
grfico de e4sta distribucin tiene la forma de una campana como se muestra en la figura.
Ella muestra que la media determina el centro de esta distribucin simtrica, y que la
desviacin standard controla el grado en que la distribucin se ensancha, prcticamente
toda la a distribucin queda dentro de 3 de la media.
Para que esta distribucin represente un conjunto de datos se debe ajustar los dos
parmetros a los datos. Buenas estimaciones de los parmetros se obtienen por el mtodo
de los momentos: estimando la media por el promedio de los datos y la desviacin standard
por s.
Probabilidades de sucesos de inters se obtienen integrando (4.17). Sin embargo, su
integracin analtica es imposible, de manera que no existe una frmula para la cdf F(x)
gaussiana.
Distribuciones de probabilidad tericas: Wilks Cap 4 8/19
------------------------------------------------------------
0,00
0,05
0,10
0,15
0,20
0,25
0,30
-4 -3 -2 -1 0 1 2 3 4 5
0,1
1,1
0, 0,8
0, 1.2
En reemplazo se puede recurrir a evaluaciones numricas computacionales o a tablas. En
ambos casos se precisa un cambio de variable, pues tanto los algoritmos numricos como
las tablas operan con la distribucin gaussiana standard que tiene media = 0 y = 1. Por
convencin, la v.a. descrita por la distribucin gaussiana standard se designa por Z, y su pdf
se simplifica a
) 18 . 4 (
2
exp
2
1
) (
2
1
]
1


z
z f

Cualquier v.a. gaussiana puede transformarse a forma standard por


) 20 . 4 (
s
x x
z por prctica la en o
X
Z

Ejemplos: Presentaciones climatolgicas.


Distribucin Gama
Muchas variables atmosfricas son claramente asimtricas, lo cual es frecuentemente el
resultado de lmites fsicos en el intervalo de los datos. Ejemplos comunes son sumas de
precipitaciones y velocidad del viento, que estn restringidas a valores no negativos.
Aunque es posible ajustar distribuciones gaussianas no resultan muy tiles y adolecen de
errores como proporcionar probabilidades no nulas para valores negativos de la v.a.
Existe una variedad de distribuciones acotadas a la izquierda por cero y con asimetra
positiva. Una eleccin frecuente, especialmente cuando se trata de representar datos de
precipitacin es la distribucin gama, cuya fdp se define por
) 23 . 4 ( 0 , ,
) (
) / exp( ) / (
) (
1
>

x
x x
x f
Distribuciones de probabilidad tericas: Wilks Cap 4 9/19
------------------------------------------------------------
Los dos parmetros de la distribucin son , el parmetro de forma, y el parmetro de
escala. Como antes

) ( ) 1 ( ) (
0
1


a recurrenci de relacin la con cumple y dt e t
t
que sirve para su evaluacin en base a una pequea tabla inicial que contenga argumentos
en el intervalo [1,2).
La distribucin gama toma una variedad de formas dependiendo del valor de a. Como se
ilustra en la figura. Para <1 la distribucin es muy asimtrica con f(x) tendiendo a infinito
a medida que x tiende a cero.
Para = 1 la funcin intersecta el eje de ordenadas en 1/ para x = 0, en este caso especial
la distribucin gama se denomina distribucin exponencial. Para >1 la distribucin gama
parte desde el origen, f(0) = 0. Para crecientes disminuye la asimetra y la pdf se desplaza
hacia la derecha. Para mucho mayor la distribucin se asemeja a la gaussiana. El
parmetro carece de dimensin.
El parmetro de escala , que tiene las dimensiones de x, estira o encoge la pdf a su
derecha o izquierda dependiendo de la magnitud de x. A medida que la pdf se desplaza a la
derecha su mximo disminuye para conservar el valor integral unitario. Este ajuste lo
proporciona el del denominador.
1, 2.0
2, 2.0
3, 2.0
5, 1.0
9, 0.5
Distribuciones de probabilidad tericas: Wilks Cap 4 10/19
------------------------------------------------------------
La versatilidad de la pdf gama la hace muy atractiva para el caso de la precipitacin y se
suele recurrir a ella para tal efecto. Sin embargo, la distribucin gama ofrece problemas al
ajuste por momentos debido a que sus parmetros no corresponden a momentos de ella,
como es el caso de la gaussiana. La media de la pdf gamma es y la varianza es
2
.
Igualando sus expresiones con el promedio y el estimador de la varianza s
2
se obtienen los
estimadores
x
s
y
s
x
2
2
2

(4.26)
Estos estimadores basados en los momentos no son tan malos para valores de >10, pero
dan pobres resultados para pequeos, en cuanto que sus valores cambian errticamente de
una a otra muestra de datos. Es mucho mejor usar el mtodo de mxima verosimilitud.
El mtodo de mxima verosimilitud suele requerir de procedimientos iterativos que
requieren el recurso computacional como se explicar ms adelante. Pero existen un par de
aproximaciones suficientemente simples para el clculo manual. Ambas usan el estadstico
D:
) 27 . 4 ( ) ln(
1
) ln(
1


N
i
i
x
n
x D
Ntese que la media y la desviacin standard no son suficientes para calcular D, pues el
segundo trmino requiere de cada dato de la muestra. El estimador de Thom (1958) para el
parmetro de forma es
D
D
4
3 / 4 1 1

+ +
luego el parmetro de escala se calcula de

(4.29)
Al igual que con la distribucin gaussiana la pdf gama no es integrable analticamente, y
debe recurrirse a aproximaciones computacionales de la cdf o tablas. En cualquiera de los
dos casos la distribucin de probabilidades gama se obtiene para su forma standard, con =
1. Esto es, para la variable x/ que es adimensional. El parmetro de forma ser el
mismo para X y .
Las probabilidades acumuladas para la distribucin gama en la Tabla B.2 Estn dispuestas
en sentido inverso a la Tabla B.1 para la distribucin gaussiana. Esto es, cuantiles de la
distribucin estn en el cuerpo de la tabla, y probabilidades acumuladas estn listadas en las
cabezas de las columnas. Probabilidades se obtienen para distintos parmetros de forma ,
que aparecen en la primera columna.
Ejemplo: Distribucin gama para precipitaciones en Ithaca durante 50 aos (1933-1982).
Distribucin de Weibull
Existen varias distribuciones que al igual que la gama son positivamente asimtricas. Una
de ellas, muy usada en las ciencias atmosfricas, es la de Weibull que suele usarse para
velocidades del viento. Su pdf es
) 32 . 4 ( 0 , , exp ) (
1
>
1
1
]
1

,
_

,
_

,
_


x
x x
x f

Distribuciones de probabilidad tericas: Wilks Cap 4 11/19
------------------------------------------------------------
Al igual que en el caso de la distribucin gama los dos parmetros y se denominan
parmetros de forma y escala, respectivamente. La forma de la distribucin de Weibull es
controlada de la misma forma por los dos parmetros. As para <=1 toma la forma de J
invertida con fuerte asimetra positiva. Para = 1 las distribuciones de Weibull y gama son
idnticas y se reduce a la distribucin exponencial. Para =3.6 la distribucin de Weibull es
muy parecida a la gaussiana. Igualmente el parmetro de escala estira o comprime la forma
a lo largo del eje x, para un dado.
Una ventaja de la distribucin de Weibull es la integrabilidad analtica de su pdf, que
resulta en
) 33 . 4 ( exp 1 } Pr{ ) (
1
1
]
1

,
_

x
x X x F
Por lo cual no requiere uso de tablas. El ajuste de esta distribucin requiere de mtodos
iterativos u otro tipo de aproximaciones. Esto es vlido an para el ajuste mediante los
momentos ya que su media est dada por (1+1/) y su varianza es
2

2
[(1+2/)

2
(1+ 1/)]. Puesto que no existen formas cerradas para los estimadores de los
momentos, el mtodo preferido es el ajuste de mxima verosimilitud.
Distribucin Lognormal
La distribucin lognormal es otra distribucin con asimetra positiva y no negativa.
Comunmente se usa para representar variaciones en propiedades de la nubosidad y tambin
es usada en hidrologa. Fundamentalmente, la aplicacin de la distribucin lognormal se
reduce a una transformacin logartmica de los datos, con la suposicin de que los datos
transformados siguen una distribucin gaussiana. Esto es, si la variable transformada Y =
ln(X) sigue la distribucin gaussiana, entonces la pdf lognormal para x es
) 34 . 4 (
2
) (ln
exp
2
1
) (
2
2
1
]
1


x
x
x f

0.5 1
1.0 1
1.5 1
5.0 1
Distribuciones de probabilidad tericas: Wilks Cap 4 12/19
------------------------------------------------------------
Donde y son la media y la desviacin standard, respectivamente, de la variable
transformada, Y.
El ajuste de parmetros para la lognormal es simple: la media y la desviacin standard para
los valores transformados y, es decir,
Y
y
Y
, respectivamente son estimados de su
contraparte muestreada. Las relaciones entre estos parmetros de la ec. (4.34) y la media y
varianza de la variable original son
( ) [ ] ) 35 . 4 ( 2 exp 1 ] exp[
2
exp
2 2 2
2
Y Y Y X
Y
Y X
y

+
1
]
1

+
Las probabilidades lognormales se evalan simplemente trabajando con la variable
transformada y = ln(x), y usando subrutinas computacionales o tablas de probabilidad para
la distribucin gaussiana. En este caso la variable gaussiana
) 36 . 4 (
) ln(
Y
Y
X
Z

Sigue una distribucin gaussiana con


Z
= 0 y
Z
= 1.
Distribucin Beta
Algunas variables de inters se restringen a segmento del eje real con lmites en ambos
extremos. A menudo estn restringidas al intervalo [0,1]. Ejemplos de ellas son la cobertura
nubosa (observada como fraccin del cielo) y humedad relativa. Una variable de este tipo
ms abstracta pero importante, es la probabilidad, donde una distribucin paramtrica
puede ser til resumiendo la frecuencia de uso de, por ejemplo, pronsticos de de
probabilidades de precipitacin. La distribucin Beta es una eleccin comn. Su pdf es:
) 37 . 4 ( 0 , , 1 0 ) 1 (
) ( ) (
) (
) (
1 1
>

+


q p x x x
q p
q p
x f
q p

Esta es un funcin muy flexible que adopta diferentes formas dependiendo de los valores de
sus dos parmetros, p y q. La figura siguiente ilustra cinco de ellas. En general, para p<=1
las probabilidades se concentran cerca de 0, y para q<=1 se concentran cerca de 1. Si
ambos parmetro son menor que 1 la distribucin adopta forma de U. Para p>1 y q>1 la
distribucin tiene un mximo entre 0 y 1, con mayores probabilidades a la derecha si p>q,
y mayores probabilidades desplazadas a la izquierda para q>p. Distribuciones Beta con p=q
son simtricas. En la figura los parmetros p y q estn rotulados como y ,
respectivamente.
Los parmetros de la distribucin se justan comnmente por el mtodo de los momentos,
aunque existen mtodos de mxima verosimilitud. Usando las expresiones de los dos
primeros momentos de la distribucin,
) 1 ( ) (
2
2
+ + +

q p q p
pq
q p
p

Distribuciones de probabilidad tericas: Wilks Cap 4 13/19
------------------------------------------------------------
Los estimadores resultantes son fcilmente obtenidos:
) 39 . 4 (
) 1 (

) 1 (

2
2
x
x p
q x
s
x x
p

El uso de la distribucin beta no se limita a variables definidas en el intervalo [0,1]. Una


variable digamos, Y- restringida al intervalo [a,b] puede ser representada por una
distribucin beta luego de someterla a la transformacin X = (Y-a)/(b-a). En tal caso el
ajuste de parmetros se realiza usando
2
2
2
) ( a b
s
s y
a b
a y
x
Y
X

que son luego sustitudas en (4.39).


La integral de la pdf beta no existe en forma cerrada excepto para algunos casos especiales.
Las probabilidades se pueden obtener por mtodos numricos donde la cdf de la
distribucin beta se conoce como la funcin beta incompleta, I
x
(p,q)= Pr{0<=X<=x}= F(x).
Distribucin de Gumbel
Las distribuciones estadsticas para sucesos atmosfricos extremos son muy relevantes en el
diseo en ingeniera, y otras estimaciones de riesgos. El calificativo de evento extremo
indica los valores mximos o mnimos de una variable atmosfrica entre un nmero dado
de observaciones como la temperatura mxima ms clida observada en un lugar durante el
mes de Enero, o la suma de precipitacin registrada en un ao particular. Esta distribucin
podra ser usada para estimar probabilidades de que el da ms clido del prximo verano
sea mayor que umbrales especificados, o para las temperaturas ms clidas de un da de
Enero correspondientes a una probabilidad acumulada de 0.99 o mayor. Estas no pueden
ser inferidas de la distribucin emprica con un conjunto de n=30 observaciones.
Distribuciones de probabilidad tericas: Wilks Cap 4 14/19
------------------------------------------------------------
La mayor parte de las distribuciones examinadas tienden a no representar bien datos
extremos. Para este efecto la distribucin de Gumbel es la ms conocida y su pdf es
) 42 . 4 (
) ( ) (
exp exp
1
) (

'

1
]
1

x x
x f
Donde y b son los parmetros de ubicacin y escala, respectivamente. Esta pdf es
positivamente asimtrica, y tiene un mximo en x = . Ella es integrable analticamente de
manera que su cdf es
) 43 . 4 ( exp exp ) (

'

1
]
1

x
x F
La manera ms simple de estimar los parmetros de la distribucin de Gumbel es por el
mtodo de los momentos. Para ello se usan el valor medio y la desviacin standard de la
muestra. Los estimadores son
) 44 . 4 (

6

x y
s
Donde = 0.57721 es la constante de Euler.
Distribuciones de probabilidad multivariadas
Hasta ahora se han considerado slo distribuciones de probabilidad univariadas, es decir,
funciones que describen la variacin de una nica cantidad. Tambin es posible representar
distribuciones conjuntas de dos o ms variables usando distribuciones de probabilidad
paramtricas. Aunque existen distribuciones multivariadas discretas, usualmente se usan
distribuciones tericas multivariadas continuas.
Distribucin normal bivariada
La distribucin multivariada continua ms usada es la generalizacin de la distribucin
gaussiana a la distribucin conjunta de dos variables, conocida como la distribucin normal
bivariada. Esta distribucin describe el comportamiento conjunto de dos variable
gaussianas, X e Y. A veces es posible usar esta distribucin para describir el
comportamiento de dos variables no gaussianas si previamente son sometidas a
transformaciones que generen simetra en la distribucin. De hecho, la oportunidad de usar
la normal bivariada es la principal motivacin para el uso de transformaciones vistas en el
captulo anterior.
La distribucin normal bivariada se define por la pdf
) 45 . 4 (
2
) 1 ( 2
1
exp
1 2
1
) , (
2 2
2
2

'

1
1
]
1

,
_

,
_

,
_

,
_

Y
Y
X
X
Y
Y
X
X
Y X
y x y x
y x f


Como una generalizacin de la ecuacin (4.17) de una a dos dimensiones , esta funcin
define una superficie sobre el plano X-Y en lugar de una curva sobre el eje X. En las
distribuciones bivariadas la probabilidad corresponde geomtricamente al volumen bajo
esta superficie, de modo que en analoga con la ec. (4.11), una condicin que debe cumplir
una pdf bivariada es
Distribuciones de probabilidad tericas: Wilks Cap 4 15/19
------------------------------------------------------------
) 46 . 4 ( . 0 ) , ( , 1 ) , (

y x f dydx y x f
x y
La distribucin normal bivariada tiene 5 parmetros: las dos medias y desviaciones
standard para las variables X e Y, y la correlacin entre ellas, . Las dos distribuciones
marginales de las variables X eY [es decir, las pdf univariadas f(x) y f(y)] deben ser
distribuciones gaussianas. Estas dos distribuciones marginales tienen parmetros
X
,
X
, y

Y
,
Y
, respectivamente. El ajuste de la distribucin normal bivariada es muy sencillo.
Estos cuatro parmetros son estimados usando sus contrapartes muestreadas para las
variable X e Y separadamente, y el parmetro r se estima a travs de la correlacin de
Pearson entre X e Y, ec. (3.17).
La figura ilustra la forma general de la distribucin normal bivariada. Tiene la forma de una
protuberancia en 3 dimensiones, con propiedades que dependen de los 5 parmetros. La
funcin presenta un mximo sobre el punto (
X
,
Y
). Un incremento en
X
alarga la pdf en
la direccin X e incrementos de
Y
la alargan en la direccin Y. Para desviaciones standard
iguales y = 0 la pdf es axialmente simtrica alrededor del punto (
X
,
Y
), y sus curvas de
nivel son crculos concntricos. A medida que aumenta en valor absoluto la pdf se alarga
diagonalmente, con las curvas de nivel de forma elptica y excentricidad creciente. Para
negativo el eje mayor de las elipses se extiende entre los cuadrantes II y IV y para lo
hacen entre los cuadrantes y .
Las probabilidades para sucesos conjuntos de X e Y estn dados por
) 47 . 4 ( ) , ( )} 2 1 ( ) 2 1 Pr{
2
1
2
1

< <
x
x
y
y
dydx y x f x X x y Y y
Esta integral no se puede hacer analticamente y en la prctica se debe recurrir a mtodos
numricos. Aunque existen tablas, ellas resultan muy complejas y suele ser conveniente
usar la forma standarizada de la pdf con las medias nulas y las desviaciones standard
unitarias, con la pdf
Distribuciones de probabilidad tericas: Wilks Cap 4 16/19
------------------------------------------------------------
) 48 . 4 (
) 1 ( 2
2
exp
1 2
1
) , (
2
2 2
2
1
]
1


Y Y X X
Y X
z z z z
z z f
Una propiedad muy til de la distribucin normal bivariada es que la distribucin
condicional de una de las variables, dado un valor particular de la otra, es gaussiana. Esto
se ilustra por las lneas que forman la trama de la figura anterior. Cada una de ellas describe
una funcin proporcional a la distribucin condicional de X dado un valor particular para
Y, y viceversa. Los parmetros de estas distribuciones condicionales gaussianas pueden
calcularse de los 5 parmetros de la distribucin normal bivariada. Para la distribucin de X
dado un valor para Y, la pdf condicional gaussiana f(x/Y=y) tiene parmetros
) 49 . 4 ( 1
2
/ /

+
X Y X
Y
Y
X X Y X
y
y
La primera relaciona la media de X con la anomala standarizada de Y. Indicando que la
media condicionada
X/Y
es mayor que la media no condicionada
X
si Y es mayor que su
media y es positivo, o si Y es menor que su media y es negativo. Si X e Y estn
descorrelacionados, el conocimiento de Y no agrega informacin acerca de X, y
X/Y
=
X

pues 0. La segunda ecuacin (4.49) indica que, a menos que las dos variables estn
descorrelacionadas,
X/Y
<
X
, sin importar el signo de . Aqu el conocimiento de Y,
provee alguna informacin sobrfe X, y la disminuda incertidumbre acerca de X se refleja
en una menor desviacin standard.
Ejercicio: Tx en Canandaigua sabiendo que en Ithaca es de 25F:
Distribucin Normal multivariada
La distribucin gaussiana se generaliza fcilmente a ms de dos dimensiones fcilmente.
En el caso general, la distribucin conjunta de k>2 variables gaussianas est descrita por la
distribucin normal multivariada. Para tal efecto conviene usar notacin matricial, con ella
la pdf de la normal multivariada es
[ ]
( ) [ ] ( ) ) 50 . 4 (
2
1
exp
det ) 2 (
1
) (
1
2 / 1
]
1


x x x f
T
k
Donde x

son vectores con K componentes,


[ ]
es la matriz de varianza-covarianza
de dimensiones K*K de las K variables en el vector x

y det
[ ]
es su determinante. Si
cada una de las K variables en x

son estandarizadas separadamente de acuerdo a (4.19), la


densidad normal estandarizada multivariada es,
[ ]
[ ]
) 51 . 4 (
2
exp
det ) 2 (
1
) (
1
2 /
1
]
1

z R z
R
z f
T
k

Donde [R] es la matriz de correlaciones de Pearson para las K variables.


Numerosas propiedades tiles entre el conjunto de variables pueden ser derivadas si la
normalidad multivariada puede ser justificada o supuesta. Una de estas propiedades es que
las distribuciones condicionales de subconjuntos del vector X, dados valores particulares a
los otros elementos, son tambin normales multivariadas, esta es la generalizacin de
Distribuciones de probabilidad tericas: Wilks Cap 4 17/19
------------------------------------------------------------
(4.49). La media condicional del subconjunto de variables X
1
dados valores particulares
para las variables restantes X
2
= x

2
es
[ ] [ ] ( )
2 2
1
22 12 1 1 1
/

+

x x
Y la matriz de covarianza condicional es
[ ] [ ] [ ] [ ] [ ] ) 52 . 4 ( /
21
1
22 12 11 2 1

Donde [
11
] es la matriz de covarianzas para las variables en X
1
, [
22
] es la matriz de
covarianzas para las variables en X
2
, y [
12
] = [
21
]
T
es la matriz de covarianzas entre las
variables en X
1
y X
2
. Estas cuatro matrices conforman la matriz de covarianza para el
conjunto de variables reunidas:
[ ] [ ]
[ ] [ ]
[ ] [ ]
) 53 . 4 (
22 21
12 11
2
1
1
]
1

1
]
1


X
X
Var X Var
Una consecuencia de (4.52) es que las distribuciones univariadas o marginales, de cada una
de las K variables sern gaussianas. Sin embargo, no es necesariamente el caso de que
distribuciones conjuntas de un conjunto arbitrariamente seleccionado de K variables
gaussianas tendr una distribucin normal multivariada.
Ajuste de parmetrso por mxima verosimilitud
Para varias distribuciones el ajuste de parmetros usando el mtodo de los momentos
generan resultados inferiores que pueden conducir a extrapolaciones e inferencias
imprecisas. El mtodo de la mxima verosimilitud es una importante alternativa. Como
indica su nombre el mtodo busca valores de los parmetros de distribuciones maximiza la
funcin de verosimilitud. El mtodo deriva de la nocin de que la verosimilitud es una
medida del grado con que los datos pueden sostener valores particulares para los
parmetros. Una interpretacin bayesiana de tal procedimiento sera que los estimadores de
mxima verosimilitud son los valores ms probables, dados los datos observados.
La funcin de verosimilitud para una nica observacin, x, aparece idntica a la fdp, pero la
diferencia est que la fdp es una funcin de los datos para valores fijos de los parmetros,
en tanto que la funcin de verosimilitud es una funcin de los parmetros desconocidos
para valores fijos de los datos ya observados. La funcin de verosimilitud para el caso de n
datos independientes es simplemente el producto de n funciones de verosimilitud. Por
ejemplo, la funcin de verosimilitud para los parmetros gaussianos y , dadas n
observaciones, x
i
, i=1,2,,n, es
) 54 . 4 (
2
) (
exp ) 2 ( ) , (
1
2
2


1
]
1



n
i
i n n
x
V


En el fondo, la verosimilitud puede ser cualquier funcin proporcional a la ec. (4.54), de
manera que el factor con la raz de 2 puede ser omitido. En trminos geomtricos, la ec.
(4.54) describe una superficie sobre el plano que tiene un valor mximo sobre un par
especfico de valores de los parmetros, dependiente de los valores de las observaciones x
i
.
Resulta ms cmodo trabajar con el logaritmo de V:
Distribuciones de probabilidad tericas: Wilks Cap 4 18/19
------------------------------------------------------------
[ ]


n
i
i
x n n V L
1
2
2
) 55 . 4 ( ) (
2
1
) 2 ln( ) ln( ) , ( ln ) , (


Donde el trmino con 2 puede ser omitido pues no depende de ni .
Conceptualmente, al menos la maximizacin de L es un simple ejercicio de clculo. Para la
distribucin gaussiana se puede hacer analticamente. Derivando con respecto a los
parmetros:
) 56 . 4 ( ) (
1 ) , ( 1 ) , (
1
2
3
1
2


+

1
]
1

n
i
i
n
i
i
x
n L
y n x
L



Igualando a cero ambas derivadas se obtiene
) 57 . 4 ( ) (
1 1
1
2
1



n
i
i
n
i
i
x
n
y x
n

Esto son los estimadores de mxima verisimilitud (MLE) para la distribucin gaussiana,
que son muy parecidos a los estimadores de los momentos. La nica diferencia es el
denominador n en lugar de n-1 del estimador insesgado. Ello muestra que los estimadores
de MLE pueden ser sesgados.
Los MLEs para la distribucin gaussiana son algo raros, en cuanto que ellos pueden ser
obtenidos analticamente. Ms frecuente es que los estimadores MLE deban ser calculados
iterativamente. Lo ms comn es imaginar la maximizacin de L como la determinacin no
lineal de una raz mediante una generalizacin multidimensional del mtodo de Newton-
Raphson. Ello se basa en en un desarrollo de Taylor para la derivada de L:
) 58 . 4 ( ) ( " ) * ( ) ( ' *) ( ' L L L +
Donde representa un vector genrico de parmetros de distribucin y * son los valores
verdaderos a aproximar. Puesto que se trata de determinar las races de la derivada L(*)
se requiere evaluar la segunda derivada de L, L(). Igualando (4.58) a cero (para producir
un mximo de L) y despejando * se obtiene el algoritmo iterativo:
) 59 . 4 (
) ( "
) ( '
*


L
L

Comenzando con un valor tentativo , se evala un conjunto de estimaciones, *, que a su
vez se reemplazan en el segundo miembro para la iteracin siguiente.
Algoritmo para parmetros MLE de la distribucin Gama :
En la prctica la ec. (4.59) se complica algo porque se de estimar ms de un parmetro, de
modo que L(q) es un vector de primeras derivadas y L(q) una matriz de segundas
derivadas. Para la distribucin Gama (4.59) resulta
Distribuciones de probabilidad tericas: Wilks Cap 4 19/19
------------------------------------------------------------
) 60 . 4 (
) ( ' ) ln( ) ln(
2
) ( "
*
*
2
1
3 2
1
2
2 2
2
2
2
1
1
1
]
1


1
1
1
1
]
1

1
]
1

1
1
1
1
]
1

1
1
1
1
]
1

1
]
1

1
]
1

n
x
n n x
x
n n
n
n
L
L
L L
L L
Donde () y "()son respectivamente la primera y segunda derivada de la funcin
Gama, que deben ser evaluadas numricamente. La ecuacin (4.60) se implementa
partiendo con valores tentativos iniciales para los parmetros y , tal vez usando
estimadores de momentos. Nuevos valores y resultan de aplicar (4.60). Los nuevos
valores se sustituyen en el lado derecho, y el proceso se repite hasta que el algoritmo
converja con estimaciones sucesivas que difieran en una pequea fraccin de un uno por
ciento..
Continuar

You might also like