You are on page 1of 32

EST-103 ESTADISTICA Arturo Calderón G.

2015
Capítulo 3

Distribuciones importantes

Modelos de datos
Dada una v.a. X, bajos supuestos razonables derivados de la observación, se puede deducir la función de
probabilidad o densidad de X: fX(x) a la que llamaremos el “modelo de datos”.

Población de X

, | ∈ y escribiremos ~
Si X representa una variable aleatoria con función fX(x) de probabilidad o de densidad, llamaremos
“Distribución de X” al conjunto para resaltar el hecho
de ser la función de distribución de

3.1 Principales Modelos de datos: Distribución Normal ,

Es el modelo más usado de variable continua. Se presenta de modo natural cuando se trabaja con la
distribución de variables que son ellas mismas, sumas de un número muy grande de variables aleatorias,
como es el caso de muchas variables económicas que son "agregados", como la demanda global por
ejemplo.

3.1.1 Definición y Parámetros


Sea v.a. continua y sean y constantes reales de valor conocido. Diremos que tiene
distribución normal de media y varianza , si la función de densidad de es de la forma:
e − ( x−µ ) / 2σ
2 2

f X ( x; µ , ο ) =
2
− ∞ < x < +∞
2π σ
Donde π es la constante geométrica y e es la constante de Euler.

Parámetros
Los parámetros característicos de esta función de densidad son µ y σ 2 , pues se puede demostrar que
E ( X ) = µ X = µ y V ( X ) = σ X2 = σ 2

Observaciones
La distribución normal de parámetros µ y σ 2 se denota N ( µ , σ 2 ) y el que X tenga o siga esta función
de densidad, se denota mediante X ~ N ( µ , σ 2 ) .

Aunque el rango teórico es − ∞ < x < +∞ , en la práctica se observa que el 99.9% de los casos cae en el
intervalo µ − 3σ ≤ x ≤ µ + 3σ

La gráfica de la distribución tiene forma de campana y es simétrica con respecto a µ , con puntos
de inflexión en µ ± σ y asintóticamente (valores grandes de X, ya sea positivos o negativos) se "pega" al
eje X como se ilustra en la figura 1, más abajo:

1
EST-103 ESTADISTICA Arturo Calderón G. 2015
Figura 1 Gráfico de una distribución normal de
media 10 y varianza 9

X ~ N (10,9)

(1) Si cambia y se mantiene fija, la distribución se "traslada" en la misma dirección que .


3.1.2 Relación de la gráfica de con y

Esto se debe a que indica la posición promedio de X, es el valor más frecuente y representativo de la
distribución. La figura 2 ilustra estos cambios de posición:

Figura 2 Cambios en la posición de cuando varía, manteniéndose constante


0.25

0.20

0.15

0.10

0.05

0.00
-10 -8 -6 -4 -2 0 2 4 6 8 10

N(-3,4) N(0,4) N(3,4)

(2) Si se mantiene fija y crece, la distribución se "aplana"; en cambio si disminuye, la distribu-

Esto se debe a que mide la dispersión o variabilidad de X alrededor de la media . Como los puntos
ción se "angosta".

de inflexión de la gráfica (los puntos donde cambia su dirección decreciente y comienza a tender a la
horizontalidad) son y , si crece, estos puntos se alejan, pero como el área total debe
seguir siendo uno, la gráfica debe “aplanarse” para mantener el área en uno. Por otra parte, si dis-
minuye, los puntos de inflexión se acercan y para mantener el área total sin cambio, la gráfica tiene
que “elevarse”.
La figura 3 ilustra lo anterior:

2
cuando varía, manteniéndose constante
EST-103 ESTADISTICA Arturo Calderón G. 2015
Figura 3 Cambios en la forma de
0.90

0.80

0.70

0.60

0.50

0.40

0.30

0.20

0.10

0.00
-6 -4 -2 0 2 4 6

N(0,4) N(0,1) N(0,0.25)

Valores Esperados y Función Generatriz de Momentos:


, y ∈

y evaluando en cero se comprueba que


Nota:
Derivando y que

El cálculo de probabilidades con distribuciones normales, se simplifica gracias a una propiedad


interesante de la distribución normal y su corolario. Esta propiedad dice que ‘funciones lineales de
variables normales también tienen distribución normal’. Esta propiedad es una de las llamadas
Propiedades reproductivas, aplicables a funciones lineales.

Si !~" #, $ % y se define & ' (!, donde ' y ( ) 0 son constantes o no aleatorias, entonces se
Propiedad

cumple &~" ' (#, ( % $ % .

Basta aplicar la técnica de cambio de variable en la distribución acumulativa de &. Veamos el caso ( 0:
Demostración

+, - . &/- . ' (! / - . 0! / 4 5 6 4 . Sabemos que si derivamos +, -


123 123

obtenemos la función de densidad 7, - de Y. Entonces:


123
- ' 2< = 12 3 4< =
86
4 2
8+, - - ' 1 1 - ' 1; ;
2
( %>= % 4> =
7, - 69 0 5 0 5
8- 8- ( ( ( ( ( √2A$ √2A ($
que corresponde a una función de densidad normal de media #, ' (# y varianza $, ( % $ % .
%

El caso en que ( B 0 se resuelve de manera análoga.

Nota:
Lo anterior también se puede probar usando la función generatriz de momentos

3
EST-103 ESTADISTICA Arturo Calderón G. 2015
3.1.3 Distribución Normal Estándar

En el contexto de la propiedad anterior, si !~" #, $ % y definimos la v.a. C


2<
Propiedad
>
que C~" 0,1 .
, entonces se cumple

al cálculo equivalente en una distribución " 0,1 .


Este corolario permite reducir el cálculo de una probabilidad en una distribución normal general,

! # D # D # D #
El proceso se puede describir formalmente así:
6 D . !/D . ! #/D # . E / F . EC / F 6G E F
$ $ $ $
Por ejemplo, si !~" # 10, $ % 3% ⇒
6 15 . ! / 15 . ! 10 / 15 10 . 0 / 5 . C / 1.67 6G 1.67
2JK JM2JK
L L

. ! / 15 . ! 10 / 15 10 . 0 / 5 . C / 1.67
2JK JM2JK
L L

Dada esta propiedad, la distribución " 0,1 adquiere singular importancia, así como la variable Z, razón
por la cual, esta distribución recibe el nombre de Distribución Normal Estándar y la variable Z se
llama Variable Normal Estándar. La distribución acumulativa de la variable Z ha sido tabulada y
permite calcular probabilidades relativas a cualquier variable normal.

La tabla de probabilidades acumuladas de la distribución " 0,1 tiene las áreas acumuladas o
Uso de la Tabla Normal Estándar

probabilidades, para distintos valores de Z definidos hasta el nivel de las centésimas. La lectura de las
probabilidades es directa: basta con "entrar" a la tabla con el valor de Z al nivel de las décimas en la línea
horizontal correspondiente y en el cruce con la columna de las centésimas correspondientes, ubicar la
probabilidad acumulada:

4
EST-103 ESTADISTICA Arturo Calderón G. 2015
Ejemplo 1 (Uso de la tabla normal estándar o tabla Z)
Si Z ~ N(0,1) hallar

(a) P(Z ≤ 1.96 ) = 0.975

Distribución Acumulativa Normal Estándar P(Z ≤ c)


c 0 1 2 6 7
0.0 0.5000 0.5040 0.5080 0.5239 0.5279
0.1 0.5398 0.5438 0.5478 0.5636 0.5675
0.2 0.5793 0.5832 0.5871 0.6026 0.6064
1.8 0.9641 0.9649 0.9656 0.9686 0.9693 0.975
0
1.9 0.9713 0.9719 0.9726 0.9750 0.9756
2.0 0.9772 0.9778 0.9783 0.9803 0.9808
2.1 0.9821 0.9826 0.9830 0.9846 0.9850

(b) P(Z > 1.96 ) = 1 - P(Z ≤ 1.96 ) = 1 - 0.9750 = 0.025

(c) P(Z ≤ 1.00 ) = 0.8413; P (Z ≤ 1.52 ) = 0.9357; P(Z ≤ -1.52) =0.0643

(d) P (1.00< Z ≤ 1.96) = P (Z ≤ 1.96) – P(Z ≤ 1.00) = 0.9750 - 0.8413 = 0.1337


c 0 1 2 5 6 7
0.0 0.5000 0.5040 0.5080 0.5199 0.5239 0.5279
0.1 0.5398 0.5438 0.5478 0.5596 0.5636 0.5675
0.8 0.7881 0.7910 0.7939 0.8023 0.8051 0.8078
0.9 0.8159 0.8186 0.8212 0.8289 0.8315 0.8340
1.0 0.8413 0.8438 0.8461 0.8531 0.8554 0.8577
1.1 0.8643 0.8665 0.8686 0.8749 0.8770 0.8790
1.7 0.9554 0.9564 0.9573 0.9599 0.9608 0.9616
1.8 0.9641 0.9649 0.9656 0.9678 0.9686 0.9693
1.9 0.9713 0.9719 0.9726 0.9744 0.9750 0.9756
2.0 0.9772 0.9778 0.9783 0.9798 0.9803 0.9808

Ejemplo 2
Si Z ~ N(0,1) hallar Z0 tal que:
(a) P( Z ≤ Z0 ) = 0.8508
(b) P( 0 < Z ≤ Z0 ) = 0.45

Solución:
(a) Por lectura "inversa" de la Tabla, esto es entrando con la probabilidad acumulada y después de ubicar
ésta, yendo a los bordes, se tiene que: Z0 = 1.04
Distribución Acumulativa Normal Estándar P(Z ≤ c)
c 0 1 2 3 4 5
0.0 0.5000 0.5040 0.5080 0.5120 0.5160 0.5199
0.1 0.5398 0.5438 0.5478 0.5517 0.5557 0.5596
0.2 0.5793 0.5832 0.5871 0.5910 0.5948 0.5987
0.9 0.8159 0.8186 0.8212 0.8238 0.8264 0.8289
1.0 0.8413 0.8438 0.8461 0.8485 0.8508 0.8531
1.1 0.8643 0.8665 0.8686 0.8708 0.8729 0.8749

5
EST-103 ESTADISTICA Arturo Calderón G. 2015
(b) Como P(0< Z ≤ Z0) = P( Z ≤ Z0) - P( Z ≤ 0) = P( Z ≤ Z0) - 0.5 y esta diferencia vale 0.45 por dato,
podemos escribir: P( Z ≤ Z0) = 0.45 + 0.5 = 0.95
Distribución Acumulativa Normal Estándar P(Z ≤ c)
c 0 1 2 3 4 5 6
0.0 0.5000 0.5040 0.5080 0.5120 0.5160 0.5199 0.5239
0.1 0.5398 0.5438 0.5478 0.5517 0.5557 0.5596 0.5636
0.2 0.5793 0.5832 0.5871 0.5910 0.5948 0.5987 0.6026
1.4 0.9192 0.9207 0.9222 0.9236 0.9251 0.9265 0.9279
1.5 0.9332 0.9345 0.9357 0.9370 0.9382 0.9394 0.9406
1.6 0.9452 0.9463 0.9474 0.9484 0.9495 0.9505 0.9515
1.7 0.9554 0.9564 0.9573 0.9582 0.9591 0.9599 0.9608
Entrando con una probabilidad acumulada 0.95, encontramos que no hay un valor exacto, pero si
podemos ubicar las dos probabilidades acumuladas más cercanas (una por defecto y la otra por exceso)
que son 0.9495 y 0.9505, cuyos valores Z son 1.64 y 1.65 respectivamente.

1.64 1.65
Por tanto, tomamos como valor aproximado de Z0, el promedio simple de ambos, esto es:
CK ≅ 1.645
2

Ejemplo 3
Si X ~ N(10,9) calcular P(X ≤ 15) y x0 tal que P(X > x0) = 0.95

Solución:
Aquí tenemos que µ=10 y σ2 =9. Es decir σ=3, por tanto, estandarizando
15 − 10
P ( X ≤ 15) = P ( Z ≤ ) = P ( Z ≤ 1.67) = 0.9525 .
3
c 0 1 6 7 8
0.0 0.5000 0.5040 0.5239 0.5279 0.5319
0.9 0.8159 0.8186 0.8315 0.8340 0.8365
1.0 0.8413 0.8438 0.8554 0.8577 0.8599
1.1 0.8643 0.8665 0.8770 0.8790 0.8810
1.2 0.8849 0.8869 0.8962 0.8980 0.8997
1.3 0.9032 0.9049 0.9131 0.9147 0.9162
1.4 0.9192 0.9207 0.9279 0.9292 0.9306
1.5 0.9332 0.9345 0.9406 0.9418 0.9429
1.6 0.9452 0.9463 0.9515 0.9525 0.9535
1.7 0.9554 0.9564 0.9608 0.9616 0.9625

Finalmente:
P( X > x0 ) = 0.95 ⇔ P ( X ≤ x0 ) = 0.05 ⇔ P( X ≤ x0 ) = 0.05 = P( Z ≤ x0 − 10 ) .
3
x − 10
Buscando en la tabla Z con 0.05 de probabilidad acumulada tenemos 0 ≅ −1.645
3

6
EST-103 ESTADISTICA Arturo Calderón G. 2015
c 0 1 2 3 4 5 6
-4.0 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000
-3.1 0.0010 0.0009 0.0009 0.0009 0.0008 0.0008 0.0008
-1.9 0.0287 0.0281 0.0274 0.0268 0.0262 0.0256 0.0250
-1.8 0.0359 0.0351 0.0344 0.0336 0.0329 0.0322 0.0314
-1.7 0.0446 0.0436 0.0427 0.0418 0.0409 0.0401 0.0392
-1.6 0.0548 0.0537 0.0526 0.0516 0.0505 0.0495 0.0485
-1.5 0.0668 0.0655 0.0643 0.0630 0.0618 0.0606 0.0594
de donde x0 ≅ 10 − 3 × 1.645 = 5.065

Ejemplo 4

una v.a. continua con distribución normal de media # 500 y varianza $ % 50% .
Un gestor tiene una cartera de inversiones donde la utilidad lograda (en miles de unidades monetarias) es

a) El gestor tiene una deuda de 450 y espera cancelarla con la utilidad lograda con su inversión ¿Podrá
cancelar la deuda de esta manera? Use probabilidades para decidir.
b) Otra inversión posible para el gestor tiene una utilidad también con distribución normal, pero no se
conocen la media ni la varianza. El gestor cree que con probabilidad de 2/3 la utilidad de esta
inversión no pasará de 644 y con 2.5% de probabilidad la utilidad pasará de 796 ¿Cuánto vale la
utilidad esperada de esta segunda inversión y cuánto vale su desviación estándar?
c) ¿Con cuál inversión, la de a) o la de b), hay más probabilidad de tener una utilidad que esté entre 550
y 650?

a) Hallemos . ! 450 1 . ! / 450 1 . C/ 1 1 0.1587 0.8413 0.5 Si


Solución:

podrá cancelar su deuda.


Distribución Acumulativa Normal Estándar P(Z ≤ c)
c 0 1 2 3 4
-4.0 0.0000 0.0000 0.0000 0.0000 0.0000
-3.9 0.0000 0.0000 0.0000 0.0000 0.0000
-1.5 0.0668 0.0655 0.0643 0.0630 0.0618
-1.4 0.0808 0.0793 0.0778 0.0764 0.0749
-1.3 0.0968 0.0951 0.0934 0.0918 0.0901
-1.2 0.1151 0.1131 0.1112 0.1093 0.1075
-1.1 0.1357 0.1335 0.1314 0.1292 0.1271
-1.0 0.1587 0.1562 0.1539 0.1515 0.1492
-0.9 0.1841 0.1814 0.1788 0.1762 0.1736

b) Sea Y la utilidad con la otra inversión. Nos dicen que &~" #, $ % y necesitamos hallar # y $. Son dos

De “con probabilidad de 2/3 la utilidad de esta inversión no pasará de 644” tenemos . & / 644
incógnitas, por tanto necesitamos dos ecuaciones:

0.67 ⇒
. 0C / > 5 0.67 ⇒ W; X' D'(X' C ∶ > 0.44 ⇒ Z[[ . [[ \
UVV2< UVV2<

7
EST-103 ESTADISTICA Arturo Calderón G. 2015

Distribución Acumulativa Normal Estándar P(Z ≤ c)


c 0 1 2 3 4 5 6 7 8 9
0.0 0.5000 0.5040 0.5080 0.5120 0.5160 0.5199 0.5239 0.5279 0.5319 0.5359
0.1 0.5398 0.5438 0.5478 0.5517 0.5557 0.5596 0.5636 0.5675 0.5714 0.5753
0.2 0.5793 0.5832 0.5871 0.5910 0.5948 0.5987 0.6026 0.6064 0.6103 0.6141
0.3 0.6179 0.6217 0.6255 0.6293 0.6331 0.6368 0.6406 0.6443 0.6480 0.6517
0.4 0.6554 0.6591 0.6628 0.6664 0.6700 0.6736 0.6772 0.6808 0.6844 0.6879
0.5 0.6915 0.6950 0.6985 0.7019 0.7054 0.7088 0.7123 0.7157 0.7190 0.7224

De “con 2.5% de probabilidad la utilidad pasará de 796” tenemos . & 796 0.025 ⇒
. & / 796 0.975
⇒ . 0C / 5 0.975 ⇒ W; X' D'(X' C ∶ 1.96 ⇒ `aZ \. aZ
^_U2< ^_U2<
> >
Resolviendo (1) y (2) se tiene la respuesta: Z y \

c) Calcular . 550 / ! / 650 y . 550 / & / 650 usando las medias y desviaciones estándar
correspondientes y compar probabilidades, la más grande gana.

Ejemplo 5
En una región del país, el ingreso familiar es una v.a.c. X con distribución normal de parámetros µ=300 y
σ2=1002

a) En la región sólo el 2.5% de las familias se considera de altos ingresos ¿Cuál ingreso X0 define a una
familia como de altos ingresos?
b) Si se considera que el costo de una Canasta Familiar mínima es 350 u.m. y el gobierno asegura que
con su plan de reactivación, en cinco años sólo el 30% de las familias estará en Pobreza: ¿Cuánto
dinero adicional tendría que ganar cada familia para que lo anterior sucediera?

Solución:
a) Por dato
X 0 − 300
P( X ≥ X 0 ) = 0.025 ⇔ P( X ≤ X 0 ) = 0.975 ⇔ P( Z ≤ ) = 0.975 así que
100
X 0 − 300
= 1.96 ⇒ X 0 − 300 = 196 ⇒ X 0 = 496
100
b) Sea Y el ingreso luego del plan de reactivación, entonces Y = X + c donde c es el dinero adicional en
el ingreso de cada familia. Si el porcentaje en pobreza será 30%, entonces se cumpliría
P(Y < 350) = 0.3 o equivalentemente P( X + c < 350) = 0.3
350 − c − 300
⇒ 0.3 = P( X < 350 − c) = P ( Z < ) y de la tabla Z tenemos
100
350 − c − 300 50 − c
= −0.525 ⇒ = −0.525 ⇒ c = 102.5
100 100

8
EST-103 ESTADISTICA Arturo Calderón G. 2015
3.1.4 Origen de la Distribución Normal

Proposición (Teorema del Límite Central)


Sean X 1 , X 2 ,L, X n variables aleatorias independientes con medias µ1 , µ 2 ,..., µ n y varianzas
σ 12 , σ 22 ,L , σ n2 .
Sea b ∑edfJ !d . Si el número n de sumandos es grande (n ≥ 30) , entonces b~" # g , $g% , donde
# g ∑edfJ #d y $g% ∑edfJ $d%

Observaciones:
Este teorema permite atribuir normalidad de datos cuando la o las variables bajo estudio se pueden
considerar como la suma de un número grande de variables. En Economía o Gestión, por ejemplo,
variables como el producto nacional y la demanda agregada se asumen con distribución normal gracias al
teorema anterior.

No es requisito que las variables !d tengan ellas mismas distribución normal, es suficiente que la cantidad
n de sumandos sea grande. El teorema es válido incluso si las variables no son independientes.

La cantidad (n ≥ 30) es un promedio; si las variables !d originales tienen distribución simétrica, es


posible que el teorema se cumpla con un n menor; en cambio si las distribuciones son asimétricas, n
tendrá que ser bastante mayor que 30 para que tenga vigencia el teorema.

Ejemplo 6
Una prueba tiene 40 preguntas o "items", y se calcula que en promedio, una persona demora una media de
µ = 1.5 minutos por ítem, con una desviación estándar de σ = 0.50 minutos. Si se desea poner un tiempo
límite T* para la prueba, de modo que el 90% de personas complete la prueba ¿Cuál sería el tiempo T*
que debiera fijarse?

Si definimos b ∑VK dfJ !d , donde !d es el tiempo usado en el i-ésimo ítem, como son n=40 ítems,
Solución:

b~" # g ∑VK dfJ #d 40# 60, $g% ∑VK dfJ $d


%
∑VK
dfJ $
%
40$ % 10 , esto es:
asumiendo independencia entre tiempos, podemos aplicar el Teorema del Límite Central y decir que

b~" # g 60, $g% 10


En este contexto, T* satisface la condición P(T≤ T*) = 90 o equivalentemente
T − 60 T * − 60 T * − 60
0.90 = P (T ≤ T * ) = P( ≤ ) = P( Z ≤ )
10 10 10
De la Tabla Z obtenemos
T * − 60
= 1.285 ⇒ T * = 60 + 1.285 10 = 64.06
10
Concluimos que el tiempo para la prueba debiera fijarse en unos 64 minutos.

Ejemplo 7
Si el número de trabajadores que tiene una pequeña empresa del sector metal-mecánica es una variable aleatoria X
PX(x) = (7-x)/21 x = 1,2,3,4,5,6.

a) ¿En promedio cuántos trabajadores tiene una empresa cualquiera? ¿Con qué la varianza σ2?
b) Si en un distrito hay n = 36 pequeñas empresas de este sector y se desea estudiar la cantidad total T de traba-
jadores T=ΣXi del sector metal-mecánica en el distrito ¿Cuál sería la media µT y la varianza σ2T de T en el
distrito? Asuma que hay independencia entre las empresas en cuanto al número de trabajadores de cada una.
c) En el contexto de b), halle el percentil 67 de la distribución de la cantidad total T de trabajadores del sector
metal-mecánica en el distrito.

9
EST-103 ESTADISTICA Arturo Calderón G. 2015
Solución:
a) Acomodando datos para facilitar cálculos, tenemos:

.
1 2 3 4 5 6 Total

.
0.29 0.24 0.19 0.14 0.10 0.05 1.00

%
.
0.29 0.48 0.57 0.57 0.48 0.29 2.67

#
0.29 0.95 1.71 2.29 2.38 1.71 9.33

$ %
2.67 En promedio, una empresa tiene 2.67 trabajadores
2.22 La varianza es 2.22

b) Si hay n = 36 pequeñas empresas, la cantidad total T de trabajadores en el distrito es b ∑LU dfJ !d ,


donde !d el número de trabajadores de la empresa número i del distrito. En este contexto sabemos

# g ∑LUdfJ # h ∑LU
dfJ 2.67 36 i 2.67 96.12 y $g% ∑LU dfJ $ h
% ∑LU
dfJ 2.22 36 i 2.22
que:

79.92

tiene distribución normal: b ∑LUdfJ !d ~" # g 96.12, $g% 79.92 y por tanto, si bU^ es el
c) En b), como n = 36>30 es “grande”, podemos aplicar el Teorema del Límite Central y decir que T

se cumple: . b / bU^ 0.67 ⇔ . 0C / kl 5 0.67 ⇔ kl 0.44 ⇒ bU^


g 2_U.J% g 2_U.J%
percentil 67, entonces

√^_._% √^_._%
100.053

10
3.2 Principales Modelos de datos: Distribución Binomial m n, o
EST-103 ESTADISTICA Arturo Calderón G. 2015

Esta es la distribución que se presenta cuando contamos el número ! de veces que ocurre un determinado
3.2.1 Uso

evento p sobre un total fijo de n repeticiones u observaciones independientes de un experimento.

(1) Se envía n = 60 cuestionarios a empresas para que los llenen con datos sobre empleo y se cuenta el
Ejemplo 8

(2) Una persona contesta totalmente al azar una prueba con n = 20 preguntas de opción múltiple y
númerop es eventode cuestionarios devueltos llenos.

registramos el número de aciertos obtenidos por la persona.

3.2.2 Orígenes y Parámetros

determinado evento p , que tiene probabilidad o . p , cuando se repite q veces independientemente,


Formalmente esta distribución se presenta cuando se cuenta el número X de veces que ocurre un

el experimento aleatorio r del cual p es evento.

Sea p un evento que puede ocurrir con probabilidad o (o sea o . p ) o puede no ocurrir con
Proposición

probabilidad q 1 s (esto es q t pu ). Si se repite n veces, de forma independiente, el


experimento r del cual p es evento, y se define la variable aleatoria = Número de veces que ocurre p
en las n repeticiones, entonces la función de probabilidad de es:

t t un o qn2
, \, , … , n
Demostración:
RX = {0,1,2,L, n} , ya que puede ocurrir que nunca se presente A , en cuyo caso X será 0, o puede ocurrir A
una sola vez, y así hasta el otro caso extremo en que A se presenta siempre, en cuyo caso X será n

s i s…i s i €
restantes, tiene probabilidad wxxyxxz i € i … i € s { € e2{ ; y en total hay casos un de este
wxxxyxxxz
Ahora bien, que el evento A se presente en x veces específicas y que AC ocurra en las (n-x) veces

{ |}~}• e2{ |}~}•


tipo, por lo que podemos escribir t u o q
n n2

, \, , … , , … , n
donde x es un valor genérico del rango de X

Procediendo inductivamente, se puede probar que • ‚ n ∑nƒf unƒ •ƒ ‚n2ƒ y aplicando esto al caso
Nota: Binomio de Newton

particular • o y ‚ q se tiene
∑e{fK „{e s { € e2{ s € e s 1 s e 1 o sea ∑e{fK . 1

Esta distribución está totalmente determinada si se conocen n y o, por lo que estas cantidades se
Parámetros

consideran sus "parámetros" característicos.

no y noq. Además o q n ∈
Valores Esperados y función generatriz de momentos
Se puede probar que .
En efecto:
n n
M X (t ) = E (e tX ) = ∑ e tx C x p x q n − x = C x e tx p x q n − x = ∑ C x (pe
n n n t x n− x
{ ) q{

Si aplicamos ahora el Binomio de Newton ' ( e ∑e…fK „…e '… ( e2… , tenemos
x =0 x =0 a b

n
M X (t ) = E (etX ) = ∑ C x (pet )x q n − x = ( pet + q) n que se cumple para todo t real.
n

x =0

11
EST-103 ESTADISTICA Arturo Calderón G. 2015
n−1
Derivando con respecto a t obtenemos M X (t ) = n( pe + q) pe y evaluando en t = 0 obtenemos
' t t

† ! # ‡9 0 ˆ s; K € e2J s; K ˆs.

Por ejemplo, si ˆ 10 y s 0.2, entonces † ! # ˆs 8 i 0.2 2

Observaciones:

llamaremos Distribución Binomial que se denota ‰ ; ˆ, s


(1) La variable aleatoria X es llamada variable binomial y a su distribución de probabilidades la

~m ; n, o
(2) El que la distribución de X sea una binomial de parámetros n y p, se denota escribiendo

(3) El parámetro n determina la extensión del rango y p la forma de la distribución: si p = 0.5 la


distribución es simétrica, y conforme p se aleja de 0.5 la distribución se hace asimétrica. Un

probabilidades que asigna ‰ ; ˆ, s ilustra lo que decimos:


gráfico donde representamos mediante barras centradas en los distintos valores de las

.4 .3 .4

.3 .3

.2
b(x;n=10,p=.02 )

b(x;n=10,p=0.5)

b(x;n=10,p=0.8)
.2 .2

.1

.1 .1

0.0 0.0 0.0


0 1 2 3 4 5 6 7 8 9 10 0 1 2 3 4 5 6 7 8 9 10 0 1 2 3 4 5 6 7 8 9 10

x x x

p = 0.2 p = 0.5 p = 0.8

Ejemplo 9
Una petrolera efectúa perforaciones en una concesión del gobierno, en donde, según sus cálculos, tiene un
25% de probabilidad de dar con un pozo rentable al hacer una perforación.

Si la compañía asigna un presupuesto de 12 millones de unidades monetarias (u.m.) para exploraciones,


sabiendo que necesita un mínimo de 4 cuatro pozos en explotación para tener ganancias, y calcula un
gasto de 2 millones de u.m. por perforación. ¿Con qué probabilidad tendrá ganancias?

Solución:

resulta en un pozo rentable'. Entonces o . ‹yq \ o . `‹; Si la compañía hace n perfora-


Sea ε el experimento consistente en realizar la perforación de un pozo y sea A el evento 'La perforación

ciones y definimos la v. a. discreta = Número de pozos rentables en las n perforaciones, asumiendo in-

~m ; n, o . ‹ yt t u n
. ‹ . `‹ n2 , \, , … , n
dependencia entre las perforaciones, tenemos que se ajusta al modelo binomial, esto es:

Dados los costos, la compañía puede realizar n Z perforaciones y para que haya ganancias, se
\

necesita que el número de pozos rentables sea Œ [. Evaluando esta probabilidad con t :

12
EST-103 ESTADISTICA Arturo Calderón G. 2015

6
P (Ganancia ) = P ( X ≥ 4) = P ( X = 4) + P ( X = 5) + P ( X = 6) = ∑ C x6 (0.25) x (0.75) 6− x = C 46 (0.25) 4 (0.75) 2 + C56 (0.25) 5 (0.75)1
x=4
1442443 1442443
P ( X =4 ) P ( X =5 )

6! 6! 6!
+ C66 (0.25) 6 (0.75) 0 = (0.25) 4 (0.75) 2 + (0.25)5 (0.75)1 + (0.25) 6 (0.75) 0 = 0.033
1442443 4!2! 5!1! 6!0!
P ( X =6 )

Se puede decir que con 3.3% de probabilidad, la compañía tendrá ganancias. Se deduce que casi con
seguridad, no se logrará la rentabilidad suficiente.

Una prueba de aptitud tiene n


Ejemplo 10
preguntas de opción múltiple, siendo cinco las opciones (una
correcta y el resto no) por pregunta. Si una persona marca todo al azar y se define X = # total de aciertos,
calcule la probabilidad de que la persona acierte en:
a) Dos preguntas
b) Al menos en una pregunta
c) Entre 4 y 5 preguntas

Solución:

A= "La persona acierta en la pregunta"; o t p . yn


\
Identificando datos, tenemos:

X = # total de aciertos en las n = 20 preguntas

i.e. ~m ; n ,o . y así:
Entonces, asumiendo independencia entre preguntas, se puede decir que X tiene distribución binomial,

PX ( x) = P ( X = x) = C x (0.20) x (0.80) 20− x x = 0,1,2,...,20 ⇔


20

20! .
PX ( x) = P ( X = x) = (0.20) x (0.80) 20− x x = 0,1,2,...,20
x!( 20 − x)!
Luego:
a) Acierta dos preguntas ⇔ X=2 y
20×19×18!
}
20!
PX (2) = P( X = 2) = C 2 0.2 0.8 = (0.20)2 (0.80)18 = 0.1369
20 2 18

2!(20 − 2)!
1424 3
18!

b) Al menos en una pregunta ⇔ X=1 o má


P( X ≥ 1) = 1 − P( X = 0) = 1 − C 0 0.2 0 0.820 = 1 − 0.0115 = 0.9884
20

14 4244 3
P ( X =0)

c) Entre 4 y 5 preguntas o sea X = 4 o X=5


P (4 ≤ X ≤ 5) = C 4 0.2 4 0.816 + C 5 0.25 0.815 = 0.1145
20 20

14 4244 3 14 4244 3
P( X =4) P ( X =5 )

Observación:
Como E ( X ) = µ X = np = 20(0.2) = 4 y V ( X ) = σ X2 = npq = 20(0.2)(0.8) = 3.2 ( por
tanto σ X = 1.78 ), podemos decir que si una persona contesta las 20 preguntas al azar, entonces ella puede
tener entre µ X −σ X = 4 − 1.78 ≅ 2 y µ X +σ X = 4 + 1.78 = 6 aciertos.

Ejemplo 11
En el ejemplo 10, si cada acierto vale 4 puntos y cada error cuesta N puntos y se quiere que las personas
que contesten al azar en promedio reciban puntaje 0 ¿Cuánto debe descontarse por cada error?

Solución:
Si T es el puntaje total, entonces T = 4X-N(20-X) y deseamos hallar N tal que E(T) = 0.

13
EST-103 ESTADISTICA Arturo Calderón G. 2015

Aplicando propiedades del valor esperado:


E (T ) = E (4 X − ( 20 − X ) N ) = E (( 4 + N ) X − 20 N ) = (4 + N ) E( X ) − 20N .
Pero E ( X ) = np = 20 × (1 / 5) = 4 , de modo que E (T ) = ( 4 + N ) × 4 − 20 N = 16 − 16 N = 0
Igualando a 0 resulta N = 1 , esto es, se debe descontar un punto por cada error.

Proposición (Aproximación de la Distribución Binomial a la Normal)


Si X ~ B( x;n,p) ( µ = np,σ = npq ) y n es "grande", entonces se cumple que
2

µ
}
k − np
P( X ≤ k ) ≈ P( Z ≤ )
npq
{
σ2
n
Esta propiedad es consecuencia del Teorema del Límite Central, si recordamos que X = ∑ X j donde
j =1

X j = 1 si ocurre A en la j-ésima repetición del experimento y X j = 0 si A no ocurre en la j-ésima


repetición del experimento.

No hay un criterio único para decidir si n es "grande", pero nosotros usaremos el siguiente:
Si np > 5 y nq > 5 , consideraremos que n es "grande".

Corrección por continuidad:


(a − 0.5) − np (b + 0.5) − np
P(a ≤ X ≤ b) = P(a − 0.5 ≤ X ≤ b + 05) ≈ P( ≤Z≤ )
npq npq
y
(c − 0.5) − np (c + 0.5) − np
P ( X = c) = P (c − 0.5 < X < c + 0.5) ≈ P ( ≤Z≤ )
npq npq
Ejemplo 12
Si un test de competencias laborales tiene 60 preguntas de opción múltiple con 5 opciones por pregunta y
una persona marca todo al azar. ¿Con qué probabilidad acertaría en 15 preguntas o menos?

Solución:
Si A = “Acierta en la pregunta”, entonces p=P(A)=1/5=0.2 y q=0.8; son n = 60 preguntas. Sea ahora X =

!~‰ ˆ 60, s 0.2 , o sea PX ( x) = P ( X = x ) = C x (0.20) (0.80)


# de aciertos, entonces
60− x
60 x
x = 0,1,2,...,60 y
queremos hallar P( X ≤ 15) .

Como np=60×0.2=12>5 y nq=60×0.8=48>5, se puede aplicar la aproximación normal con µ = np = 12


y σ = npq = 9.6
µX
}
(15 + 0 . 5 ) − np (15 + 0 . 5 ) − 12
P ( X ≤ 15 ) ≈ P ( Z ≤ ) = P (Z ≤ ) = P ( Z ≤ 1 . 13 ) = 0 . 8707
npq
{ 9 .6
σ 2
X

14
EST-103 ESTADISTICA Arturo Calderón G. 2015

Ejemplo 13
En un instituto superior tecnológico hay 600 alumnos a la hora de almuerzo y cuatro cafeterías para
atenderlos. Cada alumno decide por su cuenta e independientemente de otros a cuál cafetería ir y
cualquiera de las cafeterías puede ser elegida por el alumno con la misma probabilidad.

a) Si la cafetería “Kelico” es una de las cuatro cafeterías del instituto y ! es el número de alumnos que
decide ir a esa cafetería a almorzar ¿Cuál es la distribución de probabilidades de X? Justifique e
indique los parámetros de la distribución. ¿Cuántos alumnos espera recibir “Kelico”?
b) En a), si la cafetería prepara 160 almuerzos tipo menú básico y cada alumno que va a la cafetería
pidiera un menú básico ¿A partir de qué valor de X se agotarán los básicos en “Kelico”? ¿Puede
calcular manualmente la probabilidad de que se agoten los “básicos” de la cafetería? Calcule el valor
aproximado de la probabilidad anterior.
c) En a), la cafetería quiere saber la cantidad k de “básicos” que debiera tener preparados para satisfacer
cualquier demanda que se presente con 90% de probabilidad. Halle el valor de k

Solución:
a) X ~B(x; n = 600, p = 0.25). Aquí el evento de interés A es
A = “El alumno decide ir a la cafetería Kelico” y p=P(A) =1/4 = 0.25 pues podría elegir a cualquiera
de las cuatro cafeterías.
Sea X=# de alumnos (entre los 600) que van a “Keliko” ⇒ X~B(n=600, p=0.25) esto es:
PX (x) = P( X = x) = Cx600(0.25)x (0.75)600−x x = 0,1,2,..., 600
El esperado de alumnos en Kelico es # ˆs 600 i 0.25 150 y por tanto:
P(Se agotan los “básicos”)=P(X > 160) = 1 – P(X ≤ 160) .

600!
El cálculo manual no es factible en este caso por la presencia de factoriales muy grandes:
. ! „{UKK 0.25{ 0.75UKK2{ 0.25{ 0.75UKK2{
! 600 !
Pero
Si X ~ B( x;n,p) ( µ = np,σ = npq ) y n es "grande", entonces se cumple que
2

µ
}
k − np
P( X ≤ k ) ≈ P( Z ≤ ) donde si np > 5 y nq > 5 , consideraremos que n es "grande".
npq
{
σ2

normal, con # ˆs 150; $ % ˆs€ 112.5. Haciendo cálculos obtenemos:


aquí np=150 > 5, nq=450 > 5 y entonces sí es posible aplicar la aproximación de la binomial por la

<’
• ‘–
160 0.5 150 10.5
. ! / 160 . •C / • . EC / F . C / 0.99 0.8389
• • 10.61
112.5
wyz
“ =
Ž ”
>’

⟹ . ! 160 0.1611

15
EST-103 ESTADISTICA Arturo Calderón G. 2015
Distribución Acumulativa Normal Estándar P(Z ≤ c)
c 0 1 2 3 4 5 6 7 8 9
0.0 0.5000 0.5040 0.5080 0.5120 0.5160 0.5199 0.5239 0.5279 0.5319 0.5359
0.1 0.5398 0.5438 0.5478 0.5517 0.5557 0.5596 0.5636 0.5675 0.5714 0.5753
0.2 0.5793 0.5832 0.5871 0.5910 0.5948 0.5987 0.6026 0.6064 0.6103 0.6141
0.3 0.6179 0.6217 0.6255 0.6293 0.6331 0.6368 0.6406 0.6443 0.6480 0.6517
0.4 0.6554 0.6591 0.6628 0.6664 0.6700 0.6736 0.6772 0.6808 0.6844 0.6879
0.5 0.6915 0.6950 0.6985 0.7019 0.7054 0.7088 0.7123 0.7157 0.7190 0.7224
0.6 0.7257 0.7291 0.7324 0.7357 0.7389 0.7422 0.7454 0.7486 0.7517 0.7549
0.7 0.7580 0.7611 0.7642 0.7673 0.7704 0.7734 0.7764 0.7794 0.7823 0.7852
0.8 0.7881 0.7910 0.7939 0.7967 0.7995 0.8023 0.8051 0.8078 0.8106 0.8133
0.9 0.8159 0.8186 0.8212 0.8238 0.8264 0.8289 0.8315 0.8340 0.8365 0.8389
1.0 0.8413 0.8438 0.8461 0.8485 0.8508 0.8531 0.8554 0.8577 0.8599 0.8621

b) Si k es la cantidad de básicos, queremos k tal que . ! / ˜ 0.90 . 0C / 5. De la tabla


… K.M2JMK
√JJ%.M
Z resulta:
Distribución Acumulativa Normal Estándar P(Z ≤ c)
c 0 1 2 3 4 5 6 7 8 9
0.0 0.5000 0.5040 0.5080 0.5120 0.5160 0.5199 0.5239 0.5279 0.5319 0.5359
0.1 0.5398 0.5438 0.5478 0.5517 0.5557 0.5596 0.5636 0.5675 0.5714 0.5753
0.2 0.5793 0.5832 0.5871 0.5910 0.5948 0.5987 0.6026 0.6064 0.6103 0.6141
0.3 0.6179 0.6217 0.6255 0.6293 0.6331 0.6368 0.6406 0.6443 0.6480 0.6517
0.4 0.6554 0.6591 0.6628 0.6664 0.6700 0.6736 0.6772 0.6808 0.6844 0.6879
0.5 0.6915 0.6950 0.6985 0.7019 0.7054 0.7088 0.7123 0.7157 0.7190 0.7224
0.6 0.7257 0.7291 0.7324 0.7357 0.7389 0.7422 0.7454 0.7486 0.7517 0.7549
0.7 0.7580 0.7611 0.7642 0.7673 0.7704 0.7734 0.7764 0.7794 0.7823 0.7852
0.8 0.7881 0.7910 0.7939 0.7967 0.7995 0.8023 0.8051 0.8078 0.8106 0.8133
0.9 0.8159 0.8186 0.8212 0.8238 0.8264 0.8289 0.8315 0.8340 0.8365 0.8389
1.0 0.8413 0.8438 0.8461 0.8485 0.8508 0.8531 0.8554 0.8577 0.8599 0.8621
1.1 0.8643 0.8665 0.8686 0.8708 0.8729 0.8749 0.8770 0.8790 0.8810 0.8830
1.2 0.8849 0.8869 0.8888 0.8907 0.8925 0.8944 0.8962 0.8980 0.8997 0.9015
1.3 0.9032 0.9049 0.9066 0.9082 0.9099 0.9115 0.9131 0.9147 0.9162 0.9177

1.285 ⟹ ˜ 150 0.5 1.285 i √112.5 163.4 ⟹ ˜ ≅ 164


… K.M2JMK
√JJ%.M

16
3.3 Principales Modelos de datos: Distribucion Lognormal ™š› ,
EST-103 ESTADISTICA Arturo Calderón G. 2015

Esta distribución aparece como una consecuencia del Teorema del Límite Central cuando los efectos del
azar no son aditivos sino multiplicativos.

3.3.1 Definición y Parámetros

Sea X variable aleatoria continua con rango œ •0, ∞Ÿ y sean µ y σ 2 > 0 constantes reales de valor
Definición

conocido. Diremos que X tiene distribución Lognormal de parámetros µ y σ 2 , si Y = ln X tiene


distribución normal N ( µ , σ 2 ) . Lo anterior se denota escribiendo X ~ LogN ( µ ,σ 2 ) .

Parámetros
Los parámetros son µ y σ 2 . Aunque la gráfica es asimétrica, la forma va cambiando con µ

Distribución Lognormal Distribución Lognormal Distribución Lognormal


y=lognorm(x,0,1) y=lognorm(x,1,1) y=lognorm(x,3,1)
0.8 0.30 0.05

0.25
0.04
0.6
0.20
0.03

0.4 0.15

0.02
0.10
0.2
0.01
0.05

0.0 0.00 0.00


0 5 10 15 20 0 5 10 15 20 0 5 10 15 20 25 30 35 40 45 50 55 60

µ=0, σ2=1 µ=1, σ2=1 µ=3, σ2=1


Observaciones
(1) Sea FX ( x ) = P ( X ≤ x ) la distribución acumulativa de X . Entonces se cumple
FX ( x ) = P ( X ≤ x ) = P (ln X ≤ ln x ) = P (Y ≤ ln x ) , donde Y ~ N ( µ ,σ 2 ).
(2) De lo anterior, al calcular probabilidades de una distribución Lognormal, basta convertir el problema
en uno de cálculo de probabilidades en una distribución N ( µ ,σ 2 ). En efecto:
ln x − µ ln x − µ
FX ( x ) = P( X ≤ x ) = P(ln X ≤ ln x ) = P(Y ≤ ln x ) = FY (ln x ) = P( Z ≤ ) = FZ ( )
σ σ
(3) Como FX ( x ) = FY (ln x ) ⇒ Derivando con respecto a x tenemos:
1 1 e − (ln x − µ ) / 2σ
2 2

f X ( x ) = F (ln x ) = f Y (ln x ) =
'
x>0
2π σ
Y
x x
Proposición
e − (ln x − µ ) / 2σ
2 2

f
La función de densidad de X es X ( x ) = x>0
x 2π σ
Valores esperados
t2 2
tµ + σ
Como Y = ln X ~ N ( µ , σ ) ⇒ M Y (t ) = e 2 2 . Pero también sabemos que
M Y (t ) = E ( e tY ) =
{ E ( e ) = E (e ) = E ( X ) .
t
t ln X ln X t

y =ln X
t2 2
tµ + σ
Es decir, E ( X ) = e ∀t es una fórmula general para los esperados de las potencias de X
t 2

1
µ+ σ 2
Evaluando en t = 1 obtenemos µ X = E ( X ) = e y en t = 2 obtenemos E ( X 2 ) = e 2 µ + 2σ
2
2

17
EST-103 ESTADISTICA Arturo Calderón G. 2015

Proposición
1
µ+ σ 2
Si X ~ LogN ( µ ,σ 2 ) entonces µ X = E ( X ) = e y σ X2 = V ( X ) = e 2 µ + 2σ − e 2 µ +σ
2 2
2

Observación:
Nótese que µ ≠ E ( X ) y σ 2 ≠ V ( X ) en esta distribución.

3.3.2 Origen de la distribución (Teorema del Límite Central para productos)


Sean W1 ,W2 ,L,Wn ,L variables aleatorias positivas e independientes con medias y varianzas finitas. Sea
n
P el producto de estas variables, i.e. P = ∏W j . Si el número n de factores es grande ( n ≥ 30 ), entonces
j =1
n n
se cumple P ~ LogN ( µ , σ 2 ) , donde µ = ∑ µ j y σ 2 = ∑σ 2j , siendo µ j = E ( LnW j ) y σ 2j = V ( Ln (W j ))
j =1 j =1

Demostración:
Esto es consecuencia directa del Teorema del Límite Central para sumas de variables aleatorias:
“Sean X 1 , X 2 ,L , X n ,L variables aleatorias independientes con medias µ1 , µ 2 ,L, µ n ,L y varianzas
n
σ 12 ,σ 22 ,L,σ n2 ,L . Sea T = ∑ X j . Si el número n de sumandos es grande ( n ≥ 30) , entonces
j =1
n n
T ~ N ( µT ,σ T2 ) , donde µ T = ∑ µ j y σ T2= ∑ σ 2j ”
j =1 j =1

n  n  n
Pues de P = ∏W j , tomando logaritmo neperiano resulta que ln(P) = ln ∏W j  = ∑ ln(W j ) es la suma
j =1  j =1  j =1
de n variables aleatorias (a saber ln(W j ) j = 1,2,..., n ) y, si n es “grande”, el Teorema del límite central es
aplicable y ln(P) tendrá distribución normal y por tanto P tendrá distribución lognormal.

Ejemplo 14
La cotización de una acción en la bolsa, después de cierto tiempo en el mercado de valores, es una v.a.c.
X con distribución LogNormal de parámetros µ y σ2

a) Si µ=5 y σ=1 ¿Con qué probabilidad la cotización será menor que 190 u.m.?

el título no pasará de 3,200 u.m. ¿Cuáles son los parámetros # - $ % de la distribución?


b) Un inversionista espera que el título se cotice a 1,100 u.m. aunque sabe que con 94% de probabilidad

a) !~X 7" # 5, $ % 1 ⇒ Xˆ!~" # 5, $ % 1


Solución:

P ( X < 190 ) = P (ln X < ln 190 ) = P (ln X < 5.25) = P ( Z < 0.25) = 0.5987
1
1 µ+ σ 2
b) “Espera que el título se cotice a 1,100 u.m.” ⇒ µ X = E ( X ) = e = 1,100 ⇒ µ + σ 2 = 7 (I) y
2
2
“Sabe que con 94% de probabilidad el título no pasará de 3,200 u.m.”
8.1 − µ 8.1 − µ
P( X < 3,200) = P(ln X < 8.1) = P( Z < ) = 0.94 ⇒ = 1.55 ⇒ 8.1 − µ = 1.55σ (II)
σ σ
Resolviendo (I) y (II) se obtienen µ y σ : 2

1 1 1
De (I) µ + σ 2 = 7 ⇒ µ = 7 − σ 2 y en (II) ⇒ 8.1 − 7 + σ 2 = 1.55σ ⇒ σ 2 − 3.1σ + 2.2 = 0 ⇒
2 2 2

18
EST-103 ESTADISTICA Arturo Calderón G. 2015
3.1 ± 9.61 − 4 × 2.2 3 .1 ± 0 .9 1 . 1 6 . 5
σ= =σ = ⇒σ =  y µ = 
2 2 2 5
Ejemplo 15
El Ingreso Familiar X (medido en cientos de unidades monetarias) en una región es una v.a.c. con distribución
lognormal de parámetros µ = 3 y σ2 = 1
a) Si se considera que el costo de una canasta familiar mínima es 33.2 cientos de u.m. ¿En esta región con qué
probabilidad una familia estará en condición de pobreza?
b) Si se considera que el costo de una canasta familiar mínima es 33.2 cientos de u.m. y el gobierno asegura que
con su plan de lucha contra la pobreza, en cinco años sólo el 30% de las familias estará en Pobreza. ¿Cuánto
dinero adicional tendría que ganar cada familia para que la afirmación del gobierno se realizara?

a) “En condición de pobreza” equivale a “Ingreso no cubre el costo de la canasta familiar” ⟺ B ¢¢.
Solución:

. ! B 33.2 . Xˆ! B Xˆ33.2 . Xˆ! B 3.5 .0 B 5 . C B 0.5 0.6915; es decir


£e 2L L.M2L
y se pide

J J
un 69.15% de la población de esta región está en pobreza.

b) Sea & ! ¤ el ingreso luego del plan del gobierno, donde c es el ingreso adicional. En cinco años, c será tal
que:

. & B 33.2 0.3 ⟺ 0.3 . ! ¤ B 33.2 .¥! B 33.2 ¤ ¦ . Xˆ! B Xˆ 33.2 ¤


¥Xˆ 33.2 ¤ ¦ 3 ¥Xˆ 33.2 ¤ ¦ 3
. §C B ¨ 0.3 ⇒ 0.525 ⇒ Xˆ 33.2 ¤ 2.475
1 1
⇒ 33.2 ¤ ; %.V^M 11.88 ⇒ ¤ 33.2 11.88 21.32 cientos de unidades monetarias.

19
3.4 Distribución de Poisson t ; ©
EST-103 ESTADISTICA Arturo Calderón G. 2015

Definición y Parámetro

Definición.
Sea X v.a. discreta, con rango R X = {0,1,2,3,L} . Sea λ > 0 una constante conocida. Diremos que X
tiene distribución de Poisson de parámetro λ , lo que se denotará X ~ P(x; λ ) , si su función de
probabilidad es:
e − λ λx
P( x; λ ) ≡ PX ( x) = x = 0,1,2,3,L
x!
Notación.
Como ya se dijo, la distribución se denotará P ( x; λ ) .

Parámetro:
El único parámetro es λ que determina la posición de la distribución y su forma: conforme λ crece la
gráfica se desplaza a la derecha y se va haciendo simétrica con un máximo alrededor de λ

.3 .14 .10

.12
.08
.10
.2
.06
P(X;2)

.08
P(X;10)

P(X;18)
.06
.04
.1
.04
.02
.02

0.0 0.00 0.00


0 4 8 12 16 20 24 0 4 8 12 16 20 24 0 4 8 12 16 20 24
X X X

λ=2 λ = 10 λ = 18

Observaciones:
(1) Recordemos que una definición alternativa de la función exponencial o una propiedad de ella
(aplicando desarrollo de Taylor-McLauren) es

Zk
e =∑ Z
que se cumple para todo número real z
k = 0 k!

e− λ λx
(2) Aplicando lo anterior a P( x; λ ) ≡ PX ( x) = x = 0,1,2,3,L :
x!
∞ ∞ ∞
e − λ λx λx
∑ P ( x; λ ) = ∑ x!
= e−λ ∑ x! = e−λ eλ = 1 . Es decir, P( x; λ ) es una función de
x =0 x =0 x =0
probabilidad.

Valores Esperados y Función Generatriz de Momentos.


E ( X ) = µ X = λ y V ( X ) = σ X2 = λ . Los esperados anteriores salen de M X (t ) , que es
M X (t ) = e λ ( e −1) t ∈ R
t

Veamos:
20
EST-103 ESTADISTICA Arturo Calderón G. 2015
∞ Zk
eZ = ∑
k =0 k !

λx ∞
λx (λ e t ) x
∞ }
M X (t ) = E ( e ) = ∑ e e tx − λ
= e ∑e
−λ
=e ∑ −λ
= e − λ e λe = e λ ( e −1)
t t
tX tx

x=0 x! x =0 x! x=0 x!
que se cumple para todo t real.

Orígenes
P( x; λ ) tiene dos orígenes, ambos relacionados, aunque uno de ellos es poco actual. La distribución surge
como aproximación a la distribución binomial (cuando n es grande y p tiende a 0) y también como
modelo de un proceso aleatorio.

Proposición 1 (Aproximación de la Binomial a la Poisson)


Sea una v.a. X ~ B( x;n,p) , sean n y p tales que n tiende a ∞ , p tiende a 0, de modo que el producto
np tiende a un valor fijo λ . Entonces se cumple que B(x;n,p) ≅ P( x; λ )

Nota:
Aunque se dice que la aproximación es válida si n es “grande” y p es “pequeño”, no hay regla fija (todo
depende del grado de aproximación que se desee); una muy usada es considerar que n es grande y p
pequeño si ocurre np < 5 .
Este uso de la distribución fue importante antiguamente, cuando no se tenía a mano calculadoras, pero sí
tablas de la función exponencial.

Proposición 2 (Proceso de Poisson)


Sea E un evento que se presenta en puntos aleatorios del tiempo (o del espacio), de modo que son
satisfechos los siguientes supuestos:

(1) Para todo intervalo de longitud dt suficientemente pequeña, la probabilidad de observar una vez E es
proporcional a dt , i.e.:
P( E ocurre una vez en [t , t + dt[ ) = wdt ∀ t real ( w > 0 )
(2) Para todo intervalo de longitud dt suficientemente pequeña, la probabilidad de observar más de una
vez E es nula i.e.: P ( E ocurre más de una vez en [t , t + dt[) = 0
(3) Intervalos disjuntos son independientes en relación a la ocurrencia de E .

Si t > 0 es un valor dado y definimos X = # de veces que ocurre E en el intervalo [0, t [ .

Entonces X tiene distribución de Poisson de parámetro λ = wt , esto es X ~ P( x; λ = wt )

Nota:
E[ X ] X
Como E ( X ) = wt , entonces w = = E[ ] , de modo que podemos considerar a w como el
t t
“Número promedio de veces que ocurre E por unidad de tiempo”.

El proceso descrito en el enunciado anterior, se conoce como “Proceso Aleatorio de Poisson” y aunque se
ha enunciado en el tiempo, puede presentarse en el espacio. Como ejemplos de procesos que se pueden
modelar con el de Poisson, tenemos: La llegada de aviones a un aeropuerto; la llegada de clientes a una
ventanilla en un banco; La presencia de partículas de polvo en el aire; La presencia de burbujas en una
superficie recién pulida o barnizada; etc. Es el modelo más simple de un conjunto mucho más general de
modelos que describen ingresos y salidas de elementos a un sistema (pagos y órdenes de pago, solicitudes
y prestaciones) en el tiempo.

21
EST-103 ESTADISTICA Arturo Calderón G. 2015
Ejemplo 16
Suponga que la cantidad de buques-tanque que llega a un puerto por día, se presenta de acuerdo a un
Proceso de Poisson, a una tasa de w=2 buques-tanque, en promedio, por día.
a) ¿Cuál es la probabilidad de que en un día, el número de buques-tanque que llega al puerto sea menor
de lo esperado?
b) El puerto sólo puede atender a 2 buques-tanque por día, y cualquier otro buque excedente, se envía a
un puerto vecino: ¿Qué porcentaje de los días, se enviarán buques al puerto vecino?
c) ¿Cuál sería la probabilidad de que Ud. llegue al puerto a medio día y encuentre que ya se llenó el
puerto?

Solución:
De las condiciones dadas, tenemos que la tasa de llegada es w = 2 . Sea t > 0 valor dado y definamos
E =Llegada de un buque-tanque al puerto. En este contexto, la v.a.
X = Número de buques tanque que llegan entre 0 y t tiene distribución de Poisson de parámetro
λ = wt = 2t . Entonces:

a) En este caso t = 1 y λ = wt = 2 , luego X ~ P( x; λ = wt = 2) y E ( X ) = 2 , así que la probabilidad


0 1
pedida es P( X < 2) = P( X ≤ 1) = PX (0) + PX (1) = e− 2 2 + e− 2 2 = 3e− 2 = 0.41
0! 1!
b) Nos piden P ( X > 2) = 1 − P ( X ≤ 2) y como P ( X ≤ 2) = PX (0) + PX (1) + PX ( 2) , sólo necesitamos calcular
22 −2 −2 −2
PX ( 2) = e− 2 = 2e − 2 . Por tanto P ( X ≤ 2 ) = 3e + 2 e = 5e = 0.68 y entonces
2!
P ( X > 2) = 1 − P ( X ≤ 2) = 0.32 : El 32% de los días se enviará buques al puerto vecino.
c) Si llegamos en t = 1 / 2 día, para que ya esté lleno el puerto, debe de haber ocurrido que en el
intervalo ]0,1 / 2] (o sea la primera mitad del día) llegaron dos o más buques tanque. En este caso por
1 1 1x
t= ⇒ X ~ P( x; λ = wt = 2 × = 1) ⇒ PX ( x) = e−1 x = 0,1,2,... y nos piden P ( X ≥ 2) ; por complemento:
2 2 x!
P ( X ≥ 2) = 1 − P ( X ≤ 1) = 1 − {PX (0) + PX (1)} = 1 − 2e −1 = 0.26

Ejemplo 17
Una empresa debe comprar una de dos máquinas A o B. En A el costo de operación por hora es 10 u.m. y

un proceso de Poisson, a tasas ª« 0.1 y ª¬ 0.12 por hora respectivamente, lo que se traduce en un
en B es 8 u.m., pero además, cada máquina requiere afinamientos que se necesitan aleatoriamente, según

costo adicional de la forma „ & 20& % , donde Y es el número de afinamientos por jornada de trabajo.
a) ¿Cuál máquina es recomendable para jornadas de 8 horas?
b) ¿A partir de qué duración de jornada de trabajo sería preferible la máquina A?

Solución:

„ -D D D'X ® „ &« 10D &« 20&« % , donde&« ~. -; ¯« ª« D 0.1D y †¥„ &« ¦ 10D
Con la máquina A, para un tiempo de operación de t horas:

† &« 20†¥&« % ¦ 10D 0.1D 20 0.1D 0.01D % , pues † &« ¯« , †¥&« % ¦ $,% #,% ¯«
¯« %.

„ -D D D'X ‰ „ &¬ 8D &¬ 20&¬ % , donde &¬ ~. -; ¯¬ ª¬ D 0.12D y †¥„ &¬ ¦ 8D


Análogamente con la máquina B, para un tiempo de operación de t horas:

† &¬ 20†¥&¬ % ¦ 8D 0.12D 20 0.12D 0.0144D % .

a) Para t = 8, basta evaluar †¥„ &« ¦ y †¥„ &¬ ¦ en t = 8: El menor costo esperado indica la máquina
más recomendable.

10D 0.1D 20 0.1D 0.01D % B 8D 0.12D 20 0.12D 0.0144D % . Sólo falta hallar el valor de
b) A es más conveniente si tiene un costo esperado de operación menor que B ⇔

t a partir del cual se cumple la desigualdad.


22
o ;°
EST-103 ESTADISTICA Arturo Calderón G. 2015
3.5 Distribución Exponencial

Origen como variable en un Proceso de Poisson


Si en un proceso de Poisson donde w es la tasa de ocurrencias de un evento de interés E por unidad de

función de densidad de T: g D
tiempo, definamos T =Tiempo que transcurre hasta que ocurre E por primera vez. Deseamos hallar la

(1) Es claro que RT = [0, ∞[ .


(2) Sea t valor dado (aunque arbitrario) de RT y sea GT (t ) = P(T ≤ t ) la distribución acumulativa de T ,
evaluada en t . Sabemos que en general g D 6g9 D , así que hallemos +g D primero:
³ ±² ´
±{
Como el evento (T ≤ t ) equivale a “En [0, t [ , E ocurre 1 o más veces”, si definimos X = # de
ocurrencias de E en [0, t [ , ya sabemos que X ∼ P( x; λ = wt ) .
Por tanto: GT (t ) = P(T ≤ t ) = P( X > 1) = 1 − P( X = 0) = 1 − e − wt y derivando tenemos:
g T (t ) = GT' (t ) = we − wt ⇒ g T (t ) = we − wt 0 < t es la función de densidad de T, que se conoce como
Distribución exponencial.

Definición y Parámetro

Definición
Sea X v.a.c. con rango RX = ]0, ∞[ y sea β > 0 una constante de valor dado. Diremos que X tiene
distribución exponencial de parámetro β si la función de densidad de X es:
f X ( x ) = β e − βx x > 0
Observación:

= cecx ⇒ ∫ cecx dx =ecx ; por tanto 6 D . !/D µK ¶; 2·{ 8 ¸ ; 2·{ ¹K


decx ´ ´
Recordemos que

1 ; 2·´ y en particular:
dx

∞ ∞ ∞
− βx 
∫ f X ( x)dx = ∫ βe − βx dx = − e = 1 , de modo que se verifica que Exp( x; β ) es función de densidad.
  0
0 0

Parámetro.
El único parámetro es β , que determina la gráfica de la distribución y escribiremos X ∼ Exp( x; β ) para
denotar el hecho que X tiene distribución exponencial.

Distribución Exponencial Distribución Exponencial Distribución Exponencial


y=exp(x,1) y=expon(x,2) y=expon(x,4)
2.0 2.0 5.0

4.5

4.0
1.5 1.5
3.5

3.0

1.0 1.0 2.5

2.0

1.5
0.5 0.5
1.0

0.5

0.0 0.0 0.0


0.748 1.495 2.243 2.990 0.748 1.495 2.243 2.990 0.748 1.495

β=1 β=2 β=4


23
EST-103 ESTADISTICA Arturo Calderón G. 2015

Valores Esperados y Función Generatriz de Momentos.


β
E( X ) = µ X = 1 / β y V ( X ) = σ X2 = 1 / β 2 , pues M X (t ) = ( ) t < β . Calculemos M X (t ) :
β −t
∞ ∞

 e − ( β −t ) x 
−( β −t ) x β
tX tx − βx
M X (t ) = E (e ) = ∫ e βe dx = β ∫ e dx = β −  = ( β − t ) si t < β .
0 0  ( β − t )  0
Derivando M X (t ) con respecto a t sucesivas veces y evaluando en t = 0 , se obtiene E ( X ) , E ( X 2 ) y de ahí
µ X y σ X2 .

Ejemplo 18
Si el ingreso empresarial en un país, es una v.a. X con distribución exponencial de parámetro β y se
dispone un tributo nuevo de 15% para los ingresos superiores al promedio poblacional ¿Qué % de la
población pagará el impuesto?

Solución:
En este caso, se nos pide hallar P( X > 1 / β ) ), donde X es el ingreso de una empresa y X ∼ Exp( x; β ) .

Integrando directamente obtenemos: P( X > 1 / β ) = ∫ βe dx = − e


− βx − βx
[ ]

1
β
= e −1 = 0.38
1
β

El 38% paga el impuesto.

Orígenes
Ya vimos que la distribución Exponencial aparece de modo muy natural en un proceso de Poisson, como
la distribución de un “Tiempo de Espera”, aunque este no es el único origen de la distribución.

Proposición
Si en un proceso de Poisson, definimos T := Tiempo que transcurre hasta que ocurre E por primera vez,
entonces T ∼ Exp(t; β = w) , donde w es la tasa de ocurrencias de E por unidad.

Observaciones:
(1) Como el punto cero es arbitrario, también podemos ver a T como el tiempo que transcurre entre dos
ocurrencias sucesivas de E.
(2) Por la deducción hecha antes, se entiende que la distribución exponencial sea muy usada como
modelo para los tiempos de espera o tiempos de vida. Generalizando la distribución exponencial
obtenemos la llamada Distribución Gamma.

Ejemplo 19
Las variaciones en el precio de una acción se presentan siguiendo un Proceso de Poisson a una tasa de ω
= 5 variaciones por día (asuma día laborable de 8 horas)
a) Si Ud. se pone a esperar todo el tiempo necesario hasta que ocurra la primera variación: calcule la
probabilidad de que Ud. deba esperar más de 4 horas.
b) Si Ud. se pone a esperar todo el tiempo necesario hasta que ocurra la primera variación. Calcule la
probabilidad de que Ud. deba esperar más del doble del tiempo esperado.

Solución:
Si definimos el evento E = “Varía el precio del bien”, ω = 5 variaciones por día:

b~† s D; ¶ ª 5 , y se pregunta por . b 0.5 µK.M 5; 2M´ 8D Ÿ ; 2M´ •º ; 2%.M 0.082


º
a) Si definimos T = Tiempo en días hasta que ocurre la primera variación, entonces:
K.M

24
EST-103 ESTADISTICA Arturo Calderón G. 2015

b~† s D; ¶ ª 5 , † b 1/¶ 0.2 se pregunta por .¥b 2† b ¦ . b 0.4


b) Si definimos T = Tiempo en días hasta que ocurre la primera variación, entonces:

Ÿ ; •K.V ;
2M´ º 2%
0.14

3.6 Distribución Gamma

Función matemática Gamma ¼ ; ½, °


Denotada Γ( p) , la función matemática Gamma (evaluada en p), se define mediante:

Γ( p ) = ∫ y p−1e − y dy p > 0
0
Se puede probar que la integral anterior existe para todo p positivo.

Propiedades
(1) Γ(p) = (p-1) Γ(p-1) para p > 1. (Se demuestra usando “integración por partes”)
(2) Γ(k) = (k-1)! si k es entero positivo. (Aplicando (1))
(3) Γ( ) =
1
π (aplicando cambio de variable y sustitución trigonométrica)
2
∞ ∞ ∞
1 y p −1e − y y p −1e − y
Nota: Como Γ( p ) = ∫ y p −1e − y dy ⇒ 1 = p −1 − y

Γ( p ) ∫0 ∫0 Γ( p)
y e dy ⇒ dy = 1 , es decir f ( y ) =
0
Γ( p )
puede considerarse una función de densidad.

Función de Densidad Gamma y Parámetros


Definición
Sea X v.a.c. con R X = [0, ∞[ y sean α > 0 y β > 0 , constantes de valores dados. Diremos que X tiene
distribución Gamma, de parámetros α y β , lo que se denotará X ∼ Γ( x;α , β ) , si su función de densidad
es:
x α −1 e − x / β
f X ( x) = α x>0
β Γ(α )
Parámetros
Los parámetros son α y β . La gráfica es asimétrica a la derecha, pero conforme crece α , la asimetría se
atenúa:

Distribución Gamma
Distribución Gamma Distribución Gamma
y=Gamma(x,2,4) y=gamma(x,16,2)
y=gamma(x,10,2)
0.50 0.30 0.30

0.25 0.25

0.20 0.20

0.25 0.15 0.15

0.10 0.10

0.05 0.05

0.00
0.0 2.5 5.0 7.5 10.0 0.00 0.00
0.0 2.5 5.0 7.5 10.0 0.0 2.5 5.0 7.5 10.0 12.5 15.0 17.5 20.0

α=2,β =2 α=10,β =2 α=16,β =2

25
EST-103 ESTADISTICA Arturo Calderón G. 2015
Valores Esperados y Función Generatriz de Momentos.
1
E ( X ) = µ X = αβ y V ( X ) = σ X2 = αβ 2 , que se deducen de M X (t ) = (1 − β t ) −α si t <
α
Observaciones:
(1) La distribución exponencial es un caso particular de la Gamma.
(2) Tanto la distribución Exponencial como la Gamma se usan como modelos teóricos para
distribuciones asimétricas como Ingresos, Tiempos de Vida, Edades, etc.

Origen
La Gamma se presenta de modo natural en un proceso de Poisson, cuando medimos el tiempo entre varias
ocurrencias del evento E. Formalmente:

Proposición.
En un proceso de Poisson, sea Tk el tiempo que transcurre hasta que ocurre E por k -ésima vez.
Entonces Tk tiene distribución Gamma de parámetros α = k y β = 1 / w

Demostración:
La demostración es similar a la del origen de la distribución exponencial:
Lo principal es darse cuenta que los eventos (Tk ≤ t ) y ( X ≥ k ) , donde X es el número de ocurrencias
de E en el intervalo ]0, t ] , son equivalentes y por tanto:
k −1
−(ωt ) (ωt ) x
GTK (t ) = P[Tk ≤ t ] = P( X ≥ k ) = 1 − P( X ≤ k − 1) = 1 − ∑e x!
x =0
Derivando con respecto a t, se obtiene:
d k −1
d (ωt ) x  k −1
 xω (ωt ) x −1 (ωt ) x 
GTK (t ) = gTK (t ) = −∑  e− (ωt )  = −∑  e − (ωt ) + ( −ω )e − (ωt ) =
dt x = 0 dt  x!  x =0  x! x! 
k −1
 − (ωt ) (ωt ) x  k −1  − (ωt ) xω (ωt ) x −1  e− (ωt ) (ωt ) k −1
∑  ωe

x=0 
 −∑ e 
x!  x = 0  x!  = ω (k − 1)! ⇒


1 1
− t /( ) − t /( )
− (ωt ) k k −1 − (ωt )
e (ωt )k −1
(ω ) t e k −1
t e ω
t e ω k −1
gTK (t ) = ω = = = t > 0 , que corresponde a una distri-
(k − 1)! (k − 1)! 1 k 1 k
( ) (k − 1)! ( ) Γ(k )
ω ω
α −1 − t / β
bución Gamma f T (t ) = t α e t > 0 de parámetros α = k y β = 1 / w
β Γ(α )
Ejemplo 20
El número de unidades de transporte que circula por una avenida de la ciudad se presenta a razón de W
vehículos/cuadra aproximadamente. Un economista de transporte está formulando un modelo al respecto
y en un muestreo, encuentra sobre 10 cuadras consecutivas, un total de 50 unidades.

a) ¿Cuál es el valor de w?
b) ¿Con qué probabilidad encontraríamos que entre dos unidades de transporte median menos de 0.25
cuadras?
c) Un micro entra a la avenida y le informan que dos unidades de la misma línea le preceden. ¿Qué
distancia esperaría que medie entre el micro entrante y el más cercano de los que lo preceden? ¿Del
más alejado? ¿Con qué probabilidad serán las distancias mayores que lo esperado? Mida la distancia
en cuadras y asuma que el número de vehículos de esta línea en la avenida tiene una tasa igual a la
cuarta parte de la general

26
EST-103 ESTADISTICA Arturo Calderón G. 2015
Solución:
a) Si X = # de vehículos en t = 10 cuadras (tomamos como unidad la cuadra), entonces
E[ X ] X
X ~ P ( x; λ = wt = 10w) . Sabemos que E ( X ) = wt y w = = E[ ] que define a w como el
t t
“Número promedio de veces que ocurre E por unidad” y de los datos tenemos
10 w = 50 ⇒ w = 5 vehículos / cuadra .
b) Sea T=Distancia entre dos vehículos, entonces T ~ Exp(t; β = 5) de acuerdo a la proposición
0.25
demostrada líneas arriba. Luego P(T ≤ 0.25) = ∫ 5e
5t
dt = 1 − e −1.25 = 1 − 0.29 = 0.71
0
c) En este caso la tasa w = 5 / 4 = 1.25 y podemos aplicar sucesivamente las proposiciones relativas al
origen de las distribuciones exponencial y gamma.
Si definimos T1 = Distancia entre el micro que entra a la avenida y el más cercano de los que lo
preceden, podemos ver que T1 ~ Exp ( t; β = 5 / 4) y además E (T1 ) = 1 / β = 4 / 5 = 0.8
Análogamente si T2 = Distancia hasta el micro más alejado, podemos ver que
T2 ~ Γ(t ;α = 2, β = 4 / 5) (no confundir este parámetro β con el de la exponencial). De lo anterior
resulta E (T2 ) = αβ = 8 / 5 = 1.6
∞ ∞
te − t /( 0.8)
Finalmente P(T1 > 0.8) = ∫ 1.25e −1.25t dt = e −1 = 0.37 y P (T2 > 1.6) = ∫ dt =0.41
0.8 1.6 (0.8) 2

3.7 Distribución Geométrica ¾ ; o y Distribución Binomial Negativa o de Pascal

Definición y Parámetros
Definición.
Sea X v.a. discreta, con rango R X = {1,2,L} . Sean p ∈]0,1[ y q = 1 − p de valores dados. Diremos que
X tiene distribución geométrica de parámetro p , si su función de probabilidad es
PX ( x ) = P( X = x ) = pq x −1 x = 1,2,3,L

Notación.
El que X distribución geométrica se denota escribiendo X ∼ G( x; p)

Parámetro.
El único parámetro es p .

Observación:
∞ ∞ ∞ ∞
∑ G ( x; p) =∑ pq ∑q ∑ q x = pq −1(1 − q ) = 1 − q = p = 1 . Es decir, en efecto, G( x; p)
x −1 x −1 −1 q p p
= p = pq
x =1 x =1 x =1 x =1
es una función de probabilidad.

Valores Esperados y Función Generatriz de Momentos


Se puede verificar que:
E ( X ) = µ X = 1 / p y V ( X ) = σ X2 = q / p 2 . Lo anterior se obtiene a partir de la función generatriz
pet
respectiva, que es M X (t ) = t < − ln q . En efecto:
1 − qet
∞ ∞
qet pet
M X (t ) = E[etX ] =
x =1
∑ etx pq x −1 = pq−1 ∑ (et q) x = pq−1(
x =1 1 − qet
) = (
1 − qet
) si tomamos t < − ln q .

Como en la Binomial, en la Geométrica la gráfica depende de p :

27
EST-103 ESTADISTICA Arturo Calderón G. 2015

0.8 0.8
0.8

0.6 0.6
0.6

G(x;p=0.5)
G(x;p=0.2)

G(x;p=0.8)
0.4 0.4
0.4

0.2 0.2
0.2

0.0 0.0
1 2 3 4 5 6 7 8 9 10 0.0
1 2 3 4 5 6 7 8 9 10 1 2 3 4 5 6 7 8 9 10
X X
X
p = 0.2 p = 0.5 p = 0.8

Origen.
La Distribución Geométrica aparece como resultado de contar cuántas veces se debe repetir un
experimento hasta lograr que ocurra un determinado suceso A por primera vez.

Proposición
Sea A un evento con probabilidad p = P( A) > 0 . Supongamos que el experimento ε asociado al evento,
se repite sucesivas veces hasta que ocurra A por primera vez. Sea X := # total de repeticiones de ε.
Entonces X ∼ G( x; p) .

Demostración
Es claro que R X = {1,2,L} . Sea x un elemento dado de R X :
( X = x) ocurre si y sólo si en las ( x − 1) primeras repeticiones ocurre AC y en
la repetición x -ésima ocurre A .

Sean los eventos Ai = “En la repetición i ocurre A ”, i=1,2,3,... entonces tenemos:


( x −1) veces x −1) veces
6444474444 8 6(4 74 8
P( X = x ) = P( A1 ∩ A2 ∩ A3 ... ∩ Ax −1 ∩ Ax ) = q.q.q K.q p = q x −1 p que se obtiene aplicando la regla del
C C C C

producto. Luego X ∼ G( x; p) .

Observación: (Distribución de Pascal o Binomial Negativa)


Es una generalización de la Geométrica, que surge cuando se repite el experimento ε hasta que ocurre A
por r -ésima vez, donde r es un entero positivo de valor fijo.

En este contexto, si X = # total de repeticiones, la f. de probabilidad de X es:


PX ( x ) = P ( X = x ) = C rx−−11 p r q x − r x = r , r + 1, r + 2,L
y sus valores esperados son E ( X ) = µ X = r / p y V ( X ) = σ X2 = rq / p 2 .

Ejemplo 21
Un consumidor está en un mercado con infinitos productores del mismo bien que le ofrecen el producto a
similar precio pero con distintas modalidades de propaganda y trato al cliente, de modo que la elección
del consumidor no es inmediata sino aleatoria, con una probabilidad p de que se decida por el productor
al cual está consultando sobre el bien. Sea X el número de productores visitados por el consumidor:
¿Cuántas consultas se espera que haga esta persona? ¿Con qué probabilidad hará más consultas de lo
esperado?

28
EST-103 ESTADISTICA Arturo Calderón G. 2015
Solución:
Sea ε el experimento “El consumidor consulta acerca del bien con un productor del mercado” y sea A el
evento “El consumidor decide comprar el producto al hacer la consulta con el productor”. Por dato,
p = P( A) > 0 es la misma en cualquier consulta y así tenemos que X puede verse como # total de repeti-
ciones de ε hasta que ocurre A por primera vez, y se ve que la v.a. se ajusta al modelo Geométrico, esto
es X ∼ G( x; p) sería un modelo de datos apropiado.
En el contexto anterior tenemos que E ( X ) = µ X = 1 / p y por tanto:
1
1 1 [| |] 1
P( X > E ( X )) = P( X > µ X ) = P( X > ) = P ( X ≥ [| |] + 1) = q p , donde [| |] denota el máximo
p p p
1 1
entero no mayor que . Por ejemplo, si p = 0.3 , entonces = 3.3 y así
p p
1
P( X > ) = P( X > 3.3) = P( X ≥ 4) = 0.73 = 0.343
p

Ejemplo 22
Un agente de AFP visita sucesivos potenciales clientes para afiliarlos a su AFP. En cada visita tiene una

a) Si X = Número de visitas hasta lograr el primer afiliado, halle . ! y luego 6 . !/


probabilidad p de convencer al entrevistado de que se afilie.

y. . ! .
b) Resuelva a) si X = Número de visitas hasta lograr el segundo afiliado.

a) œ 1,2,3, …. y si tomamos un valor fijo en RX :


Solución:

6 . !/ 1 . ! 1 . "En las x primeras visitas no afilia a nadie" .

. "En las x primeras visitas no afilia a nadie"


ÃÄ 3Åd£d3 }e |d•d´3 J ÃÄ 3Åd£d3 }e |d•d´3 % ÃÄ 3Åd£d3 }e |d•d´3 {
¿1ÀÁÀs i ¿1ÀÁÀs i …i ¿1ÀÁÀs 1 s ⇒

6 . !/ 1 . ! 1 1 s 1,2,3 ….

. . ! 6 6 1 Ÿ1 1 s { • Ÿ1 1 s {2J •
Finalmente:

1 s {2J
1 s {
1 s {2J
¥1 1 s ¦ s 1 s {2J

La función de probabilidad de X es . s 1 s {2J


1,23, … que corresponde a una
.

distribución geométrica X ∼ G( x; p)

b) œ 2,3,4 …. pues ahora sigue visitando hasta lograr un segundo afiliado, o sea, lo mínimo que debe
visitar es a dos clientes potenciales. Este es un caso donde calcular de frente .
calcular 6
es más sencillo que

. . ! . ® ∩ ‰ , donde A = “En las (x-1) primeras visitas logra una afiliación” y B= “En
y luego restar:

. ®∩‰ . ‰|® . ® s i „J{2J s 1 s {2% s% „J{2J 1 s {2% y


la visita x afilia al cliente”. Entonces:

. s% „J{2J 1 s {2% 2,3,4, ….es la función de probabilidad de X

29
3.8 Distribución Hipergeométrica Ç ; , ,n
EST-103 ESTADISTICA Arturo Calderón G. 2015

Definición y Parámetros
Definición
Sea X v.a. discreta, con rango R X = {1,2,L , n} . Sean N y M enteros positivos de valores dados, tales
que n < M < N . Diremos que X tiene Distribución Hipergeométrica de parámetros N , M y n si su
función de probabilidad es:
C xM C nN−−xM
PX ( x ) = P ( X = x ) = x = 1,2,3,..., n
C nN
Notación.
Denotaremos el hecho de tener X distribución Hipergeométrica escribiendo X ∼ H ( x; N , M , n) . Además
asumimos que n < M y n < N − M .

Parámetros.
Los parámetros son N , M y n .

Valores Esperados y Función Generatriz de Momentos.


M M N −M N −n
E( X ) = µ X = n y V ( X ) = σ X2 = n( )( )( ) . En cuanto a M X (t ) , existe pero su expresión
N N N N −1
es muy complicada y resulta poco útil.

Origen
Es la distribución natural del muestreo simple de poblaciones finitas, cuando mediante una muestra
aleatoria de casos, pretendemos inferir el valor de alguna constante poblacional (una proporción o una
media). Los modelos más complejos de encuestas por muestreo usan, como unidad de base, este modelo.

Proposición
Sea una población compuesta de N elementos, M de los cuales poseen una cierta característica A . Si se
toma una muestra al azar y sin reemplazo de n de los N elementos, y se cuenta el número X de casos
en la muestra, que tienen la característica A , entonces X es variable aleatoria con distribución
H ( x; N , M , n ) .

Demostración
Se ve que R X = {0,1,2,L, n} (asumiendo que n < M y n < N − M , pues de lo contrario, X no podría ser
0 o n ).

Sea x un elemento cualquiera de R X , entonces ( X = x) ocurre si y sólo si en la muestra x elementos


poseen A y n − x poseen AC . Apliquemos la definición clásica de probabilidad:

n ( S ) = C nN (pues una muestra equivale a subconjunto). Por otra parte:


n ( X = x ) = C xM C nN−−xM (pues en la muestra, debemos tener x de los M elementos que tienen A y
C xM CnN−−xM
n − x de los N − M que tienen A C ). Luego es inmediato que P( X = x) = , con lo que termina
CnN
nuestra deducción.

Observación
Si el muestreo es con reemplazo, cambian tanto el numerador como el denominador, y la distribución de
X ya no es hipergeométrica, sino binomial B( x;n,p = M / N ) . Es por esto que si n es pequeña en
relación a N (y M ) se puede aproximar H ( x; N , M , n ) mediante B( x;n,p = M / N ) . Esta aproximación
30
EST-103 ESTADISTICA Arturo Calderón G. 2015
suele usarse cuando n < 0.1N . En cualquier caso, la gráfica de H ( x; N , M , n ) es similar a la de la
distribución binomial.

Ejemplo 23
En una encuesta en el sector informal, la población consta de N empresas, de las cuales M de ellas son
Unipersonales. Se toma una muestra aleatoria de n empresas, y se cuenta el número X de empresas
unipersonales en la muestra, optándose por aproximar la proporción M/N poblacional y desconocida,
mediante la proporción muestral X/n, denotada π (i.e. π:=X/n). Asumiendo muestreo sin reposición,
calcule el valor esperado de π.

Solución:
Es claro que X se ajusta bien al modelo hipergeométrico, i.e. X ∼ H ( x; N , M , n) y por tanto
X 1 1 M M
E (π ) = E ( ) = E ( X ) = × n = . Es decir, aunque la proporción π variará de muestra en
n n n N N
M
muestra, la tendencia es a coincidir con la verdadera proporción poblacional .
N

3.9 Distribución Uniforme È ; ½, °

Definición y Parámetros
Definición
Sea X v.a. continua, con rango RX = [α , β ] . Diremos que X tiene distribución uniforme en [α , β ] , que
1
se denota X ~ U ( x;α , β ) si su f. de densidad es f X ( x ) = U ( x;α;α) = si α ≤ x ≤ β
β−α
Parámetros. Los parámetros son α y β

Valores Esperados y Función Generatriz de Momentos.


Aplicando la definición de valor esperado se obtiene que
µ = µ X = (α + β ) / 2 y σ 2 = σ X2 = ( β − α )2 / 12
En cuanto a M X (t ) , aunque existe M X (t ) no es diferenciable en t = 0 y por lo mismo no es de mayor
interés.

α=0,β
β =1 α=0,β
β =2 α=0,β
β =5

Origen
Tiene un origen relativamente simple, en el contexto de probabilidad geométrica, cuando se toma un
punto al azar de un intervalo de longitud finita.

31
EST-103 ESTADISTICA Arturo Calderón G. 2015
Proposición
Sea [α , β ] un intervalo de extremos dados. Si se toma un punto al azar del intervalo y se define
X = Valor obtenido, entonces X ~ U ( x;α , β ) .

Demostración
Es claro que RX = [α , β ] . Sea ahora x ∈ RX , entonces aplicando probabilidad geométrica tenemos:
x −α
FX ( x ) = P ( X ≤ x ) =
β −α
Derivando FX (x ) con respecto a x se obtiene el resultado.

Observación
Si el intervalo es abierto, el resultado no cambia, salvo que el rango de X es RX = ]α , β [

Ejemplo 24
Sea X v.a.c. tal que fX(x) > 0 para todo x y sea Y = FX(X). Demuestre que Y ∼ U(y;0,1).

Solución:
Es claro que RY = ]0,1[. Sea GY(y) la distribución acumulativa de Y. Por definición GY(y) = P[Y ≤ y] =
P[FX(X)< y].

Pero como X es continua FX es no decreciente y siendo fX(x)> 0, podemos decir que FX es estrictamente
creciente.

Luego, existe la inversa FX-1 y aplicándola dentro de GY(y):

GY(y)=P[FX(X)< y] = P[X < Fx-1(y)] = FX [FX-1(y)] = y ∀ y ∈ ]0,1[

Es decir gY(y)= 1 0 < y < 1 o equivalentemente Y ∼ U(y;0,1)

Observación
El ejercicio muestra que en cierto sentido, una variable aleatoria X continua puede transformarse en una
variable con distribución uniforme en el intervalo ]0,1[, de modo que para cada x ∈ RX existe una
correspondiente y ∈ ]0,1[

La propiedad anterior usar la distribución uniforme en la simulación de variables en modelos


econométricos. Por ejemplo, si X ∼ Exp (x;1), entonces Y=0.7 equivale 1–e-X = 0.7 de donde obtenemos
que X=1.204.

32

You might also like