You are on page 1of 22

DISTRIBUCIONES DE PROBABILIDAD DE VARIABLES ALEATORIAS

A. VARIABLES ALEATORIAS

En general, cada resultado de un experimento puede ser asociado con un número que es
especificado por una regla de asociación. Por ejemplo, el número de artículos defectuosos
de una partida de 100 en una semana. Esta regla de asociación es llamada una variable
aleatoria (v.a.); una variable ya que valores numéricos diferentes son posibles y aleatoria,
pues hay muchas fuentes de variación; materia prima, maquinarias, personas, el ambiente,
etc y no sabemos con certeza cuál o cuáles la afectan.

Definición: Una variable aleatoria (va) es una función que asocia a cada w   un número
real.
X:  IR
Significa que x es el número asociado
w
al resultado w 
X(w) = x
por la función X

El conjunto de todos los valores que toma la variable aleatoria es llamada recorrido de la
variable aleatoria y se denota por R X , R X = x  IR: x = X (w), w   

Notación: Las variables aleatorias se escriben con letras mayúsculas como X, Y, X 1, X2,…y
los valores de su recorrido por letras minúsculas como x, y, z etc.

Sea X una variable aleatoria definida en el espacio muestral  y sea R X el espacio de valores
de X. R X Puede ser considerado como otro espacio muestral, luego si A  R X entonces
A así definido es un evento.
Definición: Sea A  R X y sea B = w   / X (w)  A  , B consta de todos los
resultados en  para los cuales X (w)  A. En este caso, decimos que A y B son eventos
equivalentes y P(A) = P(B)

Hay dos tipos de variables aleatorias; discretas y continuas:


Una Variable Aleatoria es Discreta si su recorrido es un conjunto discreto de números (finito
o numerable), es decir, sus elementos pueden ser listados de manera que hay un primer
elemento, un segundo elemento, .., etc, en la lista.

Una Variable Aleatoria es continua si no es discreta o si su recorrido es un conjunto continuo


de números reales, es decir, un intervalo de IR.

Definición: Dada una variable aleatoria discreta (vad) con recorrido R X , existe una función
f, llamada función de probabilidad que asigna a cada x  R X un número f(x) = P(X = x),
probabilidad de que la vad X= x, así
f : RX IR
x f ( x)  P ( X  x)

1
La que debe satisfacer las siguientes propiedades:
a) f(x) > 0 ,  x  R X ,  x  IR b) 
xRx
f (x) = 1

y f (x) = P (X=x) = P( w : X (w) = x) = P(X (w) = x)

Definición: Dada una variable aleatoria continua (vac) con recorrido R X , existe una función
f, llamada función de probabilidad que asigna a un intervalo I  R X un número
f(x) = P(x  I), probabilidad de que la vac X este dentro de I.
f : RX IR
x f(x) = P(x  I)

La que debe satisfacer las siguientes propiedades:


a) f(x) =  0 ;  x  IR b) 

f ( x ) dx  1

Además, Si I  R X entonces P(I) = P (x  I) = ∫ 𝑓(𝑥)𝑑𝑥


b

En particular, para cualquier números a y b: P(a X  b)= a


f(x)dx

También si X es vac entonces P(a X  b) = P(a<X  b) = P(a X < b) = P(a< X < b)

Nota:
1) La función de probabilidad de una vad se llama función de cuantía y la función de
probabilidad de una vac se llama función de densidad.

2) Al conjunto de todos los pares (x, f (x))  x  R X , se le llama distribución de


probabilidades de la variable aleatoria X.

Definición: La Función de Distribución de una v.a. X denotada por FX (x) , es una función
definida sobre los números reales, tal que: FX ( x )  P ( X  x )

Si X es va discreta con recorrido R X y función de cuantía f X (x) entonces:


x
FX (x) =  f(t ) Si X es va continua con f.d.p. f(x) entonces: FX (x) =  f (t ) dt
tx 
El dominio de definición para FX (x) es toda la recta real.
Como por definición FX (x) es una probabilidad, debemos tener 0  FX (t )  1,  t

Probabilidad de intervalos:
Si FX(x) es continua en X = a no hay salto en este punto y luego P(X = a) = 0.
En resumen, podemos calcular todas las probabilidades referentes a la v.a. X si conocemos
su función de distribución.

2
P(a < X  b) = F X (b) - FX (a )
P( X  a ) = F X ( a  ) - F X ( a  )
P(a  X b) = F X (b) - FX (a ) + P( X  a )
P(a  X< b) = F X (b) - FX (a ) + P( X  a ) - P( X  b )
P(a < X < b) = F X (b) - FX (a ) - P( X  b )

Propiedades de la función distribución:


La función de distribución debe satisfacer las siguientes propiedades:

i) 0  FX (t )  1 t  

ii) lim FX (t )  0 y lim FX (t )  1


t   t  

iii) FX (a)  FX (b) a  b

iv) lim FX (t  h)  FX (t ) t , h > 0


h 0

Además, dada la función de distribución podemos obtener la función de probabilidad:

1.- Si X es vad entonces f(a) = P( X  a ) = F X ( a  ) - F X ( a  )

d
2.- Si X es vac entonces f X ( x )  FX ( x)
dx
Observación: Sabemos que el percentil o cuantil k-ésimo de una distribución con k=1,2, …,
99, es un valor xk que verifica

𝑃(𝑋 ≤ 𝑥 ) = y 𝑃(𝑋 ≥ 𝑥 ) = 1 −

Luego a partir de la función de distribución obtenemos directamente el percentil k-ésimo


resolviendo la ecuación FX ( xk )  100
k

Por último, la gráfica de una función de distribución se llama Ojiva y su forma depende de
que la variable aleatoria sea discreta o continua.

Ojiva caso discreto Ojiva caso continuo

3
B. Medidas Resumen, Valor esperado

Los términos esperanza, valor esperado, valor promedio o valor medio corresponden al
mismo concepto. El valor esperado se usa como la medida de centro de una distribución de
probabilidad.

Definición: Sea X una v.a. y sea H (x) una función de la v.a. X (H(x) es una v.a.), entonces
el valor esperado de H(x) se define y denota por:
⎧ 𝐻(𝑋)𝑓(𝑥) 𝑋 𝑒𝑠 𝑢𝑛𝑎 𝑣𝑎𝑑
⎪ ∈
𝐸[𝐻(𝑋)] =
⎨ 𝐻(𝑋)𝑓(𝑥)𝑑𝑥 𝑋 𝑒𝑠 𝑢𝑛𝑎 𝑣𝑎𝑐

Observación:
Si la serie o integral que define a la esperanza de H(x) no son absolutamente convergentes
diremos que la esperanza no existe.
Si H (X) = X hallamos la esperanza de X denotada por  X o simplemente  y calculada por:

∑ ∈ 𝑋𝑓(𝑥) 𝑋 𝑒𝑠 𝑢𝑛𝑎 𝑣𝑎𝑑


𝐸[𝑋] =
∫ 𝑋𝑓(𝑥)𝑑𝑥 𝑋 𝑒𝑠 𝑢𝑛𝑎 𝑣𝑎𝑐

Propiedades de la esperanza:
Consideremos la v.a X y H (x) una función de X y c una constante, entonces:
a) Si H(X) = c entonces E(c) = c
b) Si H(X) = cX entonces E(cX)= cE(X)
c) Si E(h(X)+g(X)) = E(h(X)) +E(g(X))
d) Si H(X) = X -  desvío de la variable respecto de la media entonces E[X -  ] = 0
e) Si H(X)=(X - )2 = (X – E(X)) 2 entonces: E(X - )2 se conoce con el nombre de
varianza de la variable aleatoria X y se denota por V(x) o  X2 o simplemente por  :

V(X) = 2x = 2 = E(X -)2

∑ ∈ (𝑋 − 𝜇) 𝑓(𝑥) 𝑋 𝑒𝑠 𝑢𝑛𝑎 𝑣𝑎𝑑


𝑉[𝑋] =
∫ (𝑋 − 𝜇) 𝑓(𝑥)𝑑𝑥 𝑋 𝑒𝑠 𝑢𝑛𝑎 𝑣𝑎𝑐

La forma de calcular la varianza es: 𝑉(𝑋) = 𝐸(𝑋 ) − 𝜇


La raíz cuadrada positiva de la varianza es llamada desviación estándar o desviación típica
x = V ( X )
Por lo tanto, la varianza con la desviación estándar dan una medida de variabilidad de los
valores de la v.a. con respecto al valor promedio, notemos que por definición: V(X)  0
Usando la definición. Verificar las siguientes propiedades: Si c es una constante
a) V (c) = 0 b) V ( cX ) = c2V(X ) c) V( c + X ) = V (X )

4
Definición: Dada una v.a. X, el k-ésimo momento poblacional (alrededor del origen de X)
que denotaremos por k se define por: 𝜇 = 𝐸(𝑋 ) para k = 1,2,3,…

Definición: La función generadora de momentos de una v.a. X, denotada por M X ( t ) , se


define por: Mx(t) = Ee tx 

Cuando existe, esta esperanza depende de la elección de t,  t  < h, h  IR y así es una


función de t.
Para t = 0, siempre existe Mx(0) = 1, pero para otros valores de t puede o no existir
dependiendo de la distribución de la v.a. X
  e t x  f X ( x) Si X es v.a.d .
 x
M X (t )  E (e t X )   
  e  f X ( x)dx Si X
tx
es v.a.c
 
Note que
dk dk
M X ( t ) = E X e   k M X (0) = 𝜇 = 𝐸(𝑋 )
k tx
dtk dt
Teorema: Sea X una variable aleatoria y sean a y b constantes, entonces
i) M a  X (t )  e a t  M X (t)
ii) M b  X ( t )  M X (b t )
iii) M a  b  X ( t )  e a t  M X ( bt )

Actividad 1. Una firma vendedora de refrigeradores ofrece modelos de 14, 16 y 19 pies


cúbicos de capacidad. Sea X la capacidad solicitada por un cliente que adquiere un
refrigerador. De acuerdo a información histórica, el modelo probabilístico asignado a la
variable aleatoria X es:
X 14 16 19
P(X=x) 0,2 0,5 0,3

a) Encuentre la función generadora de momentos para variable aleatoria X.


Definiendo la v.a. discreta, X capacidad solicitada por un cliente que adquiere un
refrigerador.
La f.g.m está dado por:
𝑀 (𝑡) = ∑ ∈ 𝑒 𝑓(𝑋) = 0,2𝑒 + 0,5𝑒 + 0,3𝑒

b) Usando el resultado obtenido en la letra (a), encuentre e interprete la media. Proporcione


la varianza.
Derivando
𝑀′ (𝑡) = 0,2 ∙ 14𝑒 + 0,5 ∙ 16𝑒 + 0,3 ∙ 19𝑒

𝐸(𝑋) = 𝑀′ (0) = 0,2 ∙ 14𝑒 + 0,5 ∙ 16𝑒 + 0,3 ∙ 19𝑒 = 16,5


Se espera que un cliente adquiera un refrigerador de 16,5 pies cúbicos.

5
Derivando nuevamente:
𝑀′′ (𝑡) = 0,2 ∙ 14 𝑒 + 0,5 ∙ 16 𝑒 + 0,3 ∙ 19 𝑒

𝐸(𝑋 ) = 𝑀′′ (0) = 0,2 ∙ 14 𝑒 + 0,5 ∙ 16 𝑒 + 0,3 ∙ 19 𝑒 = 275,5


Así, 𝜎 = 275,5 - 16,52 = 3,25

Actividad 2. Suponga que los ingresos mensuales X de una compañía de seguros, en miles
de dólares tiene función de densidad de probabilidad dada por:
2
𝑥 𝑠𝑖 1 ≤ 𝑥 ≤ 2
𝑓(𝑥) = 3
0 𝑒. 𝑜. 𝑐.
a) Obtenga la función de distribución acumulada de X y a partir de ella determine la
probabilidad de que el ingreso supere los US$1500.
Definiendo la v. a. continua, X los ingresos mensuales de una compañía de seguros (miles
de dólares)
𝐹 (𝑡) = 𝑃(𝑋 ≤ 𝑡)
Si 𝑡 < 1 entonces 𝐹 (𝑡) = 0
Si 𝑡 > 2 entonces 𝐹 (𝑡) = 1
Sea 1 ≤ 𝑡 ≤ 2 entonces 𝐹 (𝑡) = ∫ 0𝑑𝑥 + ∫ 𝑥𝑑𝑥 = −
Así, la función de distribución está dada por
0 𝑠𝑖 𝑡 < 1
𝐹 (𝑡) = − 𝑠𝑖 1 ≤ 𝑡 ≤ 2
1 𝑠𝑖 𝑡 > 2
1,5 1
𝑃(𝑋 > 1,5) = 1 − 𝐹 (1,5) = 1 − − = 0,5833
3 3

Hay un 58,33% de probabilidad de que el ingreso supere los US$1500.

b) Si la Utilidad se puede modelar por la función U(X) = 7,45X - 2,75 en miles de dólares,
calcule e interprete la utilidad esperada.
𝐸(𝑋) = ∫ 𝑥 ∙ 𝑥 𝑑𝑥 = = 1,556

𝐸 𝑈(𝑋) = 7,45𝐸(𝑋) − 2,75 = 7,45 ∙ 1,556 − 2,75 = 8,8422


Por tanto, La utilidad esperada es de 8.842,200 dólares.
C. DISTRIBUCIONES DE PROBABILIDADES, CASO VARIABLE ALEATORIA DISCRETA

Introducción: Uno de los experimentos más básicos de vad es el que se conoce con el
nombre de proceso o ensayo de Bernoulli y que consiste en estudiar el comportamiento o
distribución de la ocurrencia de un determinado fenómeno o evento A cuya probabilidad que
ocurra es conocida y es independiente del número de veces que este se presente.
Cuando ocurre el evento A se dice que ha ocurrido un éxito (E), pero si estamos interesados
en estudiar la no ocurrencia de A, entonces cuando ocurra A c diremos que ha ocurrido en
éxito. Cuando ocurra lo contrario le llamaremos fracaso (F). El término éxito se usa de
acuerdo a lo que se desee observar y no necesariamente significa algo exitoso.

6
Definición: Un ensayo Bernoulli es un experimento con dos resultados posibles, éxito o
fracaso. Su espacio muestral es  = E, F

Observe, que cualquier experimento puede realizarse para definir un ensayo Bernoulli
simplemente denotando un evento de interés A como éxito, y su complemento A c como
fracaso. La distribución de probabilidades asociada depende sólo de un parámetro p donde
p = P(E) y a su vez P(F) = 1- p que generalmente se denota por la letra q

Definición: X es llamada variable aleatoria Bernoulli con parámetro p y escribimos X~B(p)


si su función de probabilidad está dada por:
 p x (1  p )1 x x  0, 1
f(x) = P ( X  x )  
 0 e.o.c

La distribución de probabilidades de una v.a. Bernoulli se sigue directamente de la


distribución de probabilidad para :

Como X = 1 ssi A ocurre se tiene P(X = 1) = P(A) = p


X = 0 ssi Ac ocurre P(X = 0) = P(Ac) = 1-p
Ningún otro valor puede ocurrir para X.
La función generadora de momentos de una v. a. X ~ B(p) es:

Mx(t) = (1- p) + p et ; t

De la f.g.m. de X se deduce la esperanza y la varianza: E(X)= p y V(X) =p(1 – p)


Nota: Cuando un ensayo Bernoulli es repetido, dependiendo el interés de lo que deseemos
observar se generarán nuevas distribuciones de probabilidad. A decir, si repetimos este un
número fijo de veces es interesante observar en cuántas veces ha ocurrido el éxito
independiente de su posición en este caso podremos conocer un comportamiento conocido
como distribución Binomial. Pero si repetimos el proceso Bernoulli sólo hasta que el éxito
ocurre por primera vez, podremos conocer un comportamiento conocido como distribución
Geométrica. Por último si repetimos el proceso Bernoulli hasta que k (k>1) éxitos ocurren,
podremos conocer un comportamiento conocido como distribución Binomial negativa.

Distribución Binomial X ~ bin (n, p)


El experimento de lanzar la moneda tiene sólo dos resultados, cara y sello. La
probabilidad de cada uno es conocida y constante de un intento (lanzamiento) al siguiente, y
además el experimento puede repetirse muchas veces. Los experimentos de este tipo siguen
una distribución binomial, y presenta cuatro propiedades:

a) Sólo debe haber dos posibles resultados, uno es éxito y el otro fracaso. Un éxito no implica
necesariamente un resultado deseable;
b) La probabilidad de un éxito, p, sigue constante de un ensayo al siguiente, al igual que lo
hace la probabilidad de fracaso, 1 - p;
c) La probabilidad de un éxito en un ensayo es totalmente independiente de cualquier otro
ensayo;
d) El experimento puede repetirse muchas veces.

7
La aplicación de la distribución binomial al campo de la ingeniería es muy grande,
por ejemplo:
a) Que las componentes de un sistema funcionen (correcta, incorrectamente), b) árboles
plantados en terreno arenoso (sobrevive, muere), c) chips (defectuoso, sin falla) de
dispositivo semiconductor producido por una máquina que funcionan independientemente
con cierta confiabilidad, d) directores de una empresa con frecuencia desean saber cuántos
trabajadores: están interesados en unirse al sindicato y quienes no están interesados, e)
Banqueros pueden hacer encuestas a los expertos en economía sobre si las tasas de interés:
aumentarán o no aumentarán, f) El personal de mercadeo desea saber si una persona: prefiere
o no prefiere cierto producto.

Cada ensayo en una distribución binomial termina en sólo uno de dos resultados
mutuamente excluyentes, uno de los cuales se identifica como un éxito y el otro como un
fracaso. La probabilidad de cada resultado permanece constante de un ensayo al siguiente.

Se dice que una v.a. discreta X tiene distribución binomial si ella es el resultado de n
repeticiones de un experimento Bernoulli. Si se conoce la probabilidad de que un ensayo
determinado producirá un éxito, es posible estimar cuántos éxitos habrá en un número dado
de ensayos. Por ejemplo, si se conoce la probabilidad de que un solo trabajador esté
interesado en unirse al sindicato, entonces puede estimarse la probabilidad de que un número
determinado de trabajadores de la fuerza laboral estaría interesado en unirse.

La formulación es la siguiente: La probabilidad de obtener x éxitos en un número


determinado de n ensayos es:

n
f(x) = P( X  x)    p x (1  p) n  x , x  0,1,2,3,...., n
 x
En efecto:
El espacio muestral natural para un experimento binomial es el es el producto cartesiano de
los espacios muestrales de los ensayos Bernoulli consigo mismo n veces,
 = 1 × 2 × 3 × .....n ; donde i = E, F i =1,n

Cada evento elemental es una n-upla que contiene (0,0,0,1,0....,1,0) con x-éxito y n-x
fracasos y la probabilidad del evento elemental es : E,E,..,E,F,F....,F  p x 1  p  n  x
n
Pero el número de n-uplas que contienen x éxitos es  
x  
n
Si una n-upla tiene la probabilidad p x 1  p  n  x de ocurrir entonces   n – uplas tiene la
 x
n
probabilidad de   p x 1  p  n  x de ocurrir. Luego,
x 
f(x) =   p x (1  p) n  x ; x  0,1,2,3,....., n
n
 x
Claramente,

8
n
n
a) f(x) > 0 ; b)   x  p 1  p 
x 0
x nx
  p  (1  p )   1
n

Ejemplo 1. El personal de ventas de una empresa, hace una venta al 15% de los clientes a
los que visitan. Si un miembro del personal de ventas llama a 15 clientes hoy ¿Cuál es la
probabilidad de que venda exactamente dos aparatos? Solución: Existe un 28,56% de
oportunidad de que se hagan exactamente dos ventas de las 15 llamadas.

Ejemplo 2. Una revista publica que el 40% de todos los bachilleres trabajan durante el verano
para ganar dinero para la educación universitaria. Si siete bachilleres se seleccionan de
manera aleatoria ¿cuál es la probabilidad de que a) 5 tengan trabajos en el verano, b) ninguno
trabaje, c) todos trabajen? Solución: a) 0,0774, b) 0,0280, c) 0,0016.

Observe que la media de una distribución binomial es E(X) = np y la varianza es


V(X) = np(1 –p), obtenidas de la f.g.m. que es Mx(t) = (q + pet )n
En efecto:

  x  e p  1  p 
n
 pe 
n
x n x t n
M X (t )  E (e tx )  t
  (1  p ) ; t  
x 0

Derivando: M ' X (t )  n  pe t
 (1  p ) 
n 1
 pet
Así, M ' X (0)  np y M ' ' X (0)  n 2 p 2  np 2  np . Por lo tanto, E ( X )  np y V ( X )  npq

n
x
La función de distribución de X es: F ( X )  P ( X  x ) =  t p 1  p 
t0
t n t

1 4 t
Ejemplo 3. Considere la v. a. X con f. g. m.   e Determine P(X = 0), E(X), V(X).
5 5
5
5 3 
Ejemplo 4. Considere la v. a. X con la siguiente f. g. m. M X ( t )     e t 
8 8 
X2 1
Si se define Y  Calcular la probabilidad del evento Y  0
3

Distribución geométrica X ~ geom (p)

Supongamos que se realizan ensayos Bernoulli independientes, cada uno con


probabilidad de éxito p y sea X el número de ensayos necesarios para obtener el primer éxito.
Entonces, P(X =1)=p =(1-p)o p. Observaremos X = 2 si y sólo si tenemos un fracaso en el
primer ensayo y luego éxito en el segundo, de manera que P(X = 2) =q p. Similarmente, para
cualquier k 3 observamos que X = k si y sólo si tenemos fracasos en los k-1 primeros ensayos
seguidos por un éxito en el ensayo k.

Si se realizan ensayos Bernoulli independientes, cada uno con probabilidad de éxito


p, y si X es el número de ensayos necesarios para obtener el primer éxito, entonces
X es variable aleatoria geométrica con parámetro p y su función de probabilidad es:

9
f (x) = P(X = x) = (1-p)x-1 p ; x = 1,2,3,…, ; q = 1- p

p  et 1 q
Si X ~ geom (p) entonces: M X ( t )  ; E(X)= ; V(X)= 2
1 q  et p p
La distribución geométrica tiene la propiedad de ser “desmemoriada” que señala que
la probabilidad que más de b ensayos adicionales son necesarios para observar el primer éxito
provisto que ningún éxito ha ocurrido en los primeros a ensayos, es lo mismo que la
probabilidad original que más de b ensayos sean necesarios.
Si A = x  a y B = x  a  b . Entonces, P ( x  a  b / x  a ) = P ( x  b ) .

La función de Distribución de X está dado por: F ( X )  P ( X  x ) = 1- P ( X  x ) = 1- q x

Distribución binomial negativa X ~ bineg (r,p)

Suponga que ensayos Bernoulli independientes se realizan, cada uno con probabilidad
de éxito p y sea X el número de ensayos necesarios para observar el r-ésimo éxito, r = 2,3,4.
Claramente, el recorrido de X es R X =r, r+1, r+2 ,..., ya que, al menos r ensayos deben
realizarse para observar r éxitos. Observar que, X = r si y sólo si un éxito ocurre en cada
uno de los r primeros ensayos de manera que P(X = r) = p r
Para observar X = r+1, el r-ésimo éxito debe ocurrir en el ensayo r+1 y debe haber
exactamente r-1 éxitos en los primeros r ensayos.

Si se realizan ensayos Bernoulli independientes cada uno con probabilidad de éxito


p, y si X es el número de ensayos necesarios para encontrar el r-ésimo éxito, r = 2,3,..
, entonces, X es la variable aleatoria binomial negativa (o de Pascal) con parámetro
r y p. Su función de probabilidad de X es:

f (x) =  x 1 pr (1-p)x - r x = r, r+1,r+2,...


 
r 1
(p  e t ) r r r 1  p 
Si X ~ bineg (r,p) entonces : M X ( t )  ; E(X) = ; V(X)=
(1  q  e t ) r p p2

Si la variable aleatória es X: número de fallas que proceden al éxito r ésimo, X se llama


variable aleatoria binomial negativa porque en contraste com la variable aleatoria binomial,
el número de éxito es fijo y el número de ensayos es aleatorio.

La función de probabilidad de la variable aleatória binomial negativa X ~ bineg (r,p) es

𝑥+𝑟−1
𝑓(𝑥) = 𝑝 (1 − 𝑝) ; 𝑥 = 0, 1, 2, ….
𝑟−1
( ) ( )
Esperanza y varianza: 𝐸(𝑋) = 𝑦 𝑉(𝑋) =

10
Distribución Hipergeométrica X ~ H (N, m, n)
La distribución binomial es apropiada sólo si la probabilidad de un éxito permanece
constante para cada intento. Esto ocurre si el muestreo se realiza con reemplazo o de una
población finita (o muy grande). Sin embargo, si la población es pequeña y ocurre el muestreo
sin reemplazo, la probabilidad de un éxito variará. Si la probabilidad de un éxito no es
constante, la distribución hipergeométrica es de especial utilidad.

Cada evento es elemental, es una n-upla, el número de n-uplas es N  y la probabilidad


 
n 
de una n-upla es : 1 El número de n-uplas que contienen x éxitos y (n-x) fracasos está dado
N 
 
n 
por: m N  m Luego, la probabilidad de obtener x éxitos en n repeticiones es:
  
 x  n  x 
mN  m
  
xn  x 
f(x) = x = máx{0, n – N + m}, 1, 2,.., mín {m,n}
N 
 
n 
Si se selecciona una muestra sin reemplazo de una población finita conocida y contiene una
proporción relativamente grande de la población, de manera que la probabilidad de éxito
sea perceptiblemente alterada de una selección a la siguiente, debe utilizarse la distribución
hipergeométrica, cuya función de probabilidad es:

En donde N es el tamaño de la población, m es el número de éxitos en la población, n es el


tamaño de la muestra y x es el número de éxitos en la muestra.
La media y la varianza de esta distribución son:
 N n
µX = E(X) = np y  2X = V(X) =   npq
 N 1 
N n
donde p = m/N es la proporción de éxitos en la población y el término   es llamado
 N 1 
factor de corrección para población finita.

Distribución de Poisson X ~ P (𝜆 )
Una variable aleatoria discreta de gran utilidad en la medición de la frecuencia relativa
de un evento sobre alguna unidad de tiempo o espacio es la distribución de Poisson (originada
por el matemático francés Simeón Poisson 1781-1840). Con frecuencia se utiliza para
describir el número de llegadas de clientes por hora, el número de accidentes industriales
cada mes, el número de conexiones eléctricas defectuosas por milla de cableado en un sistema
eléctrico de una unidad, el número de máquinas que se dañan y esperan ser reparadas.

Las características de una distribución de Poisson son las siguientes:


a) La probabilidad de ocurrencia del evento es constante para dos intervalos cualesquiera de
tiempo o espacio.

11
b) La ocurrencia del evento en un intervalo es independiente de la ocurrencia de otro intervalo
cualquiera.
c) El número medio o esperado de eventos en cada unidad se denota por 𝜆 letra griega lambda.

La distribución de Poisson mide la probabilidad de un evento aleatorio sobre algún


intervalo de tiempo o espacio. Su función de probabilidad puede expresarse como:

𝑓(𝑥) = 𝑃(𝑋 = 𝑥) = x = 0,1,2,3,….


!

En donde x es el número de veces que ocurre el evento, 𝜆 es el número promedio de


ocurrencias por unidad de tiempo o de espacio, y e = 2,71828 es la base del logaritmo natural.

La v .a. X es llamada de Poisson de parámetro 𝜆 > 0. Usualmente, se denota 𝜆 = µ.

Ejemplo 5. Determine la función generadora de momentos de X y a partir de ella compruebe


que la esperanza y varianza de la variable aleatoria X es 𝜆
Ejemplo 6. Hasta el momento, han llegado camiones a un muelle de carga y descarga en
forma aleatoria a una tasa de uno por hora. ¿Cuál es la probabilidad de que no lleguen
camiones en la hora próxima hora?

Observaciones:
[1] Aproximación binomial de la distribución hipergeométrica. Si el tamaño muestral n es
muy pequeño en relación al número total de elementos, N-m y m, las probabilidades
hipergeométricas son muy parecidas a las binomiales, y puede usarse la distribución binomial
en lugar de la hipergeométrica. En este caso (N – n) / (N – 1) está muy próximo a 1, por lo
que la varianza de la distribución hipergeométrica está próxima a np(1-p), la varianza de la
distribución binomial. Es buena la aproximación si n ≤ min {0.2m , 0.2(N-m}
[2] Aproximación Poisson de la distribución binomial. Sea X el número de éxitos resultante
de n ensayos independientes, cada uno con probabilidad de éxito p. La distribución del
número de éxitos X es binomial con media np. Sin embargo, si el número de ensayos n es
grande y p es pequeño (preferiblemente n  20 y p  0,05), esta distribución puede
aproximarse bien por la distribución Poisson de media 𝜆 = 𝑛𝑝 Además, será muy buena la
aproximación cuando n  100 y n  p  10 .

La función de probabilidad aproximada es entonces:


(np) x  e np
P( X  x)  , para x  0,1,2,3,...
x!
Actividad 3. Una maquina detecta fallas en los productos que elabora una fábrica. Suponga
que los productos tienen una probabilidad de falla del 5%.
Para cada ítem:
3.1 Calcular la probabilidad de que la máquina encuentre su primer producto defectuoso
en al menos la quinta ocasión que selecciona un producto para su inspección.
a) Defina la variable aleatoria en el contexto de la situación.
X: Número de productos inspeccionados por la máquina, hasta encontrar el primero
defectuoso.

12
b) Determine el recorrido de la variable aleatoria.
Rec(X) = {1, 2, 3, … … … . . }
c) Asignar si es posible una distribución de probabilidad clásica a la variable aleatoria.
Explique
Es posible asignar la Distribución de probabilidades Geométrica, por las características del
proceso que son: Consta de un número no definido de pruebas o experimentos separados o
separables. El proceso concluirá cuando se obtenga por primera vez el resultado deseado
(éxito). Además, cada prueba puede dar dos resultados mutuamente excluyentes: A y no A.
La probabilidad de obtener un resultado A en cada prueba es p y la de obtener un resultado
no A es q siendo (q = 1 - p) y Las probabilidades p y q son constantes en todas las pruebas,
por tanto, las pruebas, son independientes (si se trata de un proceso de "extracción" éste se
llevará a cabo con devolución del individuo extraído).
d) Determine el (los) parámetro(s) del modelo de distribución y describa el modelo de
probabilidad propuesto.
El parámetro de la distribución es la probabilidad de éxito, es decir p = 0,05 y su distribución
es:
f(x) = 𝑝(𝑋 = 𝑥) = 0,95 ∙ 0,05

e) Calcule la probabilidad y comente, por qué la probabilidad de tal cálculo es alta o baja.

𝑃(𝑋 ≥ 5) = 1 − 𝑃(𝑋 < 5) ≈ 0,82


𝑃(𝑋 < 5) = 𝑃(𝑋 = 1) + 𝑃(𝑋 = 2) + 𝑃(𝑋 = 3) + 𝑃(𝑋 = 4)

𝑃(𝑋 < 5) = 0,95 ∙ 0,05 + 0,95 ∙ 0,05 + 0,95 ∙ 0,05 + 0,95 ∙ 0,05 = 0,19

La probabilidad de encontrar el primer producto defectuoso en al menos la quinta posición


es aproximadamente 82% y es alta ya que en la medida que aumenta la cantidad de
elementos probados aumenta la posibilidad de encontrar defectuosos.

f) Determine e interprete la esperanza de la variable aleatoria.


1 1
𝐸(𝑋) = = = 20
𝑝 0,05

Se espera encontrar el primer producto defectuoso en la ocasión número 20.

3.2 Si se inspeccionan 10 productos, determine la probabilidad de encontrar a lo más 3


productos con fallas.

a) Defina la variable aleatoria en el contexto de la situación.


X: Número de productos fallados encontrados por la máquina, al inspeccionar 10 de ellos.
b) Determine el recorrido de la variable aleatoria.
Rec(X) = {0, 1, 2, 3, … … 10}

c) Asignar si es posible una distribución de probabilidad clásica a la variable aleatoria.


Explique

13
Es posible asignar la Distribución de probabilidades Binomial, por las características del
proceso que son: Cada uno de los experimentos es independiente de los restantes (la
probabilidad del resultado de un experimento no depende del resultado del resto). El
resultado de cada experimento ha de admitir sólo dos categorías (a las que se denomina
éxito y fracaso). Las probabilidades de ambas posibilidades han de ser constantes en todos
los experimentos (se denotan como p y q o p y 1-p).

d) Determine el (los) parámetro(s) del modelo de distribución y describa el modelo de


probabilidad propuesto.
Los parámetros de la distribución es: el número de ensayos y la probabilidad de éxito, es
decir, n= 10 y p = 0,05 y su distribución es:
10
𝑝(𝑋 = 𝑥) = 0,05 ∙ 0,95
𝑥

e) Calcule la probabilidad y comente, por qué la probabilidad de tal cálculo es alta o baja.

𝑃(𝑋 ≤ 3) = 𝑃(𝑋 = 1) + 𝑃(𝑋 = 2) + 𝑃(𝑋 = 3) ≈ 0,99


10 10 10 10
𝑃(𝑋 ≤ 3) = 0,05 ∙ 0,95 + 0,05 ∙ 0,95 + 0,05 ∙ 0,95 + 0,05 ∙ 0,95
0 1 2 3

La probabilidad de encontrar a lo más tres productos con fallas es aproximadamente 100%


y es alta ya que la probabilidad de éxito es baja, por lo tanto la posibilidad de encontrar
pocos con fallas o ninguno es alta.

f) Determine e interprete la esperanza de la variable aleatoria.


𝐸(𝑋) = 𝑛𝑝 = 10 ∙ 0,05 = 0,5
Se espera encontrar uno o ningún artículo defectuoso en los 10 inspeccionados.

D. DISTRIBUCIONES DE PROBABILIDADES, CASO VARIABLE ALEATORIA CONTINUA

Distribución Exponencial X ~ Exp (λ)


La distribución de Poisson es una distribución discreta que mide el número de
ocurrencias sobre algún intervalo de tiempo o espacio; los eventos ocurren al azar
independientemente y a una tasa uniforme por unidad de tiempo. La función de probabilidad
es:
𝜆 𝑒
𝑓(𝑥) = 𝑃(𝑋 = 𝑥) =
𝑥!
La representación gráfica es la siguiente:

14
Por el contrario, la distribución exponencial es una distribución continua, que mide el
paso del tiempo entre tales ocurrencias. Es decir, mientras la distribución Poisson describe
las tasas de llegada (de personas, camiones, llamadas telefónicas.) dentro de algún período
dado, la distribución exponencial estima el lapso entre tales arribos.

Supongamos que en el tiempo t = 0 empezamos a observar el proceso de Poisson y


sea ahora T el tiempo en el cual ocurre el primer evento. T es entonces una v.a. continua y
su recorrido es R T = t: t>0. Sea t cualquier número positivo y consideremos el evento
T> t, que el tiempo del primer evento sea mayor que t. Este evento ocurre si y sólo si ha
ocurrido 0 eventos en el intervalo fijo (0, t. Pero vemos que la probabilidad de 0 eventos
 t
en un intervalo de longitud t es P(X = 0) = e .

Como T> t  X = 0 sus probabilidades deben ser iguales y así:

 t
P (T> t) = e = 1 - P(T t) = 1-FT(t).
1  e t
t0
Luego, FT ( t )  
 0 t0
d
y la función densidad de probabilidad de T es f T ( t )  FT ( t )   e   t ; t0
dt

Si X es el tiempo que transcurre hasta que el primer evento ocurre, entonces X es llamada
variable aleatoria exponencial con parámetro  y entonces se tiene:

 0 x0
f X ( x)     x
e x0
1 1 
Además, E(X): = , V(X) = , Mx (t) = , t
  2
 t

Así, en la distribución exponencial,

la probabilidad de que el lapso sea menor o igual a cierta cantidad t es: P(T  t )  1  e  t
La función densidad de probabilidad es una curva en continuo descenso que muestra
que con el paso del tiempo T aumenta, y la probabilidad (llamada también confiabilidad)
disminuye. Por ejemplo, la probabilidad de que pasen 30 minutos entre ocurrencias excede
la probabilidad de que pasen 40 minutos, debido a que siempre deben pasar 30 minutos antes
que pasen 40.

15
La distribución Exponencial se utiliza con frecuencia como modelo para la distribución de
tiempo entre la presentación de eventos sucesivos, y tiene la propiedad de ser desmemoriada
(carencia de memoria). Esto es, si X ~ () y consideramos las constantes positivas a y b
se cumple
P( X  a  b) e  (a  b)
PX  a  b / X  a     e  b  PX  b 
P(X  a )   a
e

Actividad 4. Suponga que un sistema contiene cierto tipo de componente, cuyo tiempo de
falla, en años, está dado por una variable aleatoria distribuida exponencialmente con tiempo
promedio de falla de 5 años.
a) ¿Cuál es la probabilidad de que la componente del sistema funcione después de los 6 años?
Sea X la variable aleatoria que mide el tiempo de falla de un componente
1
𝐸(𝑋) = 5 =
𝜆
Así, 𝑋 ~ 𝐸𝑥𝑝(𝜆 = 0,2) con función de distribución: 𝐹 (𝑥) = 1 − 𝑒 ,
𝑃(𝑋 > 6) = 1 − 𝐹 (6) = 1 − (1 − 𝑒 , ∙ ) = 0,30119.
Hay un 30,119% de probabilidad de que la componente del sistema funcione después de los
6 años.

b) Si 8 de estas componentes se instalan en sistemas diferentes. ¿Cuál es la probabilidad de


que al menos una de las componentes continúe funcionando después de los 6 años?
Sea la variable aleatoria Y el número de componentes que siguen funcionando después de
los 6 años de las 8.
𝑌 ~ 𝑏𝑖𝑛( 𝑛 = 8, 𝑝 = 𝑃(𝑋 > 6) = 0,30119)
𝑃(𝑌 ≥ 1) = 1 − 𝑃(𝑌 = 0)
=1- 0,30119 ∙ 0,69881 = 0,94313
Hay un 94,31% de probabilidad de que al menos una de las componentes continúe
funcionando después de los 6 años.

c) Si después de 6 años se revisan las componentes fabricadas. ¿Cuál es la probabilidad de


revisar 7 componentes hasta encontrar la cuarta componente que aún funciona?
Sea la variable aleatoria W número de componentes revisados hasta encontrar la cuarta
componente que aún funciona.
𝑊 ~ 𝑏𝑖𝑛𝑒𝑔( 𝑘 = 4, 𝑝 = 𝑃(𝑋 > 6) = 0,30119)

16
6
𝑃(𝑊 = 7) = 0,30119 ∙ 0,69881 = 0,056165
3
Si después de 6 años la componente sigue funcionando, hay 5,62% de probabilidad de revisar
7 componentes hasta encontrar la cuarta componente que aún funciona.

Distribución Uniforme X~U(a,b)


La distribución de probabilidad uniforme es una distribución en la cual las
probabilidades de todos los resultados son las mismas.
El área total bajo la curva, como en el caso de todas las distribuciones de probabilidad,
debe ser igual a 1 o 100%. Debido a que el área es la altura por el ancho, si b – a es el ancho
o rango de la distribución, entonces la altura es:
Área 1
Altura = 
Ancho b  a

Los parámetros que caracterizan a una distribución Uniforme son los límites del intervalo, a
y b. formalmente esta distribución es definida como sigue:

Definición: Sea X una variable aleatoria continua que toma todos los valores en el intervalo
(a, b) con -<a < b< , diremos que X está uniformemente distribuida si la función de
densidad de X es constante  x  (a , b) . Esto es:

 1
 si a  x  b
f( x )   b  a
 0 e.o.c.
Si X ~ U (a, b) la media o valor esperado está a la mitad de camino entre sus dos puntos
E(X) = a  b y su varianza es: V(X) = (b  a)
2
extremos:
2 12
(b  a) etb  eat
La desviación estándar es X = y Mx (t) = .
12 t (b  a)
 0 si t  a
t  a
La función acumulada de X está dado por: F ( x )   si a  t  b
b  a
 1 si t  b

Ejemplo 7. Los tiempo de terminación de un trabajo oscilan entre 10.2 minutos a 18.3
minutos y se piensa que están distribuidos uniformemente.
10.2  18.3 1
a) La media es:   = 14.25 b) La altura es Altura  = 1/8.1 = 0.123
2 18.3  10.2
c) ¿Cuál es la probabilidad de que requiera entre 12.7 y 14.5 minutos para realizar este
trabajo?
Este valor está dado por el área dentro de ese rango. La probabilidad de que una observación
única esté comprendida dentro de dos valores X1 y X2 es 0.222, ya que:

X 2  X1
PX1  X  X 2  
ba

17
Distribución Normal X ~ N ( µ , σ2 )
La distribución Normal es la más importante en Probabilidades y Estadística.

Definición: La variable aleatoria X que toma los valores reales tiene distribución Normal si
su función densidad de probabilidad es:

1 ( x   )2
1 
f X(x )  e 2 2 ,  x  IR;  IR ;  2 > 0 ,  y  son constantes.
2 2

Los parámetros de una distribución Normal son  y  2 y como veremos  = E (X ) y la


varianza  2 = V ( X) .
Propiedades de una v. a. X ~ N (,  2 )
a) El gráfico de la f. d. p. tiene la forma de una campana.
b) Es simétrica con respecto de la recta x =  y este punto es cóncavo hacia abajo y tiene
puntos de inflexión x =  ±  (En x =  la función alcanza su máximo).
c) Si  es relativamente grande el gráfico tiende a ser achatado en cambio si  es pequeño
es f tiende a ser agudo. Se observa en el gráfico que  2 2 > 12

N(, )
)

N(, )

x=

Teorema 1: Si X~ N ( ,  2 ) y si Y = aX + b , a0 entonces: Y~ N (a+b ,a²  2 )


x Z2
2 x  1 
Teorema 2: Si X~ N ( ,  ) entonces P(Xx) = ( ) = FZ (x)   e 2 dz
  2
donde  es la función de distribución acumulada de Z ~ N (0,1), y se encuentra tabulada.

La importancia de este teorema es que nos permite calcular probabilidades de una


variable aleatoria X ~ N ( ,  2 ) cualquiera, a partir de una variable aleatoria Normal
Estándar

18
x 
Z= ~ N (0,1).

Z2
1 
y su f. d.p. es: f(z)= e 2 , z  IR
2

La función de distribución de Z se encuentra tabulada. La tabla acumulada, en la que,


para un valor de X se obtiene la probabilidad F(x) = P(X  x), o área situada a la izquierda de
x.
t2

Teorema 3: Si Z~ N (0,1) entonces M Z (t ) = e 2

1
 t  2
t2
Teorema 4: Si X~ N ( ,  2 ) entonces M X (t ) = e 2

Observación:
Como conocemos la f. g. m. de X ~ N ( ,  2 ) se puede determinar E(X) y V (X).
1 2t2
ut  
M´(x)= (  +  2 t ) e 2  M´(0) = (  +0 ) eo  E(x)= 
M´´(x)= ( ² +  2 )  V(x) =  2

Actividad 5. El diámetro en milímetros de los pernos de una fábrica se pueden modelar por
una función cuya función generadora de momentos está dada por: 𝑀 (𝑡) = 𝑒 .
a) Defina la variable aleatoria e indique claramente la distribución de probabilidad.
Sea X el diámetro en milímetros de los pernos y 𝑋 ~𝑁(𝜇 = 950, 𝜎 = 100)
b) ¿Cuál es la probabilidad de que un perno escogido al azar tenga un diámetro entre 947 y
958 milímetros?
𝑃(947 ≤ 𝑥 ≤ 958) = 𝑃(−0,3 ≤ 𝑧 ≤ 0,8) = 0,788145 − 0,382089 = 0,406056
Hay un 40,6% de probabilidad de que un perno escogido al azar tenga un diámetro entre 947
y 958 milímetros.

c) ¿Cuál es el valor apropiado de k tal que un perno escogido al azar tenga un diámetro mayor
que k con una probabilidad de 0,8531?
𝑃(𝑋 > 𝑘) = 0,8531 es equivalente a 𝑃 𝑍 ≤ = 0,1489
= −1,05 → 𝑘 = 939,5 Milímetros.

Aproximación Normal de la distribución binomial.

Si n es grande no es fácil calcular las probabilidades mediante tablas con distribución


binomial o en algunas calculadoras, además que la fórmula del modelo es excesivamente
engorrosa. En este caso se utiliza la distribución normal para aproximar la distribución
binomial. Se considera lo suficientemente precisa si np ≥ 5 y n(1-p) ≥ 5 y si p está próximo
a 0.50.

19
Observación:
Debido a que existe un número infinito de valores posibles en una distribución normal
(o en cualquier distribución continua), la probabilidad de que la variable aleatoria sea
exactamente igual a algún valor específico como 10, es cero.
Cuando se utiliza una distribución continua para estimar una variable aleatoria discreta, es
necesario un leve ajuste, llamado factor de corrección de continuidad, y requiere que se trate
la probabilidad de exactamente 10 como el intervalo entre 9.5 y 10.5. Esto se ilustra en la
siguiente figura:
Figura 1. Aproximación normal a una distribución discreta

Intuitivamente, se haría ver que el área del histograma es aproximadamente igual al


área en la función densidad normal, pero la base del rectángulo está centrada en el valor
entero, por lo que se debe admitir que los valores de los extremos del intervalo se extienden
en media unidad para obtener así la aproximación binomial
Establecemos el siguiente convenio: Si los posibles valores de X son enteros consecutivos y
b es un entero, entonces h=1 y 𝑃(≤ 𝑏) ≈ 𝐹(𝑏 + 0.5). Intuitivamente, el convenio considera
el área del histograma es igual al área en la función densidad normal, y luego admitir que
“los valores de la Normal se redondean en el entero más cercano (de 0 a n) para obtener así
los de la Binomial”.

P( B  0)  P( N  0,5)
P( B  x )  P( x  0,5  N  x  0,5) , x  1,2,3,..., n  1
P( B  n)  P( N  n  0,5)
( )

𝑃(𝑋 ≤ 𝑏) ≈ 𝑓(𝑥)𝑑𝑥 = 𝐹(𝑏 + )
2

Actividad 6. De los administradores inscritos en una agrupación, se sabe que el 40% ha


participado en cursos de capacitación. Si tomamos una muestra de 32 administradores. ¿Cuál
es la probabilidad aproximada de que por lo menos 12 administradores hayan participado de
los cursos de capacitación?
Sea p: proporción de administradores inscritos en una agrupación que ha participado en
cursos de capacitación.
Sea X: Número de administradores inscritos en una agrupación que ha participado en cursos
de capacitación de los 32 seleccionados.
𝑋 ~ 𝑏𝑖𝑛( 𝑛 = 32, 𝑝 = 0,40)
Se pide 𝑃(𝑋 ≥ 12) como n = 32 es grande np = 12,8 ≥ 5 y n(1-p)= 19,2 ≥ 5 por la
Aproximación Normal de la distribución binomial

20
𝑋 ≈ 𝑁( 𝑛𝑝 = 12,8 ; 𝑛𝑝(1 − 𝑝) = 7,68) Usando corrección por continuidad se
tiene:
𝑃(𝑋 ≥ 12) ≈ 1 − 𝑃(𝑋 ≤ 11,5 ) = 1 − 𝑃(𝑧 ≤ −0,47) = 1 − 0,319178 ) = 0,680822

Existe una probabilidad aproximada de 68,08% de que por lo menos 12 administradores


hayan participado de los cursos de capacitación.

Ejemplo 9. Se estudia la frecuencia con la que los alumnos de una Universidad entran en la
página web de su casa de estudio. Se sabe que el 20% de los estudiantes no han entrado nunca
la web.
a) Si se selecciona en forma independientes estudiantes, encontrar la probabilidad que haya
que preguntar a 5 estudiantes hasta encontrar el segundo que no hayan entrado en la web.
b) Si se selecciona en forma independientes estudiantes encontrar la probabilidad al sexto
estudiantes consultado sea el primero que manifieste que ha visitado la web.
c) Si se selecciona en forma independiente 100 estudiantes, determine la probabilidad
aproximada de encontrar entre 70 y 90 estudiantes que no han visitado la página web.

Distribución Gamma X ~ gamma   ,  



Se define la función gamma de  como ()   y  1  e  y dy
0
Se puede probar que ()    1! , siempre que  sea un entero positivo.

Definición: Una variable aleatoria continua X que tiene f. d. p. de la forma


x

1  1 
f X (x)  X e ;x>0
 ()   
se dice que tiene una distribución gamma con parámetros  y  (  >0 y  >0) .

La función generadora de momentos de una v. a. X ~ gamma   ,  esta dada por:


M X ( t )  1    t    ; t  1 /  . Además, E( X )     , V (X )     2

Propiedades
a) Si   1 ,   1 /  ,   0 se obtiene la distribución exponencial de parámetro  .

b) Si   r  I ,   1 /  se obtiene la distribución Erlang r ,   que nos da la


distribución del tiempo necesario para observar r – éxitos.
r
r x r 1e x   
f (x )  , M X (t )    , E( X )  r /  , V (X )  r / 2
r  1! t

21
n
c) Si   , n  I y   2 se obtiene la distribución Chi cuadrado con n grados de
2
libertad (que es su parámetro). Esta distribución está tabulada y se utiliza bastante en
estadística. Su f.d.p. es la siguiente:
n x
1 
x2 e 2
X ~ 2 ( n )  f( x )  ; x>0
n
   2 n / 2
 2
Además, M X (t )  1  2t n / 2 , t  1/2 ; E(X) = n , V(X) = 2n

La importancia de la distribución Gamma radica en el hecho de que define una familia


de la cual otras distribuciones son casos especiales. Está distribución tiene aplicaciones
importantes al valuar el tiempo y en problemas de confiabilidad. En tanto la distribución
Exponencial describe el tiempo entre eventos de Poisson, la distribución Gamma describe la
función de densidad de la variable aleatoria que representa el tiempo que transcurre hasta que
ocurre un número específico de eventos de Poisson. Este número específico de eventos es el
parámetro  y el parámetro  representa tiempo promedio entre eventos.

Distribución Weibull X ~ Weibull   ,  


La distribución de Weibull se emplea a menudo para modelar tiempo hasta presentarse una
falla en muchos sistemas físicos diferentes. Los parámetros de la distribución proporcionan
mucha flexibilidad para modelar sistemas en la que el número de fallas aumenta con el
tiempo, disminuye con el tiempo o permanece constante.
La función densidad de una v.a. X con distribución de Weibull con parámetro de escala  >
0 y parámetro de forma  >0 tiene la forma:
x

 1
 x  
 
f( x )    e para x > 0
  

Observe que cuando  =1, la distribución de Weibull es idéntica a la distribución


x

 
 
exponencial. La función de distribución acumulada de X es FX ( x )  1  e .

Distribución Beta X ~ beta   ,  


La distribución beta proporciona densidad positiva para X en un intervalo de longitud
finita. Se dice que una variable aleatoria X tiene una distribución beta con parámetros con
parámetros  ,  (ambos positivos) su función de densidad de probabilidad está dada por:
      1
x 1  x 
 1
 six  0
f ( X )     
 0 eoc.
 
La media y la varianza son: E(X) = , V(X) =
         1
2

22

You might also like