You are on page 1of 17

DISTRIBUCIONES DE PROBABILIDAD CONTINUAS

4.1- Definición de variable aleatoria continua


Una variable aleatoria X es continua si su función de distribución es una función continua.

En la practica, se corresponden con variables asociadas con experimentos en los cuales la


variable medida puede tomar cualquier valor en un intervalo: mediciones biométricas,
intervalos de tiempo, etc.

Ejemplos

 Abra la sección de negocios de su periódico, y tome la X el ultimo precio cotizado de


las acciones de Conglomerado Colosal. Entonces X puede asumir cualquier valor
real, pues podemos pensar en X como una variable aleatoria continua.

Si X es el ultimo precio cotizado de las acciones de Conglomerado Colosal, y


observamos que el precio esta entre $10 y $20, 60% del tiempo, diríamos:

La probabilidad de que X tome un valor entre $10 y $20 es 0.6

Escribimos esta declaración matemáticamente de la siguiente manera

𝑃(10 ≤ 𝑋 ≤ 20) = 0.6


Podemos utilizar un grafico de barras, llamado histograma de la distribución de
probabilidad, para ilustrar las probabilidades de que X se queda en rangos
seleccionados.

 Tome para X la temperatura de una persona enferma, tomada con un termómetro


de mercurio con una escala de 70°C hasta 120°C. Entonces X es continua con valores
en el intervalo [70, 120].

Dentro de las variables aleatorias continuas tenemos las variables aleatorias


absolutamente continuas.

Diremos que una variable aleatoria X continua tiene una distribución absolutamente
continia si existe una función real f, positiva e integrable en el conjunto de números reales,
tal que la distribución de la función de la distribución F de X se puede expresar como:
𝑥
𝐹(𝑥) = ∫ 𝑓(𝑡)𝑑𝑡
−∞

Una variable aleatoria con distribución absolutamente continua, por extensión, se clasifica
como variable aleatoria absolutamente continua.

4.2- Función de densidad y acumulativa


Una función que ofrece la probabilidad total de obtener un resultado de una variable
aleatoria que varia desde el valor mas bajo posible para una variable aleatoria hasta
cualquier valor especifico de interés.

“Por ejemplo, podemos preguntar cual es la probabilidad de que algún tipo de interés (tal
como el LIBOR a seis meses) sea del 5% o menos dentro de un año a partir de hoy. “

Las funciones de densidad acumulativa se derivan de las funciones de densidad de


probabilidad. También se conoce como función de probabilidad acumulativa.

Ejemplo

La función de densidad de probabilidad de probabilidad del tiempo de falla (en horas) de


un componente electrónico de una copiadora.

e  x / 1000
f ( x)   Para x>0
1000

Calcule la probabilidad de que:

a) El componente tarde más de 3 mil horas en fallar.


b) El componente falle en el lapso comprendido entre 1000 y 2000 horas.
c) El componente falle antes de 1000 horas.
d) Calcule el de horas en las que fallaron el 10% de todos los componentes.

SOLUCION:
a)

p(x>3000)= 1- p (0<x<3000)
e  x / 1000  1000e  x / 1000
3000 3000
3000
p (0  x  3000)   dx    e  x / 1000

0 1000 1000 0 0

1
 e 3000 / 1000  (e 0 / 1000 )  e 3  e 0  e 3  1    1  0.9502
e 3

b)

e  x / 1000  1000e  x / 1000


2000
2000
p(1000  x  2000)   dx   
1000 1000 1000 1000
2000

  e
 x / 1000  2000 / 1000
e  (e ( 1000/ 1000) ) 
1000

2 1 1 1
e e     0.232544  23.25%
e 2 e1

c)

e  x / 1000  1000e  x / 1000


1000
1000
p (0  x  1000)   dx  
0 1000 1000 0
1000
 e  x / 1000   e
1000 / 1000
 (e 0 / 1000 )  e 1  e 0 
0

0.6321  63.21%

d)
e  x / 1000
w
w
p (0  x  w)    e  x / 1000  
0 1000 0

 e  w / 1000  (e 0 / 1000 )  e  w / 1000  e 0 


 e  w / 1000  1  0.10
 e  w / 1000  0.10  1
 e  w / 1000  0.90
e  w / 1000  0.90
ln( e  w / 1000 )  ln( 0.90)
w
 0.105360
1000
w
 0.105360
1000
w  (0.105360)(1000)
w  105.36

4.3- Valor esperado, varianza y desviación estándar


La media y la varianza de una variable aleatoria continua se define de la manera
similar al caso de la variable aleatoria discreta. En las definiciones la integración remplaza a
la sumatoria.

Supóngale que X es una variable aleatoria continua con función de densidad de probabilidad
f(x), - < x < .

La media de x, denotada por E (x) o x es



E ( X )  X   xf

x ( x)dx

La varianza de X, denotada por V(X) o 2x, es


V ( X )   2 x   ( x  x) 2 f ( x)dx


Así mismo la desviación estándar de X es

 x  v(x)
Ejemplo

Con la siguiente función f(x) =0.125x para 0<x<4, calcular la media, la varianza y la
desviación estándar.

Valor esperado:
4 4 4
E ( X )   X  x(0.125 x)dx   0.125 x 2 dx  0.125 x 2 dx 
0 0 0
3 4 3 3
0.125 x 0.125(4) 0.125(0) 8
3 
0
3

3
  2.666
3

Varianza:

4 16 X 64  1 
V ( x)   2   ( X  ) 2 0.125 x dx    X 2 
4 8
  dx 
0 3 0
 3 9  8 
4  X  16 x  64 x  4 X 2 x 2 8x   x4 2 x 3 8x 3 
3 2 3 4

0  8  24  72  0  8 3 9   8 * 4 3 * 3 9 * 2  0 
    dx      dx   

 x 4 2 x 3 8 x 2  4  4 4 243 842   0 4 203 802  8


18  0  32
             0.8888
 32 9 9 18   32 9 18  9

Desviación estándar:

8
x   0.9428
9

4.4- Distribución uniforme (continua)


En la teoría de probabilidad y estadística, la distribución uniforme continua es una familia
de distribuciones de probabilidad para variables aleatorias continuas, tales que cada
miembro de la familia, todos los intervalos de igual longitud en la distribución en su rango
son igualmente probables. El dominio esta definido por dos parámetros, a y b, que son sus
valores mínimos y máximos. La distribución es a menudo escrita en forma abreviada como
U(a,b).

La distribución continua más sencilla es análoga a su contraparte discreta, una variable


aleatoria continua X con función de probabilidad.

f x  
1
, a X b
b  a 
Tiene una distribución uniforme continua.

f(x)

1/b-a

Función de densidad de probabilidad de una variable aleatoria uniforme continua.

La media de la variable aleatoria uniforme continua X es:

ab
b
0.5 x 2
E x   
b x
a ba
dx 
ba a  
2

La varianza de X es:

( a  b) 2 ( a  b)
3
(x  ) (x  )b
b (b  a) 2
v( x)  
3(b  a ) a
2 dx  2 
a ba 12

Estos datos pueden resumirse de la siguiente manera.

La media y la varianza aleatoria uniforme continúa X sobre a  x  b están dadas por:


( a  b) (b  a) 2
x  E ( X )  y  2 x  v( x) 
2 12

Ejemplo

Suponga que X tiene una distribución uniforme continua en el intervalo [1.5, 5.5].

a) Calcule la media, la varianza y la desviación estancar de X.


b) Cual es la probabilidad de p(x<2.5).

1 1 1
f ( x)     0.25
b  a 5.5  1.5 4

.30
.20
.10

1 2 3 4 5 6

a)
5.5  1.5 7
x    3.5
2 2

(5.5  1.5) 2 4
 2x    1.33
12 3

4
x   1.1547
3

2.5
2.5 1 x 2.5 1.5
b) P( X  2.5)   dx      0.25  25%
1.5 4 4 1.5 4 4
Ejemplo 2

Suponga que X tiene una distribución uniforme continua en el intervalo [-1, 1]

a) Obtenga la media la varianza y la desviación estándar.


b) Calcule el valor de X tal que P(-x < X < x)= 0.90

0,05 0,45 0,45 0,05

-1 1

1 1 1
f ( x)     0.5
b  a 1  (1) 2

11
x  0
2

(1  (1)) 2 4 2
a)  2 x     0.333
12 12 6

2
x   0.577
6

b) P(-x< X <x)= 0.90


r 1
r
r 1 x
1 2dx  2 1  2  2  0.05

r r
 0.05  0.5   0.45
2 2
r  0.45(2)  0.90
x 1
p ( x  X  x)   dx  0.90
x 2

x x
x
x
 dx     0.90
2 x 2 2
x  0.90

4.5- Distribución Exponencial


En estadística la distribución exponencial es una distribución de probabilidad continua con
un parámetro 𝜆 > 0 cuya función de densidad es:

e  x
f ( x;  )   x  0 de otra manera donde >0
0

La pdf exponencial es un caso especial, de gamma general, en la que =1 y  ha sido


sustituida por 1/, [algunos autores emplean la forma (1/)e-x/]. La media y la varianza de
X entonces son:

1 1
  ç   2   2 
 2

La diferencia de pdf gamma general, la pdf exponencial se pueden integrar fácilmente.

Ejemplo

Sea X el tiempo en horas de un sistema de cajeros de atención a usuarios. La atención puede


modelarse como un proceso de Poisson por una media de 25 accesos por hora ¿cuál es la
probabilidad de que no halla acceso en un intervalo de 6 minutos?
=25 usuarios / hora

=2.5 usuarios / 6 minutos

25e 25 x
0.1 0.1
0.1 0.1
 25e 25 x dx  25 e 25 x dx     e   e
 25 x  25( 0.1)
 (e 25( 0) ) 
0 0  25 0 0
 2.5
P(x0.1)=  e  1  0.9179
p( x  0.1)  1  P( x  0.1)  1  0.9173  0.08208  2.8%

4.6- Distribución Gamma (Erlang)


Aumenta la distribución ya que se puede utilizar para resolver muchos problemas en
ingeniería y en la ciencia, hay aun numerosas situaciones que requieren diferentes tipos de
funciones de densidad. Dos de estas funciones de densidad, las distribuciones gamma y
exponencial, se estudian en esta sección.

Resulta que la distribución exponencial es una cosa especial de la distribución gamma.


Ambas encuentran un gran número de aplicaciones. Las distribuciones exponencial y
gamma juegan un papel importante en teoría de colas y problemas de confiabilidad. Los
tiempos entre llegadas en instalaciones de servicio, y tiempo de falla de partes
componentes y sistemas eléctricos, a menudo quedan bien moldeadas mediante la
distribución exponencial. La realidad entre la gamma y la exponencial permite que la
gamma se involucre en tiempos de problemas similares.

La distribución gamma, deriva su nombre de la bien conocida función gamma, que se


estudia en muchas áreas de las matemáticas. Antes de que procedemos con la distribución
gamma, revisemos esta función y algunas de sus propiedades importantes.

La función gamma se define como:

(𝜆𝑥)𝑘−1
𝐹(𝑥) = 𝜆ⅇ −𝜆𝑥 (𝑘−1)!
Para X, 𝜆 ≥ 0

La distribución Erlang es el equivalente de la distribución gamma con el parámetro k=1,2 …


1
y 𝜆 = 𝜃. Para k=1 eso es la distribución exponencial. Se utiliza la distribución Erlang para
describir el tiempo de espera hasta el suceso numero K en un proceso de Poisson.
𝑘
Su esperanza viene dada por: 𝐸(𝑋) = 𝜆
𝑘
Su varianza viene dada por: 𝑉(𝑋) = 𝜆2

𝑡 −𝑘
La función generadora de momentos responde a la expresión: (1 − 𝜆)

4.7- Distribución Normal


La distribución normal es la más importante en probabilidad y estadística.

Muchas poblaciones numéricas tienen distribuciones que se pueden ajustar con


mucha aproximación mediante una curva normal apropiada. Como ejemplos pueden citarse
la estatura, peso y otras características físicas (el famoso artículo 1903 de Biométrica analizó
muchos de este tipo), errores de medición en experimentos científicos, mediciones
antropométricas efectuadas en fósiles, tiempo de reacción en experimentos psicológicos,
mediciones de inteligencia y aptitud, calificaciones de diversas pruebas y numerosas
medidas e indicadores económicos. Aun cuando la distribución fundamental sea discreta,
la curva normal proporciona con frecuencia una aproximación excelente. A demás cuando
las variables individuales no están normalmente distribuidas, en condiciones apropiadas las
sumas y promedios de las variables tendrán aproximadamente una distribución normal.1

La distribución normal aparece en el estudio de muchos fenómenos físicos básicos. Por


ejemplo, el físico James Maxwell desarrollo la distribución normal a partir de hipótesis muy
sencillas con respecto a las velocidades de las moléculas.2

Una variable aleatoria X con función de densidad de probabilidad

( x )2
1
fx( x,  ,  )  c 2 2
  x
2

Tiene una distribución normal con parámetros , donde -<<, y >0.

Así mismo E(x)= y v(x)=2


La deducción de la media y la varianza de una variable aleatoria normal que aparece al final
de esta sección. Los valores de  y  determinar la forma de la función de densidad de
probabilidad. La función de densidad de densidad de probabilidad es una curva simétrica
con forma de campana. El valor de  determina el centro de la función de densidad de
probabilidad, mientras que el de la  determina la dispersión. Es evidente que fx(x,,) es
no negativa.

Es una distribución continua que tiene por propiedades.

1.- Es simétrica.

2.- Se extiende en ambos sentidos del eje x.

3.- Es asintótica.

Ejemplo

a)

P0  Z  1  0.84134  0.5  0.34134

b)

P 1  Z  2 
P  0.34134  0.47725  0.81859
0.81859 *100%  81.85

c)

P(0.16  Z  1.06

P  0.06356  0.35543  0.41899

d)

P1.03  Z  2.33 

P  0.49010  0.34849 

e)

P 2.43  Z  z   0.9675


z  1.99

f)

P z  Z  z   0.99

0.99
P  0.4950  0.5  2.58
2
z  2.58

g)

Pz  1.73ó1.73  z  

1  0.045818  0.04182  2 

0.08364 ó 8.36%

h)
P 2.75  Z ó 3.66  Z  

1  0.99702  0.00278
1  0.99987  0.00073
0.00278  0.00073  0.00311 
0.00311 ó 0.31%

4.7.1- Aproximación de la Binomial a la Normal


En este caso se estarán calculando probabilidades de experimentos Binomiales de una
forma muy aproximada con la distribución Normal, esto puede llevarse a cabo si n¥® y p =
p(éxito) no es muy cercana a 0 y 1, o cuando n es pequeño y p tiene un valor muy cercano
𝑥−𝑛𝑝
a ½; esto es: 𝑃(𝑥, 𝑛, 𝑝) = 𝑛𝐶𝑟 𝑃 𝑥 𝑞 𝑛−𝑥 = 𝑃(𝑧 = )
√𝑛𝑝𝑞

Donde:

X= variable de tipo discreto; solo toma valores enteros

m= np= media de la distribución Binomial

s= √𝑛𝑝𝑞 = Desviación estándar de la distribución binomial.

Cuando ocurren las condiciones anteriores, la gráfica de la distribución Binomial, es muy


parecida a la distribución Normal, por lo que es adecuado calcular probabilidades con la
Normal en lugar de con la Binomial y de una forma más rápida. En resumen, se utiliza la
aproximación Normal para evaluar probabilidades Binomiales siempre que p no esté
cercano a 0 o 1. La aproximación es excelente cuando n es grande y bastante buena para
valores pequeños de n si p está razonablemente cercana a ½. Una posible guía para
determinar cuándo puede utilizarse la aproximación Normal es tener en cuenta el cálculo
de np y nq. Sí ambos, np y nq son mayores o iguales a 5, la aproximación será buena. Antes
de empezar a resolver problemas con la aproximación Normal, es bueno aclarar que se
están evaluando probabilidades asociadas a una variable discreta x, con una distribución
que evalúa variables de tipo continuo como es la Normal, Por lo que z sufre un pequeño
cambio como se muestra a continuación:

1
(𝑥 ± 2) − 𝜇
𝑧=
𝜎

4.8- Teorema de Chebyshev


Para demostrar cómo  o 2 son indicadores de la dispersión de la distribución de una
variable aleatoria, probaremos ahora el teorema siguiente, conocido como teorema de
Chébyshev. Este teorema ofrece una especie de garantía mínima acerca de la probabilidad
de una variable aleatoria a suma un valor dentro de k desviaciones estancar alrededor de la
media. Aunque la garantía no siempre es muy precisa, la ventaja de este teorema es su
generalidad por cuanto es aplicable a cualquier variable aleatoria con cualquier distribución
de probabilidad, ya sea discreta o continua.

Teorema de Chébyshev si  y  son, respectivamente, la media y la desviación


estándar de la variable aleatoria X, entonces para una constante positiva k cualquiera la
probabilidad es cuando menos 1-1/k2 de que X tomara un valor contenido en k desviaciones
estándar de la media; en la forma simbólica que se tiene.3

1
p( X    k )  1 
k2

Ejemplo

Si la densidad de la probabilidad de la variable aleatoria X está dada por

630 x 4 Para 0<x<1


f ( x)  
0
en otra parte determine la probabilidad de que X tome un valor contenido en dos
desviaciones estándar de la media y compárela con el límite inferior proporcionado por el
teorema de Chébyshev.

La integración directa muestra que = ½ y 2= 1/44, de manera que = 0.15 por tanto, la
probabilidad de que X tome un valor contenido en dos desviaciones estándar de la media
es la probabilidad de que tome un valor entre 0.20 y 0.80, es decir,
0.80
p(0.20  X  0.80)   630 x 4 (1  x) 4 dx  0.96
0.20

Obsérvese en el enunciado la probabilidad es de 0.96 es mucho más especifico que la


probabilidad es cuando menos de 0.75, enunciando, proporcionando por el teorema de
Chébyshev.

You might also like