You are on page 1of 7

Tema 5

Distribuciones de probabilidad ms a usuales


En este tema se estudiarn algunas de las distribuciones discretas y continuas ms coa a munes, que se pueden aplicar a una gran diversidad de problemas y campos cient cos.

Contenido
5.1. Distribuciones discretas ms usuales . . . . . . . . . . . . . . . . . a 5.1.1. Distribucin de Bernoulli . . . . . . . . . . . . . . . . . . . . . . . . o 5.1.2. Distribucin binomial . . . . . . . . . . . . . . . . . . . . . . . . . . o 5.1.3. Distribucin geomtrica . . . . . . . . . . . . . . . . . . . . . . . . . o e 5.1.4. Distribucin de Poisson . . . . . . . . . . . . . . . . . . . . . . . . . o 5.2. Distribuciones continuas ms usuales a . . . . . . . . . . . . . . . . 5.2.1. Distribucin uniforme . . . . . . . . . . . . . . . . . . . . . . . . . . o 5.2.2. Distribucin normal . . . . . . . . . . . . . . . . . . . . . . . . . . . o 5.2.3. Distribucin exponencial . . . . . . . . . . . . . . . . . . . . . . . . . o 5.3. Teorema del L mite Central . . . . . . . . . . . . . . . . . . . . . . Comentarios bibliogrcos . . . . . . . . . . . . . . . . . . . . . . . . . . a Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19 19 20 21 21 22 22 23 23 25 25 26

5.1.
5.1.1.

Distribuciones discretas ms usuales a


Distribucin de Bernoulli o

Un experimento aleatorio se dice que es de Bernoulli cuando unicamente puede tener dos resultados mutuamente excluyentes; uno de ellos se denomina xito y el otro fracaso. e Ejemplos: Los resultados cara o cruz en el lanzamiento de una moneda. Las piezas defectuosa o no defectuosa en el control de calidad de un producto. 19

TEMA 5. DISTRIBUCIONES DE PROBABILIDAD MAS USUALES

Curso 2007 - 08

Resultado exitoso o fallido de la peticin a un servidor. o Sea X una v. a. asociada a un experimento de Bernoulli y que toma los valores: X(xito) = 1 X(fracaso) = 0 e entonces se dice que X sigue una distribucin de Bernoulli X B(1, p). Su funcin de proo o babilidad viene dada por: Pr(X = 1) = p Propiedades: 1. = E(X) = 0 q + 1 p = p. 2. 2 = Var(X) = E(X 2 ) E 2 (X) = p p2 = pq. Pr(X = 0) = 1 p = q

5.1.2.

Distribucin binomial o

Una sucesin de n pruebas se dice que es de Bernoulli cuando los experimentos indivio duales verican las siguientes condiciones: 1. Las n pruebas son independientes. 2. Cada prueba es de Bernoulli. 3. La probabilidad p de xito es igual en todas las pruebas. e La variable aleatoria denida como nmero de xitos en n pruebas, X B(n, p), se u e dice que sigue una distribucin binomial de parmetros n, p. o a La variable puede tomar los valores {0, 1, 2, . . . , k, . . . , n} y su funcin de probabilidad o es la siguiente: Pr(X = k) = Pr(k xitos en n pruebas) = e donde n k nk p q k

n k

= nmero resultados posibles con k xitos u e pk q nk = P (cada resultado con k xitos) e

Ejemplos: Nmero de veces que aparece el resultado cara al lanzar una moneda diez veces. u Nmero de xitos en la recepcin de un mensaje enviado a 100 destinatarios. u e o Nmero de ordenadores en una subred que han sido infectados por un virus. u Propiedades: Dpto. Estadstica e I.O. y D.M. 20

TEMA 5. DISTRIBUCIONES DE PROBABILIDAD MAS USUALES

Curso 2007 - 08

1. X = X1 + X2 + + Xn , donde X1 , . . . , Xn son variables independientes todas ellas con distribucin B(1, p). o 2. = E(X) = np. 3. 2 = Var(X) = n p q. 4. Dadas X1 B(n1 , p) y X2 B(n2 , p) v.a. independientes, entonces X1 + X2 B(n1 + n2 , p).

5.1.3.

Distribucin geomtrica o e

Sea X la variable aleatoria denida como el nmero de pruebas realizadas hasta que u aparece por primera vez el resultado xito, en pruebas de Bernoulli; entonces se dice que e X G(p) sigue una distribucin geomtrica de parmetro p. o e a Los valores que puede tomar esta variable son {1, 2, . . . , k, . . . } con probabilidades: Pr(X = k) = Pr(F1 F2 . . . Fk E) = q k1 p Ejemplos: Nmero de veces que ha sido necesario ejecutar un programa hasta que falla por primera u vez. Nmero de veces que ha sido necesario enviar un mensaje hasta que fue recibido por el u destinatario. Propiedades: 1. = E(X) = 1 p q . p2 si p > 0.

2. 2 = Var(X) =

Una forma alternativa de representar este experimento es considerar la variable Y que cuenta el nmero de fracasos obtenidos hasta que aparece el primer xito; es evidente que la u e relacin entre las dos variables viene dada por la expresin X = Y + 1. La esperanza de Y es o o q E(Y ) = . La varianza, obviamente, es la misma. p

5.1.4.

Distribucin de Poisson o

La distribucin de Poisson suele emplearse para representar experimentos en los que se o analiza el nmero de veces que ocurre cierto suceso en un intervalo (en general de tiempo). u Los requisitos que deben vericar estas experiencias son las siguientes: 1. Las condiciones experimentales deben ser constantes a lo largo de todo el intervalo. 2. Los resultados del experimento deben ser independientes cuando se reeren a intervalos disjuntos. Dpto. Estadstica e I.O. y D.M. 21

TEMA 5. DISTRIBUCIONES DE PROBABILIDAD MAS USUALES

Curso 2007 - 08

3. La tasa media de aparicin del suceso, en cualquier intervalo de longitud uno, es conso tante y se representa por . 4. La probabilidad de que el suceso ocurra una sola vez en un intervalo de amplitud h sucientemente pequea, debe ser aproximadamente h. n 5. La probabilidad de dos o ms ocurrencias del suceso, en un intervalo sucientemente a pequeo, debe ser prcticamente cero. n a Bajo las anteriores condiciones la variable X = nmero de veces que ocurre el suceso, u se dice que sigue una distribucin de Poisson de parmetro , X P (). Los valores de la o a variable son {0, 1, 2, . . . k . . .} con probabilidades: Pr(X = k) = e Ejemplos: El nmero de part u culas emitidas por una substancia radiactiva en una hora. El nmero de mensajes que llegan a un servidor de correo durante una hora. u Propiedades: 1. = E(X) = . 2. 2 = Var(X) = . 3. Sean X1 P (1 ) y X2 P (2 ) v.a. independientes, entonces X1 + X2 P (1 + 2 ). k k! si k = 0, 1, 2, . . .

5.2.
5.2.1.

Distribuciones continuas ms usuales a


Distribucin uniforme o

Una variable aleatoria X se dice que sigue una distribucin uniforme en [a, b], donde o a b son nmeros reales, X U (a, b), si tiene la siguiente funcin de densidad: u o 1 si a x b, 1 f (x) = ba ba 0 en otro caso. a b Esta distribucin se puede emplear en problemas en los que la probabilidad se reparte o por igual en todo el intervalo. Propiedades: 1. = E(X) = b+a (punto medio del intervalo [a, b]). 2 (b a)2 . 12 22

2. 2 = Var(X) =

Dpto. Estadstica e I.O. y D.M.

TEMA 5. DISTRIBUCIONES DE PROBABILIDAD MAS USUALES

Curso 2007 - 08

5.2.2.

Distribucin normal o

Es la ms importante de las distribuciones continuas ya que permite describir un nmero a u muy grande de fenmenos aleatorios, como por ejemplo aquellos en los que intervienen un o nmero elevado de factores no controlables, que actan de manera independiente y con efectos u u pequeos. n Una v.a. se dice que sigue una distribucin normal X N (; ), si su funcin de o o densidad es:

f (x) =

1 2 2

exp

(x )2 2 2

x R

Propiedades: 1. E(X) = . 2. Var(X) = 2 . 3. Si X1 N (1 ; 1 ) y X2 N (2 ; 2 ) son v.a. independientes, entonces se verica que: 2 2 X = X1 + X2 N (1 + 2 ; 1 + 2 ). 4. Sea X N (; ) entonces Y = a + bX, con b = 0, sigue una distribucin normal o N (a + b; |b|). 5. La funcin de distribucin de cualquier distribucin N (; ) se puede calcular utilizano o o do la distribucin N (0; 1) o normal tipicada. o P (X x) = P donde Z = cada. x X = P (Z z)

X x es la normal tipicada y z = se denomina puntuacin tipio

6. La funcin de densidad de la normal no admite primitiva y su funcin de distribucin se o o o calcula de manera aproximada. En lugar de tener que realizar esos clculos aproximados a para cada par de valores y , la propiedad anterior permite emplear las tablas de la N (0; 1) para obtener la funcin de distribucin de cualquier normal. o o

5.2.3.

Distribucin exponencial o

En un experimento de Poisson en el que se observa la ocurrencia de un suceso E en un intervalo de tiempo, donde > 0 representa el nmero medio de sucesos que ocurren por u unidad de tiempo, puede ser de inters el tiempo que transcurre entre dos sucesos consecutivos. e Dpto. Estadstica e I.O. y D.M. 23

TEMA 5. DISTRIBUCIONES DE PROBABILIDAD MAS USUALES

Curso 2007 - 08

En este caso, la v.a. T = tiempo entre dos sucesos consecutivos es continua y su distribucin o se calcula de la siguiente manera: P (T t) = 1 P (T > t) = 1 P (X = 0) = 1 et ya que el suceso (T > t) signica que en el intervalo (0, t] no apareci en ninguna ocasin o o el suceso E. Se dice entonces que T tiene distribucin exponencial de parmetro , que se o a denotar por T Exp() y su funcin de distribucin viene dada por: a o o FT (t) = y su funcin de densidad es: o 1 et si t > 0, 0 en otro caso,

f (t) =

et si t > 0, 0 en otro caso.

Ejemplo: Tiempo que tarda una cierta cantidad de una substancia radiactiva en reducir su masa a la mitad. Tiempo transcurrido entre la llegada de dos clientes consecutivos a una tienda. Propiedades: 1. E(T ) = 1 . 1 . 2

2. Var(T ) =

3. Pr[T > (t + h) | T t] = Pr[T > h]. Esta probabilidad solo depende de la amplitud del intervalo [t, t + h), pero no del valor concreto de t y nos referiremos a ella diciendo que la distribucin exponencial no tiene o memoria. Para comprender el signicado intuitivo de esta propiedad supongamos que estamos analizando una variable que representa el tiempo transcurrido hasta que un sistema falla, como por ejemplo el tiempo de semi-desintegracin de una materia radiactiva o o la vida de una persona. Si esta variable se ajustase a una distribucin exponencial, o signicar que la probabilidad de que el sistema dure diez aos ms, es independiente a n a de lo antiguo que sea. Esto puede ser cierto para una materia radiactiva, pero suele resultar falso para una persona. Dpto. Estadstica e I.O. y D.M. 24

TEMA 5. DISTRIBUCIONES DE PROBABILIDAD MAS USUALES

Curso 2007 - 08

5.3.

Teorema del L mite Central

Sean X1 , X2 , . . . , Xn variables aleatorias independientes e idnticamente distribuidas e tales que E(Xi ) = y Var(Xi ) = 2 para todo i. Entonces, Sn = X1 + + Xn o equivalentemente X1 + + Xn X= n
aprox. aprox.

N (n, n). , n

La aproximacin se considera vlida para valores grandes de n. Es importante recordar o a que segn este resultado la suma de un nmero sucientemente grande de variables indepenu u dientes del mismo tipo sigue una distribucin normal, incluso en el caso de que se desconozca o la distribucin que siguen los sumandos Xi . o Como consecuencia del Teorema del L mite Central, se obtienen las aproximaciones de las distribuciones binomial y de Poisson por la distribucin normal. o Si X B(n, p) entonces X = n Xi donde cada Xi B(1, p). Por tanto, el TLC i=1 permite aproximar la distribucin de esta variable por la distribucin N (np; npq) o o cuando n es sucientemente grande y p un valor ni prximo a 0 ni prximo a 1. En o o general se suele trabajar con la aproximacin para n 30 y 0,1 < p < 0,9. o Teniendo en cuenta la propiedad de reproductividad de la variable de Poisson, el TLC permite aproximar la distribucin de Poisson de parmetro mediante la distribucin o a o N (, ), para valores grandes de . En la prctica, se considera que si > 5 la a aproximacin a la normal es buena. o

Comentarios bibliogrcos a
El bloque correspondiente al Clculo de probabilidades, formado por los Temas 3, 4 a y 5 del programa de la asignatura es desarrollado en mayor o menor profundidad por la mayor de los textos de estad a stica recomendados en la bibliograf Sirvan como ejemplo los a. siguientes: Temas 3, 4 y 6 de Introduccin a la Estad o stica y sus aplicaciones. CAO ABAD, R. et al. Ediciones Pirmide, 2001. a Tema 2, 3 y 4 de Probabilidad y Estad stica para Ingenier y Ciencias. DEa VORE, J.L. International Thomson Editores, 2002. Temas 4 y 5 de Fundamentos de Estad stica. PENA SANCHEZ DE RIVERA, D. Alianza Editorial, 2001. Temas 2, 3 y 4 de Probabilidad y Estad stica para Ingenier SCHEAFFER R.L. a. & McCLAVE J. Grupo Editorial Iberoamericano, 1993.

Dpto. Estadstica e I.O. y D.M.

25

You might also like