You are on page 1of 11

M.

Iniesta Universidad de Murcia

PROBABILIDAD Tema 2.3: Variables aleatorias continuas

Objetivos

Distinguir entre variables aleatorias discretas y continuas. Dominar el uso de las funciones asociadas a una variable aleatoria continua. Conocer el signicado y saber calcular la esperanza y la varianza de una variable aleatoria continua. Conocer y aplicar los modelos continuos ms conocidos.
1. Funcin de Distribucin de una variable aleatoria continua

Una funcin
X:R

es una variable aleatoria si para todo subconjunto B R se tiene X 1 (B ) S , es decir, si X 1 (B ) es un suceso sea cual sea el conjunto B R. El conjunto X () = X se le llamar espacio muestral de la variable aleatoria X , es el conjunto de todos los valores posibles de X y en este caso ser un intervalo de la recta real o incluso podra ser toda la recta real. Denimos la Funcin de Distribucin de una variable aleatoria continua X de la misma forma a como hemos denido esta funcin para variables aleatorias discretas, es decir la funcin real de variable real
F : R [0, 1] xR F (x) := P (X 1 (, x]) = P ({e : X (e) x}) = P (X x)

salvo que en este caso esta funcin es siempre una funcin continua.
1.1. Propiedades de la Funcin de Distribucin de una variable aleatoria continua

Las ms importantes son: 1. Es siempre no decreciente. 2. Tiene dos asntotas horizontales: l mx F (x) = 0 y l mx F (x) = 1. 3. Es siempre continua tanto por la derecha como por la izquierda en todos los puntos. Pgina: 1

M. Iniesta Universidad de Murcia

4. P (a < X b) = P (a X < b) = P (a < X < b) = P (a X b) = F (b) F (a), a, b R. Las propiedades 3 y 4 anteriores signican que P (X = x) = 0 para todo x, por lo que pueden haber sucesos que contengan puntos muestrales y haya que asignarle probabilidad cero; al igual que habrn sucesos que no sean el suceso seguro y haya que asignarles probabilidad uno. Si A = es un suceso con P (A) = 0 decimos que A es un suceso casi imposible. Si A = es un suceso con P (A) = 1 decimos que A es un suceso casi seguro. En una variable continua, por tanto, todos los sucesos X = x son casi imposibles.

sometido a errores, de forma que la longitud resultante es el valor de la variable aleatoria X con espacio muestral X = (l , l + ). Si suponemos equiprobabilidad, asignamos al intervalo (l , x] una probabilidad que sea proporcional a su amplitud, es decir, denimos si x < l ; 0, (xl+) F (x) = , si l x < l + ; 2 1, si x l + . cuya representacin grca es la siguiente:

Ejemplo 1.1 Imaginemos que se construye una varilla y el proceso de fabricacin est

1.2.

Actividades

1. Estudiar si las siguientes funciones pueden ser funciones de distribucin, y representarlas grcamente:

a ) F (x) = 0 si x 0, F (x) = x2 si x (0, 1) y F (x) = 1 si x 1 b ) F (x) = 0 si x < 0 y F (x) = 1 ex si x 0

Pgina: 2

M. Iniesta Universidad de Murcia

2.

Funcin de Densidad

Si X es continua no cabe hablar de probabilidades puntuales, puesto que stas son nulas. En este caso los sucesos no triviales van a ser subintervalos del espacio muestral y a ellos habr que asignar probabilidad. la Funcin de Densidad es la funcin
f : R R+

denida mediante:
f (x) =

dF (x) dx
x

que permite asignar probabilidades a los intervalos de R puesto que se tiene


F (x) =

f (t)dt

y de las propiedades de la funcin de distribucin se derivan las siguientes propiedades de la funcin de densidad: 1.
+

f (x)dx = 1
b a

2. P (a < X b) = P (a X < b) = P (a < X < b) = P (a X b) =

f (x)dx

Estas propiedades podemos visualizarlas en la siguiente gura: la propiedad 1 se traduce en que el rea que encierra toda la curva ha de ser igual a 1; mientras que la propiedad 2 se traduce en que el rea limitada entre la curva y las rectas x = a y x = b es P (a X b).

Ejemplo 2.1 La funcin de densidad de la variable aleatoria del ejemplo (1.1) es


f (x) =
2.1. Actividades

1/2, si x (l , l + ); 0, en el resto.

Estudiar si las funciones siguientes pueden ser funciones de densidad, y en su caso, calcular sus funciones de distribucin: 1. f (x) = x2 si x (0, 2) y f (x) = 0 en el resto Pgina: 3

M. Iniesta Universidad de Murcia

2. f (x) = k (3x + 1) si x (1, 3) y f (x) = 0 en el resto 3. f (x) = k (x2 + 2x + 0.5) si x (0, 2) y f (x) = 0 en el resto 4. f (x) = kx3 si x > 1 y f (x) = 0 en el resto 5. (*) f (x) = x si 0 < x < 1, f (x) = 2 x si 1 < x < 2 y f (x) = 0 en el resto
3. Esperanza y Varianza de una variable aleatoria continua

Con estos parmetros, que denimos a continuacin, pretendemos describir una variable aleatoria respecto a sus caractersticas de centralizacin y dispersin.
3.1. Esperanza Matemtica o Media Terica

La Esperanza o Media Terica de una v.a. E (X ) indica un valor terico al que tendera el valor medio de n realizaciones de X , cuando n tiende a innito. Si X es continua
E (X ) =

xf (x)dx

Ejemplo 3.1 Le esperanza de la variable del ejemplo (1.1) vale


l+

E (X ) =
l

1 dx = l 2

que signica que el valor medio de las longitudes de un gran nmero de varillas es aproximadamente l.
Si X es continua se cumplen las mismas propiedades que en el caso de ser X discreta. stas son las siguientes: 1. Si C es una constante E (C ) = C 2. E (CX ) = CE (X ) 3. Si C y D son constantes y X e Y son v.a. E (CX + DY ) = CE (X ) + DE (Y ) 4. Si X e Y son independientes, se tiene E (X.Y ) = E (X )E (Y ).
3.2. Varianza y Desviacin Tpica

Si denotamos E (X ) mediante y V (X ) mediante 2 , denimos


V (X ) = 2 = E ((X )2 ) = E (X 2 ) 2

Su clculo se realiza mediante la siguiente expresin:


V (X ) = 2 =

x2 f (x)dx 2 =

x2 f (x)dx (

xf (x)dx)2

donde f (x) indica la funcin de densidad de la variable X . Pgina: 4

M. Iniesta Universidad de Murcia

Ejemplo 3.2 La varianza de la variable del ejemplo (1.1) es


l+

V (X ) = 2 =
l

x2

2 1 dx l2 = 2 3

mientras que su desviacin tpica es


D(X ) = 3

Tanto si es discreta como continua, las propiedades de la varianza ms importantes son: 1. Si C es una constante V (C ) = 0 2. V (CX ) = C 2 V (X ) 3. Si C y D son constantes y X e Y son v.a. e independientes, V (CX + DY ) =
C 2 V (X ) + D2 V (Y )

4. Si E (X ) = y D(X ) = , la variable Z =
3.3. Actividades

cumple E (Z ) = 0 y V (Z ) = 1.

1. Calcular la esperanza y la varianza en los casos en donde sea posible de las actividades de las secciones anteriores. 2. Supongamos que un elemento electrnico tiene una duracin X cuya funcin de densidad es f (x) = ex si x > 0 y f (x) = 0 en el resto. Supongamos que el coste de fabricacin un elemento es de 2. El fabricante lo vende por 5, pero garantiza el reembolso total si X < 0.9. Cul es la utilidad neta esperada por el fabricante por cada artculo?.
4. Desigualdad de Tchebychev

Cuando de una variable aleatoria se dispone su funcin de distribucin o su funcin de probabilidad (caso discreto) o su funcin de densidad (caso continuo), es posible calcular la probabilidad asociada a cualquier suceso relativo a dicha variable. Cuando no se conoce la distribucin de probabilidad, o bien s la conocemos pero su manejo resulta bastante complejo, sin embargo s conocemos su esperanza y su varianza, es posible encontrar intervalos de valores de la variable, centrados en su esperanza, que con alta probabilidad contendr el valor de la variable cuando sta sea observada. La Desigualdad de Tchebychev dice si X es una v.a. con E (X ) = y D(X ) = nitas y k > 0 es un nmero cualquiera
P (|X | k ) 1 k2 1 k2

o equivalentemente:
P (X ( k, + k )) 1

Pgina: 5

M. Iniesta Universidad de Murcia

Ejemplo 4.1 Supongamos que sabemos que la variable X =altura de los varones mayores de 20 aos tiene E (X ) = = 175cm y D(X ) = = 7.5cm. Aunque no sepamos la distribucin de probabilidad de X , si tomamos k = 2, la desigualdad anterior dice que
P (X (160, 190)) 0.75

es decir, eso signica que con esos parmetros, al menos el 75 % de la poblacin tiene altura entre los lmites (160, 190).
4.1. Actividades

A, B y C disparan cada uno 20 disparos a un blanco. La probabilidad de que cada tiro alcance el blanco es 0.4 para A, 0.3 para B y 0.1 para C. Los disparos son independientes entre s. Sea X el nmero de blancos alcanzados. 1. Expresar X como suma de v.a. independientes y calcular su media y su varianza. Atencin: Se trata en esta actividad una variable aleatoria discreta. 2. Utilizar la desigualdad de Tchebychev para obtener un intervalo que contenga el nmero total de blancos con una probabilidad mnima de 8/9.
5.
5.1.

Modelos de probabilidad continuos


El modelo Exponencial

El modelo Exponencial de parmetro est ntimamente relacionado con el modelo discreto de Poisson de mismo parmetro . Si la variable X P () signica
X =nmero de veces que ocurre A por unidad de tiempo (da, mes, ao,...)

con nmero medio de veces que ocurre A en dicha unidad de tiempo, la variable
T =Tiempo, en la unidad de tiempo considerada, que transcurre hasta que ocurre A, o

bien el tiempo que transcurre desde la ltima vez que ha ocurrido A hasta la siguiente vez
sigue un modelo exponencial de parmetro con funcin de distribucin dada por
F (t) = 1 et , si t > 0; 0, en el resto.

y funcin de densidad dada por


f (t) = et , si t > 0; 0, en el resto.

Los momentos ms importantes del modelo exponencial son: Pgina: 6

M. Iniesta Universidad de Murcia

E (T ) = V (T ) =

1 1 2

(Tiempo medio hasta que ocurre A)

Aunque el modelo exponencial se utiliza mucho en variables que indican tiempo de vida (en sistemas de la naturaleza) o tiempo de funcionamiento (en sistemas electrnicos), sin embargo la unidad en la que se mide la variable exponencial T no tiene por qu ser necesariamente de tiempo y puede ser una unidad en cualquier dimensin continua. Por ejemplo, si la variable de Poisson mide el nmero de fallos por metro lineal de cierto tipo de cable, podramos asociar a esta variable discreta una variable continua que indicara el espacio en metros, desde el ltimo error detectado hasta el siguiente. Si T es una variable aleatoria cuya distribucin de probabilidad es como la del modelo exponencial, lo indicaremos poniendo
T E ()

Uno de los inconvenientes del modelo exponencial para ser aplicado a la abilidad de sistemas electrnicos es la propiedad de Carencia de Memoria, que se indica poniendo
P (T > t + h|T > t) = P (T > h)

es decir, los sistemas cuya distribucin del tiempo de vida es exponencial no sufren desgaste con el uso, porque, supuesto que el sistema ya ha funcionado correctamente t unidades de tiempo, la probabilidad de que funcione al menos h unidades ms es la misma de que un sistema funcione al menos h unidades de tiempo.

5.1.1. Actividades
1. Demostrar la propiedad de carencia de memoria del modelo exponencial.
5.2. El modelo de Erlang

En las mismas hiptesis que el modelo Exponencial, supongamos ahora que r N con r > 1 y sea
T =espacio que transcurre hasta que sucede A r veces

donde dicho espacio hay que entenderlo en trminos de cualquier magnitud continua: tiempo, longitud, volumen,.... Entonces, la variable T sigue un modelo de Erlang de parmetros r y =nmero medio de ocurrencias del suceso A en un intervalo unidad (de tiempo, longitud, volumen, o la magnitud que corresponda) y su funcin de densidad est dada por:
f (t) =
r tr1 et , (r1)!

0,

si t > 0; en el resto.

Los momentos ms importantes son


E (T ) =
r

(Tiempo medio hasta que ocurre A r veces) Pgina: 7

M. Iniesta Universidad de Murcia

V (T ) =

r 2

Si T es una variable aleatoria cuya distribucin de probabilidad es como la del modelo de Erlang, lo indicaremos poniendo
T E rlang (r, )
5.3. Modelo Uniforme

Una variable aleatoria continua X tiene distribucin uniforme en el intervalo (a, b) si la probabilidad asociada al intervalo (a, x] es proporcional a la amplitud del mismo, es decir, si su funcin de distribucin es:
F (x) = 0, 1,
x a , ba

si x a; si x (a, b); si x b.

En este caso, la funcin de densidad es constante en el espacio muestral X = (a, b) y vale: 1 , si x (a, b); b a f ( x) = 0, si x / (a, b). Adems:
E (X ) = V (X ) =
a+b 2 (ba)2 12

Si X es una variable aleatoria cuya distribucin de probabilidad es como la del modelo Uniforme en (a, b), lo indicaremos poniendo
X U (a, b)
5.4. Modelo Normal

La distribucin de probabilidad continua ms frecuente en experimentos aleatorios, donde se observan magnitudes en poblaciones homogneas es la Distribucin Normal, tambin llamada Campana de Gauss.

Denicin 5.1 Decimos que la variable aleatoria X sigue una distribucin Normal con
E (X ) = y D(X ) = si su funcin de densidad viene dada por f ( x) =
1 x 2 1 e 2 ( ) ; 2

xR

que indicaremos poniendo


X N (, )

Las propiedades ms elocuentes pueden apreciarse en la siguiente grca. Pgina: 8

M. Iniesta Universidad de Murcia

y que son: 1. l mx = l mx = 0 2. f (x) es simtrica respecto a la recta x = , es decir, f ( x) = f ( + x), para todo x R 3. f (x) tiene puntos de inexin en x =
4. Si X N (, ), la variable Z = X se denomina Normal Tipicada y Z N (0, 1). En este caso se va a tener P (Z z ) = P (Z z ), para todo z > 0 y si z = 0 dicha probabilidad vale 0.5.

5. Las sumas de variables aleatorias normales independientes son normales. Es decir, Si Xi N (i , i ), i = 1, ...., n, entonces, X = a0 + a1 X1 + .... + an Xn se distribuye normalmente, es decir, X N (, ) con = E (X ) = a0 + a1 1 + .... + an n y 2 = D(X ) = a2 1 1 + .... + an n . 6. Los intervalos de mayor probabilidad se concentran alrededor de la media . Concretamente, si X sigue una distribucin normal de media y desviacin tpica , que lo indicaremos poniendo
X N (, )

se tiene:
P ( < X < + ) = 0.6827 P ( 2 < X < + 2 ) = 0.9545 P ( 3 < X < + 3 ) = 0.9973

tal y como se muestra en la siguiente gura.

Pgina: 9

M. Iniesta Universidad de Murcia

Otra razn sobre la importancia de la distribucin normal es que el Teorema Central del Lmite establece que todas las variables que puedan expresarse como combinaciones lineales de un nmero sucientemente grande de variables tienen distribucin aproximadamente normal.
5.5. Manejo de la tabla de la distribucin normal

Dada la imposibilidad de poder calcular manualmente valores de la funcin de distribucin del modelo Normal, tablas como la que se incluye a continuacin nos ayudan a calcular probabilidades normales, junto con las propiedades vistas anteriormente, principalmente las de simetra. Las siguientes grcas muestran algunos ejemplos:

5.5.1. Actividades
1. Si X N (4.5, 2.3), calcula P (X < 5), P (2 < X < 7). 2. Si X es la del apartado anterior, calcula en cada caso el valor de a:

a ) P (X < a) = 0.70 b ) P (X > a) = 0.85 c ) P (|X 4.5| a) = 0.95


6. Aproximaciones

El Teorema Fundamental del Lmite es un resultado de suma utilidad en la aproximacin de probabilidades. Bsicamente dice que en condiciones muy generales, las sumas de variables independientes e idnticamente distribuidas tienen distribucin aproximadamente normal, cuando el nmero de sumandos es grande; es decir, si llamamos Sn = X1 + ... + Xn , con E (Xi ) = y D(Xi ) = , entonces si n es grande
Z= Sn n aprox. N (0, 1) n

Pgina: 10

M. Iniesta Universidad de Murcia

En particular, si Sn B(n, p), entonces puede ser expresada como suma de n variables de Bernoulli independientes, es decir, Sn = X1 + ... + Xn con Xi B(p), por lo tanto
Z= Sn np np(1 p)
Sn n

aprox. N (0, 1)

o tambin
Z=

p(1p) n

aprox. N (0, 1)

Pgina: 11

You might also like