You are on page 1of 27

Fascculo

Estadstica y
Probabilidad
Semestre 6

Estadstica y probabilidad

Semestre 6

Estadstica y probabilidad

Tabla de contenido

Pgina

Introduccin

Conceptos previos

Mapa conceptual Fascculo 2

Logros

Probabilidad - Variables Aleatorias. Distribuciones

Distribuciones discretas

Distribuciones continuas

Mezclas

13

Transformaciones de variables aleatorias


Aplicaciones a simulacin

14
16

Distribucin conjunta de varias variables

17

Independencia de variables aleatorias

18

Resumen

20

Bibliografa recomendada

21

Nexo

21

Seguimiento al autoaprendizaje

23

Crditos: 3
Tipo de asignatura: Terico Prctica

Semestre 6

Estadstica y probabilidad

Copyright2008 FUNDICIN UNIVERSITARIA SAN MARTN


Facultad de Universidad Abierta y a Distancia,
Educacin a Travs de Escenarios Mltiples
Bogot, D.C.
Prohibida la reproduccin total o parcial sin autorizacin
por escrito del Presidente de la Fundacin.
La redaccin de este fascculo estuvo a cargo de
JOHN FREDY MORALES
Docente tutor Programa de Ingeniera de Sistemas a Distancia.
Sede Bogot, D.C.
Correccin de estilo
MARLON CARRERO R.
Diseo grfico y diagramacin a cargo de
SANTIAGO BECERRA SENZ
ORLANDO DAZ CRDENAS
Impreso en: GRFICAS SAN MARTN
Calle 61A No. 14-18 - Tels.: 2350298 - 2359825
Bogot, D.C., Junio de 2012

Semestre 6

Estadstica y probabilidad

Introduccin
En el lenguaje de la probabilidad y la estadstica, el total que lanzamos con
un par de dados es una variable aleatoria, el tamao de la familia de una
pareja escogida aleatoriamente y su ingreso de un foco incandescente escogido aleatoriamente para inspeccin.
Puesto que asociar un numero con cada punto (elemento) de un espacio
muestral es simplemente otra forma de decir que estamos definiendo una
funcin sobre los puntos de un espacio muestral.
Si s es un espacio muestral con una medida de probabilidad y x es una
funcin de valor real definida sobre los elementos de s, entonces x se llama una variable aleatoria.
Una variable x es una variable aleatoria si los valores que toma corresponden a los distintos resultados posibles de un experimento, y por ello el
hecho de que tome un valor particular es un evento aleatorio.
Por ejemplo: Considere el muestreo de 20 consumidores a los que se les
preguntaba su preferencia por el envase A o B. El nmero de consumidores que prefiera el envase A puede considerarse como una variable aleatoria y que puede tomar cualquiera de los valores 0,1, 2.... 20. Cada uno de
estos valores corresponden a un resultado posible del experimento consiste en la extraccin de la muestra de 20 consumidores y el consiguiente
registro del nmero de ellos prefiere el envase A.
La variable X es una variable aleatoria ya que el valor que tomara al llevar a
cabo el experimento no puede predecirse con certeza; esto es, por el
hecho de que tome un valor determinado.

Fascculo No. 2
Semestre 6

Estadstica y
probabilidad

Estadstica y probabilidad
En los ejemplos que se han dado nos hemos limitado nuestro anlisis a
espacios muestrales discretos, y por tanto variables aleatorias discretas,
a saber, variables aleatorias cuyo intervalo es finito o infinito numerable.

Conceptos previos
Un experimento es cualquier situacin u operacin en la cual se pueden
presentar uno o varios resultados de un conjunto bien definido de posibles
resultados.
Los experimentos pueden ser de dos tipos segn si, al repetirlo bajo idnticas condiciones:
Determinstico: Se obtienen siempre los mismos resultados.
Ejemplo: medir con la misma regla e idnticas condiciones, la longitud de
una barra.
Aleatorio: No se obtienen siempre los mismos resultados.
Ejemplo: el lanzamiento de una moneda observando la sucesin de caras
y sellos que se presentan.

Mapa conceptual fascculo 2

Estadstica y
probabilidad

Fascculo No. 2
Semestre 6

Estadstica y probabilidad
Logros

Al finalizar el estudio del presente fascculo, el estudiante estar en capacidad


de:
Aprender a identificar variables aleatorias y clasificarlas en discretas o continuas.
Conocer las propiedades bsicas de los modelos probabilsticos discretos.
Adquirir destreza en el clculo de probabilidades mediante el uso de las tablas probabilsticas.

Probabilidad - Variables Aleatorias. Distribuciones


La idea intuitiva de una variable aleatoria es un valor que depende del resultado de un experimento aleatorio. Ms formalmente tenemos: Una variable aleatoria con valores en un conjunto X es una funcin de:
El caso ms usual es X = R, y mientras no se diga otra cosa, nos referiremos a variables aleatorias con valores reales. En general se denotarn las
variables aleatorias con letras maysculas: X, Y,. . ., y las minsculas correspondern a constantes (es decir, cantidades no aleatorias). Para abreviar, escribiremos variable en vez de variable aleatoria.
Ejemplo: Se arroja un dado 2 veces, de modo que = {(1,2)} con
1,2 {1, . . . , 6}. Ejemplos de variables definidas para este experimento son:
X = nmero de veces que sali as = card{i : i = 1}
Y = suma de los resultados = 1 + 2
Z = resultado del segundo tiro = 2.
La funcin de distribucin (FD) de una variable X es la funcin FX de R R
definida por: FX(x) = P( : X() x) (o abreviadamente, P(X x) ).
En general, lo que importa de una variable es su funcin de distribucin,
ms que su expresin explicita como funcin definida en algn . El sub-

Fascculo No. 2
Semestre 6

Estadstica y
probabilidad

Estadstica y probabilidad
ndice X de FX se omitir si no hay ambigedad. Se escribir X F para
indicar que la variable X tiene funcin de distribucin F.
Propiedades de la Funcin de Distribucin
En matemticas, una funcin entre conjuntos ordenados se dice montona (o
istona) si conserva el orden dado.

Proposicin: Sea F la FD de X. Entonces:

Una funcin f est acotada


superiormente si existe un
nmero real k tal que para
toda x es f(x) k

c) lim xF(x) = 1, lim xF(x) = 0

a) a < b P(a < X b) = F(b) F(a)


b) a < b F(a) F(b) (F es no decreciente)
d) x R : P(X = x) = lim tx+F(t) lim txF(t) (el salto de F en x)
e) x R : F(x) = lim tx+F(t) (continuidad por la derecha).
Demostracin:
a) Sean respectivamente A y B los eventos {X a} y {X b}. Entonces A
B, y P(a < X b) = P(B A) = P(B) P(A) = F(b) F(a).
b) Por (a): F(b) F(a) = P(B A) 0.
c) Como F es montona y acotada (pues 0 F 1), existe el lim x
F(x), el que adems es igual al lim nF(n) para n entero. Basta
probar que este ltimo lmite es 1. Para ello consideremos la sucesin
de eventos An = {X n}, los cuales cumplen An An+1, y
adems

. Entonces por P4 de la definicin es P() =lim

nP(An) = lim nF(n).


El otro lmite se prueba usando los eventos {X n}.
d) Se razona igual que en la demostracin de (c), definiendo los eventos

que cumplen:

e) Se demuestra con el mismo mtodo.

Estadstica y
probabilidad

Fascculo No. 2
Semestre 6

Estadstica y probabilidad
Ejemplo 3.B: Se arroja una vez un dado equilibrado. Se toma = {1, . . . ,
6}. Sea la variable X el resultado. Para calcular la FD de X, notemos que si
x < 1, es {X x} = y por lo tanto F(x) = 0. Si 1 x < 2, es {X x} =
{1}, de modo que F(x) = P({1}) = 1/6,. . . ,etc. Finalmente si x 6, es {X
x} = lo que implica F(x) = 1. Por lo tanto F es una escalera con saltos en x = 1, 2, . . . , 6, todos de tamao 1/6.
Si F es una funcin que cumple las propiedades b, c y e anteriores, se dice
que F es una funcin de distribucin. Se puede probar que toda funcin
con dichas propiedades es la FD de alguna variable aleatoria.

Distribuciones discretas
La variable X tiene distribucin discreta si hay un conjunto C R, finito o
infinito numerable, tal que P(X C) = 1.
Sea para x C: pX(x) = P(X = x). Entonces es fcil verificar que si A R:

En particular,

Si A = (, t] resulta

y por lo tanto FX es una escalera con saltos en los x C, de tamao pX(x).


La funcin pX de C en [0, 1] es llamada funcin de frecuencia.
Una distribucin discreta est dada por un conjunto finito o infinito numerable C R, una funcin p(x) 0 definida para x C, que cumpla

Fascculo No. 2
Semestre 6

Estadstica y
probabilidad

Estadstica y probabilidad

Distribuciones discretas importantes (todas con C Z+)


Distribucin binomial con parmetros n y p:

Es la distribucin de la cantidad de xitos en un esquema de Bernouilli.


Desde ahora se la abreviar como Bi(n, p). Dado que los p(x) corresponden a la distribucin de una variable, automticamente cumplen

Una verificacin algebraica se puede obtener haciendo el desarrollo del


binomio 1 = [p + (1 p)]n (lo cual explica adems el nombre de binomial).
Si A es cualquier conjunto, se llama indicador de A y se lo escribe IA o
I(A) a la funcin que vale 1 en A y 0 en A.
En Anlisis se la suele llamar funcin caracterstica de un conjunto; pero
en Teora de Probabilidad este ltimo nombre recibe otro uso, por lo cual
se prefiere el de indicador.
En particular, si A es un evento con probabilidad p, X = IA es una variable discreta con P(X = 1) = p, P(X = 0) = 1 p; o sea, con distribucin
Bi(1, p). En el esquema de Bernouilli, si Ai es el evento xito en el intento
i-simoy X es la cantidad de xitos en n intentos, es

Estadstica y
probabilidad

Fascculo No. 2
Semestre 6

Estadstica y probabilidad
y por lo tanto toda variable con distribucin binomial se puede expresar
como suma de indicadores.
Distribucin de Poisson con parmetro :

Aparece en el proceso de Poisson temporal como la distribucin de la variable cantidad de sucesos en el intervalo [0, t). Se la indicar con Po().
Es fcil verificar recordando la serie de Taylor para la funcin exponencial.
Distribucin geomtrica con parmetro p (0, 1):

Es la distribucin del nmero del intento en que se da por primera vez un


xito en el esquema de Bernouilli. Se la indicara con Ge(p). Es fcil probar
que cumple, recordando que,

Distribucin binomial negativa con parmetros p [0, 1] y m Z+:

Es la distribucin de nmero del intento correspondiente al m-simo xito


en un esquema de Bernouilli, de modo que la geomtrica es el caso particular m = 1.
Es necesario probar, pues podra ser que nunca hubiera m xitos. Para ello
basta con derivar m veces la identidad.

Fascculo No. 2
Semestre 6

Estadstica y
probabilidad

Estadstica y probabilidad

Distribucin hipergeomtrica con parmetros N,M, n (M N, n N):

Si se extraen n bolillas sin remplazo de entre N bolillas, de las cuales exactamente M son blancas, entonces esta es la distribucin de la cantidad de
bolillas blancas extradas. Se la indicar con Hi(N,M, n). El nombre hipergeomtrica tiene un origen ajeno a la Teora de Probabilidad. Para verificarla, se puede razonar en forma probabilstica como en el caso binomial, dado que los p(x) corresponden a la distribucin de una variable aleatoria, la validez de (3.2) est automticamente garantizada.
Distribucin uniforme discreta en el intervalo [n1, n2] (con n1 n2):

n2 n1 + 1
Ejemplos simples son los juegos de azar honestos: un tiro de un dado
equilibrado (n1 = 1, n2 = 6) o de ruleta (n1 = 0, n2 = 36). Un uso ms interesante es la generacin computacional de nmeros pseudoaleatorios.
Un nmero pseudo-aleatorio es un nmero generado en un proceso que
parece producir nmeros al azar, pero no lo hace realmente. Las secuencias de nmeros pseudo-aleatorios no muestran ningn patrn o regularidad aparente desde un punto de vista estadstico, a pesar de haber sido
generadas por un algoritmo completamente determinista, en el que las
mismas condiciones iniciales producen siempre el mismo resultado.

Estadstica y
probabilidad

Fascculo No. 2
Semestre 6

Estadstica y probabilidad
Distribuciones continuas
Una variable X tiene distribucin absolutamente continua si existe una funcin fX : R R+ llamada densidad de X tal que

En particular, tomando A = (a, b] resulta para todo intervalo:

Si se hace a = queda

y por lo tanto

Aplicando el Teorema Fundamental del Clculo Integral, se obtiene que


para una distribucin absolutamente continua, FX(x) es una funcin continua para todo x, y su derivada es fX(x) en todos los x donde fX es continua.
De la continuidad de FX y de la propiedad (d) de la proposicin, se deduce
que para todo x, es P(X = x) = 0; y por lo tanto P(X x) = P(X < x).
Como la expresin absolutamente continua es demasiado larga, se suele
hablar simplemente de distribuciones continuas. Sin embargo, hay que
tener en cuenta que el hecho de que FX sea una funcin continua, no implica que la distribucin de X sea absolutamente continua: hay funciones
montonas y continuas, que sin embargo no son la primitiva de ninguna
funcin. Por lo tanto, no es lo mismo una funcin de distribucin continua
que una distribucin (absolutamente) continua.
Fascculo No. 2
Semestre 6

Estadstica y
probabilidad

Estadstica y probabilidad

Si f es cualquier funcin que cumple f 0 y

, se dice

que f es una densidad.


El nmero fX(x) no es la probabilidad de nada (podra incluso ser > 1). Sin
embargo, se le puede hallar una interpretacin intuitiva cuando fX es continua. En ese caso

donde o es un innitsimo de orden mayor que ; de manera que fX(x)


sirve para aproximar la probabilidad de un intervalito alrededor de x.
El subndice X se omitir de fX cuando no haya lugar a confusin.
Distribuciones continuas importantes
Distribucin exponencial con parmetro > 0: tiene funcin de distribucin

y por lo tanto su densidad es

o, ms compactamente:

donde I es el indicador. Se denotara a esta distribucin con Ex().


Distribucin uniforme (o rectangular) en el intervalo [a, b]. Se define por
su densidad:

Estadstica y
probabilidad

10

Fascculo No. 2
Semestre 6

Estadstica y probabilidad
o, ms compactamente, f(x) = (ba)1 I(a x b). Se la indicar con
Un(a, b). Cuando se hable de elegir un punto al azar en un intervalo, se
referir siempre a la uniforme si no se dice otra cosa.
Una situacin donde se podra aplicar es: el tiempo de espera de un pasajero que llega a la parada de un tranva del que sabe que pasa exactamente cada 10 minutos, pero ignora el horario. Una representacin de esta ignorancia podra obtenerse suponiendo que el tiempo de espera tiene distribucin uniforme en (0,10).
Distribucin normal (o Gaussiana) Se define primero la densidad normal
tpica (o standard) como

Obviamente es > 0. Para verificar que es una densidad, falta comprobar


que
Sea
Hay que probar que a2 = 2. Para ello, notar que

y tomando, en la integral doble, coordenadas polares (r, ) queda

Desde ahora se indicarn con y la densidad normal tpica y la correspondiente funcin de distribucin. La funcin no se puede calcular en
forma explcita.
Fascculo No. 2
Semestre 6

11

Estadstica y
probabilidad

Estadstica y probabilidad
Se define la distribucin normal con parmetros R y 2 (con > 0) y
se la escribe N(, 2) a la distribucin definida por la densidad.

as que la normal tpica es N(0, 1).


Distribucin de Weibull con parmetros > 0 y > 0 : tiene funcin de
distribucin

Se la denotar We(, ). Es usada en Confiabilidad para modelizar tiempos


de falla, y en Hidrologa para distribuciones de valores extremos. Para =
1 se tiene la exponencial.
Distribucin Gama con parmetros y . Primero definimos la funcin
Gama:

Es fcil verificar integrando por partes que


, resulta

. Como
para n natural, de modo que

esta funcin generaliza el factorial. Ahora se define la densidad de la distribucin Gama:

Se usa para modelizar tiempos de espera. En el proceso de Poisson con


intensidad c, sea T el instante en que se produce el m-simo suceso.

Estadstica y
probabilidad

12

Fascculo No. 2
Semestre 6

Estadstica y probabilidad
Dado t > 0, sea N la cantidad de sucesos en el intervalo [0, t]. Entonces T
> t N < m, y como N Po(ct), es

y derivando se obtiene la densidad de T:

y por lo tanto

Mezclas
Consideremos dos especies de peces. La longitud de los de la primera
tiene distribucin G1, y los de la segunda G2. Si nadan mezclados por el
mar, en proporciones 10% y 90%, entonces la distribucin de la longitud L
de un pez capturado al azar de la poblacin conjunta se obtiene por la regla de Probabilidad Compuesta. Sean A1 y A2 los eventos de que el pez
pertenezca a la especie 1 o la 2. Entonces

con = 0.1. Esto se llama mezcla de G1 y G2. Si ambas son continuas,


tambin lo es su mezcla; lo mismo sucede si son discretas. Pero si son una
discreta y otra continua, la mezcla no es ninguna de las dos cosas.
Ejemplo: Datos censurados El tiempo de duracin de una lmpara tiene
funcin de distribucin G con densidad g. La lmpara es remplazada
cuando se quema, o cuando ha funcionado por h horas (lo que suceda
primero). Sea T el tiempo hasta el remplazo.

Fascculo No. 2
Semestre 6

13

Estadstica y
probabilidad

Estadstica y probabilidad
Entonces FT (t) = G(t) si t < h, y FT (t) = 1 si t h; de modo que FT es
continua hasta h, pero tiene un salto en h, de tamao 1G(h). Esto se llama una distribucin censurada por la derecha. Esta es una de mezcla de
una distribucin continua con una discreta:
FT = pG1+(1p)G2, donde p = G(h), G1 es la distribucin con densidad
g(x)I(x < h)/p, y G2 es la distribucin concentrada en h : G2(t) = I(t h).
De manera que aqu tenemos un ejemplo concreto de una distribucin que
no es ni continua ni discreta.
Aqu los datos mayores que h no se sabe cunto valen, pero se sabe que
estn. Hay situaciones en que los valores fuera de un intervalo no llegan a
dar seas de que existen. Esas son distribuciones truncadas.

Transformaciones de variables aleatorias


Sean X una variable, h una funcin de R en R, e Y = h(X). Cmo calcular
FY conociendo FX?.
Al menos en un caso hay una respuesta simple. Sea I un intervalo (finito o
infinito, puede ser I = R) tal que P(X I) = 1, y que h sea creciente y continua en I. Entonces existe la inversa h1 , que es tambin creciente, y por
lo tanto

Si X tiene distribucin continua, y si h es diferenciable, derivando sale, que

Note que no es necesario que h sea creciente en todo R. Por ejemplo, si X


0 e Y = X2, se puede aplicar (3.15) porque h es creciente en R+. Si h es
decreciente, el mismo razonamiento muestra que
Estadstica y
probabilidad

14

Fascculo No. 2
Semestre 6

Estadstica y probabilidad

Por ejemplo, esto muestra que D(1 U) = D(U) si U Un(0, 1).


Ejemplo: Sea U Un(0, 1), y sea Z la longitud de aquel de los segmentos
(0,U), (U, 1), que contiene al punto 0.5. Se trata de calcular D(Z).
Notemos que Z [0.5, 1], y que Z = h(U), donde

Esta h no es montona (grafquela), pero se ve enseguida que para z


[0.5, 1] es

de modo que la densidad es f (z) = 2 I(0.5 z 1), o sea, Z Un(0.5, 1).


Es fcil probar que si X tiene densidad f, entonces cX |c|1f(x/|c|), y X +
c f(x c). Una familia de distribuciones f de la forma f(x) = c1f0(x/c)
para c > 0 donde f0 es una densidad dada se llama familia de escala, y
c es un parmetro de escala. Una familia de la forma f(x) = f0(xc) es una
familia de posicin o traslacin.
La exponencial es una familia de escala, y la normal es de escala y posicin.
Ejemplo: Weibull La Weibull se puede expresar como una familia de escala y posicin tomando logaritmos. En efecto, si X F = We(, ), entonces
Y = lnX tiene FD: G(y) = F(ey) = H((y )/) donde H(y) = 1 eey, =
ln y = 1/.
Una distribucin que cumple

Fascculo No. 2
Semestre 6

15

Estadstica y
probabilidad

Estadstica y probabilidad
se llama simtrica respecto de c. Es inmediato que si X tiene densidad f y
FD F, es equivalente a

En particular, N(, 2) es simtrica respecto de por ser una funcin


par, o sea, (x) = (x).

Aplicaciones a simulacin
Cmo simular en un computador situaciones donde interviene el azar?. Si
bien el computador es (generalmente) un aparato determinista, se puede
hacer que genere nmeros seudoaleatorios que no son aleatorios, pero
lo parecen que podemos tomar como valores de variables con distribucin Un(0, 1). Nuestro punto de partida es que se cuenta con un generador
de nmeros aleatorios: un algoritmo que produce una sucesin de nmeros que se pueden considerar como aleatorios con distribucin uniforme
en el intervalo [0, 1]. En realidad, se trata de una distribucin discreta, pero
prcticamente indistinguible de Un(0, 1).
Suponiendo entonces que contamos con una variable U Un(0, 1), la
cuestin es cmo tener de ella una variable con distribucin F dada cualquiera.
Sea F una funcin de distribucin continua y creciente, y definimos

Entonces

lo que muestra que

De esta forma se pueden obtener variables con funcin de distribucin F


dada, si F es continua y creciente. Por ejemplo, para generar la distribucin Ex(), es

Estadstica y
probabilidad

16

Fascculo No. 2
Semestre 6

Estadstica y probabilidad

y por lo tanto se puede definir


Este mtodo se puede extender tericamente para F cualquiera. Pero no
siempre es prctico calcular F1, y en esos casos conviene usar mtodos
que usan propiedades especcas de la F que interesa.

Distribucin conjunta de varias variables


Si X e Y son dos variables definidas en el mismo , podemos considerarlas
como un par de variables, o como una funcin que a cada le asigna
el punto del plano de coordenadas (X(w), Y (w)), o sea, una variable aleatoria con valores en R2.
Denicin: La funcin de distribucin conjunta de (X, Y ) es una funcin de
R2 R:

O sea, FX,Y (x, y) = P((X, Y ) A) donde A es el rectngulo (, x] (,


y]. El subindice X, Y se omitir cuando no haya lugar a confusin. As
como en el caso de una variable, conociendo su funcin de distribucin se
puede calcular fcilmente la probabilidad de un intervalo, el siguiente resultado da para dos variables la probabilidad de cualquier rectngulo a partir
de FX,Y.
Proposicin Si a < b y c < d, es

Demostracin: Basta con descomponer el rectngulo (a, b] (c, d] en


rectngulos semi - innitos como los que aparecen en la definicin de F:

Fascculo No. 2
Semestre 6

17

Estadstica y
probabilidad

Estadstica y probabilidad
y descomponiendo de la misma forma cada uno de los dos trminos, se
llega al resultado.
Se dice que X, Y tienen la misma distribucin conjunta que X, Y, si P((X, Y
) A) = P((X,Y) A) A R2. Se lo escribe D(X, Y) = D(X,Y).
La distribucin conjunta de (X, Y ) es discreta si existe un conjunto C R2
nito o innito numerable, tal que P((X, Y ) C) = 1. En tal caso se usar la
notacin pX,Y (x, y) = P(X = x Y = y) para (x, y) C, y pX,Y ser llamada
funcin de frecuencia conjunta.

Independencia de variables aleatorias


Las variables X e Y son independientes si para todo A, B R, los eventos
{X A} e {Y B} son independientes.
Tomando A = (, x] y B = (, y] se deduce que la independencia implica

La implicacin inversa es tambin vlida, pero la demostracin no es elemental.


Se verica fcilmente que la independencia de X e Y equivale en el caso
discreto a

y en el continuo a

La independencia de X e Y equivale a que existan funciones g y h tales que

Estadstica y
probabilidad

18

Fascculo No. 2
Semestre 6

Estadstica y probabilidad
Ejemplo 3.I: Tiempos de espera: Bernouilli En el esquema de Bernouilli sea
S el nmero del intento en que se produce el primer xito, y T la cantidad
de intentos entre el primer y el segundo xitos, de modo que U = S + T es
el intento en que se da el segundo xito. Mostraremos que S y T son independientes. En efecto, el evento {S = s T = t} equivale a {S = s U = s
+ t}, o sea, que haya xitos en los intentos s y s + t y fracasos en los dems, es decir

que es una funcin de s por una de t, y por lo tanto S y T son independientes. Adems se deduce que T tiene la misma distribucin que S, o sea
Ge(p); y en consecuencia los tiempos de espera entre xitos sucesivos
tienen la misma distribucin que el tiempo entre el comienzo y el primer
xito, lo que corresponde a la idea intuitiva de que el proceso no tiene
memoria. Como si eso fuera poco, resulta sin hacer ninguna cuenta que la
suma de dos geomtricas independientes con el mismo parmetro es binomial negativa.
La nocin de independencia se extiende en forma natural para cualquier
conjunto nito o innito de variables.
Denicin Las variables X1, . . . ,Xm son independientes si para todo A1, . .
. ,Am R, los eventos {Xi Ai}(i = 1, . . . ,m) son independientes. Las variables Xi, i = 1, 2, . . .(sucesin innita) son independientes si para todo m,
son X1, . . . ,Xm independientes.
Esto nos permite completar el concepto de un generador (idealizado) de
nmeros aleatorios, como un algoritmo capaz de producir una sucesin
innita de variables Un(0, 1) independientes.

Fascculo No. 2
Semestre 6

19

Estadstica y
probabilidad

Estadstica y probabilidad

Las variables aleatorias son la descripcin numrica del resultado de un


experimento. Pueden ser:
Variable aleatoria discreta: puede tomar una secuencia de valores finita
o infinita.
Variable aleatoria continua: puede tomar cualquier valor en un intervalo
o en una coleccin de intervalos. Ejemplo, peso, tiempo, temperatura.
Lo ms importante para una variable aleatoria es su funcin de distribucin
y las propiedades de esta las cuales permitirn resolver con facilidad dicha
funcin.
La probabilidad P(X = x) es la probabilidad de que X realiza el valor x. Del
mismo modo, la probabilidad P(a < X < b) es la probabilidad de que X se
encuentre entre a y b.
Estas probabilidades pueden ser estimadas, o teorticas (modeladas). Para una variable aleatoria finita, la coleccin de nmeros P(X = x) a medida
que varia x se llama la distribucin de probabilidad de X. Es frecuentemente til representar grficamente la distribucin de probabilidades por un
histograma.
Las distribuciones pueden ser discretas, dentro de las cuales las ms importantes son: distribucin binomial, distribucin de Poisson, distribucin
geomtrica, distribucin binomial negativa, distribucin hipergeomtrica,
distribucin uniforme discreta.
Y Continuas, dentro de las cuales las ms importantes son: distribucin
exponencial, distribucin uniforme (o rectangular), distribucin normal (o
Gaussiana), distribucin de Weibull, distribucin gama.

Estadstica y
probabilidad

20

Fascculo No. 2
Semestre 6

Estadstica y probabilidad
Las distribuciones son importantes por ejemplo en procesos de simulacin
para la generacin de nmeros seudoaleatorios.

CANAVOS C., GEORGE. Probabilidad y estadstica para ingenieros.


Editorial McGraw Hill, octava edicin, 1995.
FELLER, W. (1980), Introduccin a la Teora de Probabilidad y sus Aplicaciones, Editorial Limusa.
LARSON, HAROLD J. Introduccin a la teora de probabilidades e
inferencia estadstica. Editorial Limusa Noriega, dcima primera edicin,
1994.
MONTGOMERY, DOUGLAS Y HINES, WILLIAM. Probabilidad y estadstica
aplicadas a la ingeniera. Editorial McGraw Hill, cuarta edicin, 1993.
WALPOLE, RONALD E. Probabilidad y estadstica para ingenieros. Editorial
Prentice Hall Hispanoamericana S.A., sexta edicin, 1999.

En clculo diferencial, el teorema de valor medio (de Lagrange), tambin


llamado teorema de los incrementos finitos, teorema de Bonnet-Lagrange
o teora del punto medio, es una propiedad de las funciones derivables en
un intervalo. Algunos matemticos consideran que este teorema es el ms
importante de clculo (ver tambin el teorema fundamental del clculo integral). El teorema no se usa para resolver problemas matemticos; ms
bien, se usa normalmente para demostrar otros teoremas. El teorema de
valor medio puede usarse para demostrar el teorema de Taylor ya que es
un caso especial. Por estas razones el siguiente fascculo se abordara este
teorema y otros parmetros importantes asociados a la probabilidad.

Fascculo No. 2
Semestre 6

21

Estadstica y
probabilidad

Estadstica y probabilidad

Estadstica y
probabilidad

22

Fascculo No. 2
Semestre 6

Estadstica y probabilidad

Seguimientoal autoaprendizaje
Estadstica y probabilidad - Fascculo No. 2
Nombre_______________________________________________________
Apellidos ________________________________ Fecha: _________________
Ciudad___________________________________Semestre: _______________
Calcular la funcin de distribucin de la geomtrica
1. Hallar la constante c tal que f(x) = c/(1+ x2) sea una densidad. Calcular la correspondiente funcin de distribucin (distribucin de Cauchy)
2. Calcular la funcin de distribucin de Un(a, b).
3. Vericar que IAB = IA IB = mn (IA, IB).
4. La poblacin de un pas est compuesta por 40% de pigmeos y 60% de watusis. La estatura de los primeros (en centmetros) tiene distribucin N(120, 20), y
la de los segundos, N(200, 30). Sea X la estatura de un individuo elegido al
azar en la poblacin. Calcular fX y hacer un grfico aproximado.
5. Se corta una varilla de mimbre en un punto al azar. Calcular la probabilidad de
que la longitud del lado mayor sea el doble de la del menor.

Fascculo No. 2
Semestre 6

23

Estadstica y
probabilidad

You might also like