Professional Documents
Culture Documents
Teora de la probabilidad
TEMA 2:
TEORA DE LA PROBABILIDAD.
Introduccin a la Estadstica
Teora de la probabilidad
I. CONCEPTOS PREVIOS.
1. SUCESOS. 1. SUCESO ELEMENTAL.
Se denomina Suceso Elemental de un experimento aleatorio a cada uno de los posibles resultados de dicho experimento que no pueden descomponerse en resultados ms simples. Al realizar un experimento aleatorio siempre ocurre uno de los sucesos elementales. Al ocurrir un suceso elemental, quedan excluidos todos los dems. Por ejemplo, si consideramos el experimento aleatorio: resultado de sacar una carta de un baraja y los sucesos: S1 = Sacar as de oros. S2 = Sacar un as. Slo el S1 es elemental, ya que S2 puede descomponerse en sacar el as de oros, el as de copas, el de espadas o el de bastos.
2. SUCESO.
Un suceso de un experimento aleatorio es cualquier composicin de los sucesos elementales de dicho experimento. Vgr.: El experimento aleatorio Estado civil de una persona tiene como sucesos elementales: S1 = Soltero. S2 = Casado. 42 Gregorio Gmez Soriano
Introduccin a la Estadstica
Teora de la probabilidad
S3 = Divorciado. S4 = Viudo. A partir de stos podemos formar: S5= { S1,S2} = Soltero o casado. S6= { S1,S3} = Soltero o divorciado. S7= { S1,S4} = Soltero o viudo. Y de la misma forma: S8= { S2,S3}; S9= { S2,S4}; S10= { S3,S4}; S11= { S1,S2,S3}; S12= { S1,S2,S4}; S13= { S1,S3,S4}; S14= { S2,S3,S4}. Hay adems dos sucesos triviales que son: Suceso imposible: = 0 (que no suceda nada). Suceso seguro: = { S1,S2,S3,S4} (que suceda cualquier cosa)
2. ESPACIO MUESTRAL.
Se denomina Espacio Muestral () de un experimento aleatorio al conjunto de todos los sucesos elementales del mismo. Equivale al suceso seguro definido anteriormente: ={S1,S2,S3,S4}. Puede ser: a) Finito: Si el nmero de elementos que tiene est acotado. Vgr.: Cualquiera de los dos casos anteriores. b) Infinito numerable: Cuando, a pesar de tener infinitos elementos, no siempre es posible intercalar uno entre dos dados. Vgr.: N de veces que hay que lanzar un dado hasta que salga un 6. Este nmero, en teora es ilimitado, pero nunca puede estar entre 5 y 6 (siempre ser entero). c) Infinito no numerable: Cuando tiene infinitos elementos, y adems siempre se puede intercalar uno entre dos cualesquiera de ellos. Vgr.: Tiempo de espera hasta que un paciente que acude a urgencias es atendido. Otra clasificacin que podramos realizar sera: a) Discreto: Si es finito o infinito numerable. b) Continuo: Si es infinito no numerable. El conjunto de todos los posibles sucesos de un experimento aleatorio ser, lo que en teora de conjuntos se denomina
P() (Conjunto de las partes del espacio muestral). En el ejemplo del estado
civil ser: P() = { , S1 ,S2 ,S3,...,S13, S14, }. En consecuencia, si consta de n sucesos elementales, podemos definir un total de 2n posibles sucesos.
3. LGEBRA DE SUCESOS.
Dado un espacio muestral y dados S1,S2...Si , podemos definir las siguientes operaciones entre sucesos:
Introduccin a la Estadstica
Teora de la probabilidad
3. COMPLEMENTARIO DE UN SUCESO: S
Es el suceso que se verifica si y slo si no se verifica S. Muchas veces no estamos interesados en todos los sucesos posibles (P()) y preferimos limitarnos a una parte de ellos (FP()). Este subconjunto de sucesos no lo podemos elegir de forma totalmente arbitraria, sino que, para poder definir una medida de probabilidad sobre l, tal y como veremos mas adelante, es necesario que se cumplan 2 requisitos: 1. Si S1, S2
F ( S1 + S1) F 2. Si S F S F
Es decir, es necesario que F sea lo que se denomina un lgebra aditiva o el experimento del Estado Civil pueden interesarnos solamente los sucesos:
A = Casado. B = No casado.
Con lo que F = { , A, B, }, ya que y se deben incluir siempre para que pueda ser un lgebra aditiva. Efectivamente, podemos comprobar que F cumple los requisitos anteriores, ya que: 1. A + B =
2. A = B F y B = A F
Se aplica fcilmente cuando es finito y homogneo o simtrico, es decir: cuando todos los sucesos elementales de los que se compone tienen la misma probabilidad de ocurrir. Vgr.: lanzamiento de una moneda o de un dado no cargados. Sin embargo falla cuando no es homogneo o no es finito. Este ltimo caso corresponde a preguntas como: Cual es la probabilidad de que al nacer un nio ste sea varn? Cual es la probabilidad de contraer determinada enfermedad? Cual es la probabilidad de que acudan ms de 100 pacientes a urgencias?... Para resolverlas nos apoyamos en la Ley de la Regularidad Estadstica o Ley de los Grandes Nmeros, que afirma que cuando un experimento aleatorio se repite indefinidamente, la frecuencia relativa con la que se da un determinado suceso tiende a estabilizarse en torno a un valor. Ese valor en el que se estabiliza la frecuencia relativa es el que tomaremos como probabilidad del suceso. Para ilustrar este concepto, aparece a continuacin un resumen de los resultados obtenidos al simular mediante un ordenador el lanzamiento de una moneda y contar el nmero de veces que sale cara. 44
Gregorio Gmez Soriano
Introduccin a la Estadstica
Teora de la probabilidad
Cuando el nmero de lanzamientos es pequeo, la frecuencia relativa del suceso salir cara oscila entorno al valor 0.5 con un margen muy amplio, pero cuando crece el nmero de tiradas este margen se va reduciendo hasta llegar a ser despreciable. En consecuencia, la diferencia entre la frecuencia registrada y la frecuencia que cabra esperar puede hacerse tan pequeo como queramos, con solo aumentar el nmero de tiradas.
65.536 131.072 262.144 524.288 1.048.576 2.097.152 4.194.304 8.388.608 16.777.216 33.554.432 67.108.864 134.217.728 268.435.456 536.870.912 1.073.741.824
32.645 65.535 131.071 262.143 524.287 1.048.575 2.097.151 4.194.303 8.388.607 16.777.215 33.554.431 67.108.863 134.217.727 268.435.455 536.870.911
0.498 0.499992 0.499996 0.499998 0.4999990 0.4999995 0.4999998 0.49999990 0.49999994 0.49999997 0.499999985 0.499999993 0.499999996 0.499999998 0.4999999990
45
Introduccin a la Estadstica
Teora de la probabilidad
2. DEFINICIN AXIOMTICA.
La definicin frecuencialista no deja de presentar problemas en su aplicacin prctica, ya que, al no ser posible la repeticin ilimitada de un experimento, Cmo saber cuando hemos realizado un nmero suficiente de repeticiones como para haber encontrado la frecuencia relativa correcta?. Como consecuencia del desarrollo del formalismo matemtico y con la intencin de soslayar los inconvenientes anteriores, se plante en los aos 30 la formulacin axiomtica de la probabilidad. Este enfoque evita dar una definicin conceptual y slo se refiere a las propiedades elementales que debe cumplir la definicin de una medida de probabilidad sobre un conjunto (estas propiedades son, precisamente, las que, de forma natural, caracterizan a la frecuencia relativa) y una vez aceptadas como axiomas, nos conducen, a partir de un tratamiento matemtico riguroso, a un conjunto mucho mayor de propiedades y consecuencias que, a primera vista, nunca hubieran parecido evidentes.
Partiendo de estos axiomas, podemos deducir, como primeras consecuencias, las siguientes propiedades:
1. P(S) = 1 - P( S ) 2. P(S) 1 3. S1,S2
46
Introduccin a la Estadstica
Teora de la probabilidad
P( S ) =
4. Combinando la informacin acerca de la naturaleza del experimento con los resultados de ste.
2. DEFINICIN.
El razonamiento anterior nos lleva a la relacin: P(A / B) =
P(AB) P(B)
Introduccin a la Estadstica
Teora de la probabilidad
Aplicada de forma iterativa nos da: P(A1A2...An) = P(A1) P(A2...An/A1) = = P(A1)P(A2/A1)P(A3...An/A1A2) = ... Con lo que al final obtenemos: P(A1A2...An) = P(A1)P(A2/A1)P(A3/A1A2)...P(An/A1A2...An-1)
2. SUCESOS INDEPENDIENTES.
Decimos que los sucesos A y B son independientes cuando el conocimiento de que uno de ellos ha ocurrido no modifica la probabilidad de que ocurra el otro. Teniendo en cuenta lo dicho al hablar de probabilidad condicionada: A y B son independientes es equivalente a cualquiera de las 3 afirmaciones siguientes:
a) P(A/B) = P(A) b) P(B/A) = P(B) c) P(AB) = P(A)P(B)
Este resultado es generalizable a un nmero cualquiera de sucesos: A1A2...An son independientes P(A1A2...An)=P(A1)P(A2)...P(An)
Efectivamente: A = A = ABi = ABi P(A) = P(ABi) y por ser los Bi disjuntos dos a dos: P(A) = P(ABi) P(A) =
P(Bi)P(A/Bi).
4. TEOREMA DE BAYES.
Con las mismas premisas del caso anterior: P(B1/A) =P(AB1)/P(A) = P(B1)P(A/B1)/P(A) y utilizando el resultado del teorema de la probabilidad total:
P ( B1 / A ) = P ( B1 ) P ( A / B1 ) P ( B1 ) P ( A / B1 ) + ... + P ( Bn ) P ( A / Bn )
48
Introduccin a la Estadstica
Teora de la probabilidad
Introduccin a la Estadstica
Teora de la probabilidad
2. VARIABLES ALEATORIAS
1. EJEMPLOS:
1. Es el experimento aleatorio estado civil de un paciente, podemos definir la variable aleatoria, X, de modo que:
X(soltero) = 1
X(casado) = 2
X(divorciado) = 3
X(viudo) = 4
Diremos, entonces, que X es una variable aleatoria que toma los valores 1, 2, 3 y 4.
2. En el experimento aleatorio nmero de intervenciones quirrgicas realizadas en 1 mes en el servicio de traumatologa, podemos definir la variable aleatoria:
X(la intervencin dura x segundos) = x y X podr tomar cualquier valor real positivo.
50
Introduccin a la Estadstica
Teora de la probabilidad
P( a X b) = a f ( x )dx
b
Como consecuencia:
2En
el caso de variables aleatorias discretas se le suele denominar funcin de cuanta o de masa de probabilidad. 51
Introduccin a la Estadstica
Teora de la probabilidad
1. P(X=a) = 0 2.
f ( x )dx = 1
F (t ) = f ( x )dx
2. PROPIEDADES.
1. Lim F ( x ) = 0
x
2. Lim F ( x ) = 1
x +
3.
dF ( x ) = f ( x) dx
3Ntese
que en el caso discreto, f(x) equivale directamente a P(x), pero en el caso continuo no sucede as. De hecho, P(x)=0, como se ha visto en la propiedad 1, y sin embargo f(x) puede valer ms ce 0. (incluso cabe la posibilidad de que f(x)>1). 4Aunque sea numricamente, siempre es posible evaluar una funcin matemtica. 52
Gregorio Gmez Soriano
Introduccin a la Estadstica
Teora de la probabilidad
n h( xi ) f ( xi ) E [ h( x )] = i =1 +h( x ) f ( x )dx
2. PROPIEDADES.
a) E[a] = a b) E[ax] = a E[x]
2. MEDIANA.
Es el valor de x que hace que F(x) = 0.5.
5Ntese 6El
que la diferencia entre el caso discreto y el continuo est en la utilizacin de sumatorios o integrales. significado de las medidas que se definen en este apartado es similar al de las que se definieron con los mismos nombres al hablar de las distribuciones univariables. La nica diferencia es la de que en aquel caso se referan a conjuntos de datos recogidos para un estudio y en este caso operan sobre una distribucin de probabilidad que viene determinada matemticamente por una relacin funcional. 53 Gregorio Gmez Soriano
Introduccin a la Estadstica
Teora de la probabilidad
3. MODA.
Es el valor de x que hace que f(x) sea mxima
4. PERCENTIL k
Es el valor de x que hace que F(x) = k/100.
5. VARIANZA.
2 = 2 = E[(x-)2]
6. COEFICIENTE DE ASIMETRA.
g1=3/3
7. COEFICIENTE DE APUNTAMIENTO.
g2=4/4
8. COEFICIENTE DE VARIACIN.
CV=/
x (t ) = E [ e tx ]
Una importante propiedad, que es la que nos permite el clculo de los momentos es: x ( 0) = mk
(k
Y se cumple que:
x (0) =
2 x ( 0) = 2 =
x ( 0) = 3
Introduccin a la Estadstica
Teora de la probabilidad
3. FUNCIN CARACTERSTICA.
1. CONCEPTO Y DEFINICIN.
Tiene la misma utilidad que la funcin generatriz de momentos, pero con la ventaja de que siempre existe, cosa que no sucede con aquella. Cada distribucin tiene una funcin caracterstica propia, que es diferente de las dems, de modo que si dos distribuciones tienen la misma funcin caracterstica, es porque son idnticas. Se define:
x (t ) = E [ e itx ] Siendo i = 1
Es, por tanto, una funcin compleja de variable real.
2. PROPIEDADES.
1. Identifica a cada distribucin. 2. mk =
x( k (0)
ik
x + y (t ) = x (t ) y (t )
4. Cualquiera que sea la variable aleatoria X, siempre existe x ( t ) y, adems, es continua y acotada, puesto que se verifica que:
x (t ) x (0) = 1
Introduccin a la Estadstica
Teora de la probabilidad
I. DISTRIBUCIONES DISCRETAS.
1. UNIFORME.
Se utiliza cuando tenemos discreto y simtrico, es decir, todos los valores de la variable aleatoria son equiprobables. Tambin se utiliza cuando desconocemos completamente cual es la funcin de probabilidad. EJEMPLOS: Lanzamiento de un dado, extraccin de un nmero de lotera, etc.
1= xito 0= Fracaso
b) La proporcin de 1 y 0 en la poblacin es siempre constante y vale, respectivamente p y q=(1-p). Esto implica que, si la poblacin es finita, las extracciones deben realizarse con remplazamiento8.
7En
este tema slo se har una breve mencin de las distribuciones ms importantes. En el APNDICE II puede encontrarse ms informacin sobre la expresin de la f(x) y sus caractersticas principales. 8Si la poblacin es muy grande y el nmero de extracciones relativamente pequeo, no es indispensable el remplazamiento. 56 Gregorio Gmez Soriano
Introduccin a la Estadstica
Teora de la probabilidad
c) Las observaciones son independientes: el resultado de una observacin no influye sobre la siguiente.
3. DISTRIBUCIN BINOMIAL
Es la que corresponde a la repeticin de un proceso de Bernouilli n veces. En este caso la variable aleatoria ser: X = nmero de xitos al realizar n observaciones. EJEMPLO: nmero de caras al lanzar 15 veces una moneda.
k + x 1 k x k f ( x ) = p k (q ) x = p q k 1 x
f ( 0) = p k ;
E x = kq ; p
f ( n + 1) =
q (n + k ) f ( n) n +1
2 =
kq p2
6. DISTRIBUCIN HIPERGEOMTRICA.
Es equivalente a la binomial, pero cuando la extraccin se realiza sin remplazamiento, por lo que no corresponde exactamente a un proceso de Bernouilli. La variable aleatoria ser: X = nmero de xitos al extraer n elementos, sin remplazamiento, de una poblacin de tamao N. Suponemos que en la poblacin hay N1 xitos y N2 fracasos.
9No
Introduccin a la Estadstica
Teora de la probabilidad
EJEMPLO: Nmero de bolas negras al sacar 15 bolas de una urna que contiene 50 (20 blancas y 30 negras)10.
2. DISTRIBUCIN DE POISSON.
Sobre un proceso de Poisson definimos la variable aleatoria: X = nmero de sucesos en un intervalo de longitud fija. EJEMPLOS: Nmero de infartos de miocardio atendidos por el Servicio de Urgencias en 1 semana.
2. DISTRIBUCIN UNIFORME.
Es la que se asocia a una variable aleatoria que slo puede tomar valores en el intervalo [a,b], de modo que todos los valores son equiprobables. Las tablas de nmero aleatorios se basan en esta distribucin, y tambin las funciones de aleatorizacin que utilizan los ordenadores.
10En
Introduccin a la Estadstica
Teora de la probabilidad
3. DISTRIBUCIN DE CAUCHI.
1. FUNCIN DE PROBABILIDAD:
f ( x) = 1 a
a 2 + ( x b) 2
2. PARMETROS:
No tiene media ni desviacin tpica.
3. FUNCIN DE DISTRIBUCIN:
F ( x) = 1 1 x b + ArcTg( ) 2 a
p 1
c) Funcin Exponencial:
Equivale a G(,1). De acuerdo con el apartado anterior, puede interpretarse como el tiempo que transcurre hasta que ocurre el primer suceso en un proceso de Poisson. Como corolario de a) y c) tenemos que si X1,...,Xk son k variables aleatorias independientes que se distribuyen segn una funcin exponencial de parmetro , y si Y=X1+X2 +...+ Xk entonces Y~G(,k).
d) Distribucin 2 n
11Ver 12La
APNDICE I. notacin X~f(x) significa: la variable aleatoria X se distribuye segn la funcin de probabilidad f(x). 59
Introduccin a la Estadstica
Teora de la probabilidad
( p, q ) = 0 t p 1 (1 t ) q 1 dt =
1
( p ) ( q ) ( p + q )
2. CONSECUENCIAS.
El teorema central del lmite explica porque la distribucin normal aparece con tanta frecuencia en los fenmenos reales. En efecto, siempre que en un proceso influya un nmero elevado de factores independientes, ste se distribuir de forma aproximadamente normal. Por ejemplo: Peso (depende de herencia, alimentacin, tipo de vida, ...); estatura, errores de medida; etc.
Lim Bi ( n , p ) = N ( np , npq )
Lim Po( ) = N ( , )
Introduccin a la Estadstica
Teora de la probabilidad
5. DISTRIBUCIN 2 n DE PEARSON.
Si tenemos n variables aleatorias independientes X1, X2, ...Xn que se distribuyen segn N(0,1) y si 2 2 2 X = X 1 + X 2 + ... + X n , entonces la probabilidad para x>0 es:
x 2 f ( x) = 2
1 n xe 2
x 2
1. PROPIEDAD:
2 2 Dadas dos variables aleatorias X1~ 2 n y X2~ m independientes y si Y= X1+ X2, entonces Y~ n + m
6. DISTRIBUCIN F DE FISHER-SNEDECOR.
Dadas dos variables aleatorias independientes, X1~ 2 n entonces Y~Fm,n PROPIEDAD:
n
y X2~ 2 m independientes y si Y =
X2 m , X1 n
2 Lm Fm,n = m
7. DISTRIBUCIN t DE STUDENT.
Dadas dos variables aleatorias independientes, X1~ 2 n y X2~N(0,1) y Y~St(n)13. si Y =
X2 X1 n
, ENTONCES
13St(n)
significa Student con n grados de libertad. Para ms detalles ver el APNDICE II.
Introduccin a la Estadstica
Teora de la probabilidad
APNDICE I
Dado un conjunto de m elementos: A={a1, a2,..., am}, se define:
1. Variaciones ordinarias14:
No se admite la repeticin de elementos. En consecuencia n m y se calculan:
Vm,n = m( m 1)...( m n + 1) =
n 1 i =0
( m i ) = ( m n )!
m!
14Vgr.: 15Vgr.:
Si en una carrera participan 15 caballos, de cuantas formas diferentes puede quedar el podium? Cuantos nmeros de 15 cifras pueden formarse con los 10 dgitos? 62
Introduccin a la Estadstica
Teora de la probabilidad
1. Permutaciones ordinarias16:
Pm = Vm,m = m!
m! n1 ! n2 !... nk !
Por supuesto
ni m .
i =1
3. Permutaciones cclicas:
Equivaldra a Pm pero considerando que los elementos se disponen en circulo18:
PRm = ( m 1)!
m n
m m = n m n
16Vgr.: 17Vgr.:
De cuantas formas diferentes pueden hacer cola 6 personas? Al lanzar una moneda 10 veces, cuantas formas diferentes hay de que salgan 4 caras? Obsrvese que esto equivale a decir: cuantas maneras hay de ordenar 4 caras y 6 cruces? 18Vgr.: de cuantas formas pueden m personas sentarse en torno a una mesa redonda? 19Vgr.: Nmero de apuestas de Lotera Primitiva posibles. 63
Gregorio Gmez Soriano
Introduccin a la Estadstica
Teora de la probabilidad
3. = = 1
m 0
m m
4.
m + 1 m m + = n n 1 n
k
5. n = m
k
m n
m k nk m n
6. Definicin generalizada de :
Si n N y m R =
m n
m(m 1)...(m n + 1) n! m n
Si n es negativo y m R =0
V. El Teorema Multinomial.
1. El Teorema Binomial.
La expresin (1+t)n puede desarrollarse en serie de potencias convergente en los siguientes casos:
1. Si n
N, es decir si n = 1,2,3,...,
n n (1 + x ) n = x k k =0 k
3. Coeficiente Multinomial.
Dados m, n1 ,n2 ,...,nk enteros no negativos, se define:
64
Gregorio Gmez Soriano
Introduccin a la Estadstica
Teora de la probabilidad
m m! = n1 n 2 ... n k n1 ! n 2 !... n k !
4. El Teorema Multinomial. Si n N y x1,x2,...,xk R
( j1 + j2 + ...+ j k ) n k x = i ... i =1 j1 j2 jk n
n j1 j2 j x1 x 2 ... x k k j j ... j 1 2 k
n +
2. Frmula de STIRLING.
Lm ( n + 1) = n n e n 2n
n
65
Gregorio Gmez Soriano
Introduccin a la Estadstica
Teora de la probabilidad
APNDICE II
66
Gregorio Gmez Soriano