You are on page 1of 26

Introduccin a la Estadstica

Teora de la probabilidad

TEMA 2:

TEORA DE LA PROBABILIDAD.

41 Gregorio Gmez Soriano

Introduccin a la Estadstica

Teora de la probabilidad

1. CONCEPTOS FUNDAMENTALES DEL CLCULO DE PROBABILIDADES.

I. CONCEPTOS PREVIOS.
1. SUCESOS. 1. SUCESO ELEMENTAL.
Se denomina Suceso Elemental de un experimento aleatorio a cada uno de los posibles resultados de dicho experimento que no pueden descomponerse en resultados ms simples. Al realizar un experimento aleatorio siempre ocurre uno de los sucesos elementales. Al ocurrir un suceso elemental, quedan excluidos todos los dems. Por ejemplo, si consideramos el experimento aleatorio: resultado de sacar una carta de un baraja y los sucesos: S1 = Sacar as de oros. S2 = Sacar un as. Slo el S1 es elemental, ya que S2 puede descomponerse en sacar el as de oros, el as de copas, el de espadas o el de bastos.

2. SUCESO.
Un suceso de un experimento aleatorio es cualquier composicin de los sucesos elementales de dicho experimento. Vgr.: El experimento aleatorio Estado civil de una persona tiene como sucesos elementales: S1 = Soltero. S2 = Casado. 42 Gregorio Gmez Soriano

Introduccin a la Estadstica

Teora de la probabilidad

S3 = Divorciado. S4 = Viudo. A partir de stos podemos formar: S5= { S1,S2} = Soltero o casado. S6= { S1,S3} = Soltero o divorciado. S7= { S1,S4} = Soltero o viudo. Y de la misma forma: S8= { S2,S3}; S9= { S2,S4}; S10= { S3,S4}; S11= { S1,S2,S3}; S12= { S1,S2,S4}; S13= { S1,S3,S4}; S14= { S2,S3,S4}. Hay adems dos sucesos triviales que son: Suceso imposible: = 0 (que no suceda nada). Suceso seguro: = { S1,S2,S3,S4} (que suceda cualquier cosa)

2. ESPACIO MUESTRAL.
Se denomina Espacio Muestral () de un experimento aleatorio al conjunto de todos los sucesos elementales del mismo. Equivale al suceso seguro definido anteriormente: ={S1,S2,S3,S4}. Puede ser: a) Finito: Si el nmero de elementos que tiene est acotado. Vgr.: Cualquiera de los dos casos anteriores. b) Infinito numerable: Cuando, a pesar de tener infinitos elementos, no siempre es posible intercalar uno entre dos dados. Vgr.: N de veces que hay que lanzar un dado hasta que salga un 6. Este nmero, en teora es ilimitado, pero nunca puede estar entre 5 y 6 (siempre ser entero). c) Infinito no numerable: Cuando tiene infinitos elementos, y adems siempre se puede intercalar uno entre dos cualesquiera de ellos. Vgr.: Tiempo de espera hasta que un paciente que acude a urgencias es atendido. Otra clasificacin que podramos realizar sera: a) Discreto: Si es finito o infinito numerable. b) Continuo: Si es infinito no numerable. El conjunto de todos los posibles sucesos de un experimento aleatorio ser, lo que en teora de conjuntos se denomina

P() (Conjunto de las partes del espacio muestral). En el ejemplo del estado

civil ser: P() = { , S1 ,S2 ,S3,...,S13, S14, }. En consecuencia, si consta de n sucesos elementales, podemos definir un total de 2n posibles sucesos.

3. LGEBRA DE SUCESOS.
Dado un espacio muestral y dados S1,S2...Si , podemos definir las siguientes operaciones entre sucesos:

1. SUMA O UNIN DE SUCESOS: S1+S2 .


Es el suceso compuesto que resulta de que ocurra S1 o bien S2 .

43 Gregorio Gmez Soriano

Introduccin a la Estadstica

Teora de la probabilidad

2. PRODUCTO O INTERSECCIN DE SUCESOS: S1S2 .


Es el suceso que resulta al exigir que ocurra S1 y S2 simultneamente.

3. COMPLEMENTARIO DE UN SUCESO: S
Es el suceso que se verifica si y slo si no se verifica S. Muchas veces no estamos interesados en todos los sucesos posibles (P()) y preferimos limitarnos a una parte de ellos (FP()). Este subconjunto de sucesos no lo podemos elegir de forma totalmente arbitraria, sino que, para poder definir una medida de probabilidad sobre l, tal y como veremos mas adelante, es necesario que se cumplan 2 requisitos: 1. Si S1, S2

F ( S1 + S1) F 2. Si S F S F

Es decir, es necesario que F sea lo que se denomina un lgebra aditiva o el experimento del Estado Civil pueden interesarnos solamente los sucesos:

-lgebra. Por ejemplo, en

A = Casado. B = No casado.
Con lo que F = { , A, B, }, ya que y se deben incluir siempre para que pueda ser un lgebra aditiva. Efectivamente, podemos comprobar que F cumple los requisitos anteriores, ya que: 1. A + B =

2. A = B F y B = A F

II. DISTINTAS DEFINICIONES DE PROBABILIDAD.


1. DEFINICIN DE LAPLACE E INTERPRETACIN FRECUENCIALISTA.
Histricamente es la primera que surgi y corresponde a la idea intuitiva de:
Probabilidad = Casos favorables Casos posibles

Se aplica fcilmente cuando es finito y homogneo o simtrico, es decir: cuando todos los sucesos elementales de los que se compone tienen la misma probabilidad de ocurrir. Vgr.: lanzamiento de una moneda o de un dado no cargados. Sin embargo falla cuando no es homogneo o no es finito. Este ltimo caso corresponde a preguntas como: Cual es la probabilidad de que al nacer un nio ste sea varn? Cual es la probabilidad de contraer determinada enfermedad? Cual es la probabilidad de que acudan ms de 100 pacientes a urgencias?... Para resolverlas nos apoyamos en la Ley de la Regularidad Estadstica o Ley de los Grandes Nmeros, que afirma que cuando un experimento aleatorio se repite indefinidamente, la frecuencia relativa con la que se da un determinado suceso tiende a estabilizarse en torno a un valor. Ese valor en el que se estabiliza la frecuencia relativa es el que tomaremos como probabilidad del suceso. Para ilustrar este concepto, aparece a continuacin un resumen de los resultados obtenidos al simular mediante un ordenador el lanzamiento de una moneda y contar el nmero de veces que sale cara. 44
Gregorio Gmez Soriano

Introduccin a la Estadstica

Teora de la probabilidad

Cuando el nmero de lanzamientos es pequeo, la frecuencia relativa del suceso salir cara oscila entorno al valor 0.5 con un margen muy amplio, pero cuando crece el nmero de tiradas este margen se va reduciendo hasta llegar a ser despreciable. En consecuencia, la diferencia entre la frecuencia registrada y la frecuencia que cabra esperar puede hacerse tan pequeo como queramos, con solo aumentar el nmero de tiradas.

Tabla 1:Simulacin por ordenador del lanzamiento de una moneda.


N de Frecuencia Diferencia lanzamien- N de caras relativa con la tos frecuencia terica 2 0 0 0.5 4 1 0.25 0.25 8 3 0.38 0.125 16 7 0.437 0.063 32 14 0.437 0.063 64 30 0.47 0.03 128 65 0.508 0.008 256 130 0.508 0.008 512 261 0.51 0.01 1.024 520 0.508 0.008 2.048 996 0.486 0.014 4.096 2.005 0.49 0.01 8.192 4.016 0.49 0.01 16.384 8.075 0.493 0.007 32.768 16.273 0.497 0.003 N de lanzamientos N de caras Frecuencia relativa Diferencia con la frecuencia terica 0.002 0.000008 0.000004 0.000002 0.000001 0.0000005 0.0000002 0.0000001 0.00000006 0.00000003 0.000000015 0.000000007 0.000000004 0.000000002 0.000000001

65.536 131.072 262.144 524.288 1.048.576 2.097.152 4.194.304 8.388.608 16.777.216 33.554.432 67.108.864 134.217.728 268.435.456 536.870.912 1.073.741.824

32.645 65.535 131.071 262.143 524.287 1.048.575 2.097.151 4.194.303 8.388.607 16.777.215 33.554.431 67.108.863 134.217.727 268.435.455 536.870.911

0.498 0.499992 0.499996 0.499998 0.4999990 0.4999995 0.4999998 0.49999990 0.49999994 0.49999997 0.499999985 0.499999993 0.499999996 0.499999998 0.4999999990

Sim u lac io nd el lan zam ien to d eu n am o n ed a.


0,6

Proporcin de caras (Frec. relativa).

0,5 0,4 0,3 0,2 0,1 0 1 3 5 7 9 11 13 15 17 19 21 23 25 27 29

N de lanzamientos (escala logartmica de base 2)

45

Gregorio Gmez Soriano

Introduccin a la Estadstica

Teora de la probabilidad

2. DEFINICIN AXIOMTICA.
La definicin frecuencialista no deja de presentar problemas en su aplicacin prctica, ya que, al no ser posible la repeticin ilimitada de un experimento, Cmo saber cuando hemos realizado un nmero suficiente de repeticiones como para haber encontrado la frecuencia relativa correcta?. Como consecuencia del desarrollo del formalismo matemtico y con la intencin de soslayar los inconvenientes anteriores, se plante en los aos 30 la formulacin axiomtica de la probabilidad. Este enfoque evita dar una definicin conceptual y slo se refiere a las propiedades elementales que debe cumplir la definicin de una medida de probabilidad sobre un conjunto (estas propiedades son, precisamente, las que, de forma natural, caracterizan a la frecuencia relativa) y una vez aceptadas como axiomas, nos conducen, a partir de un tratamiento matemtico riguroso, a un conjunto mucho mayor de propiedades y consecuencias que, a primera vista, nunca hubieran parecido evidentes.

1. DEFINICIN AXIOMTICA DE PROBABILIDAD.


Dado un Espacio Muestral y un conjunto de sucesos del mismo FP(), que constituyen un lgebra aditiva, se denomina Probabilidad a cualquier forma de asignar a cada suceso S1 F un valor numrico P(S1), siempre que se verifiquen las siguientes propiedades:
1. P(S1) 0 2. P() = 1 3. Dados S1y S2

F, tales que S1S2= , entonces: P( S1+ S2) = P(S1) + P(S2)

Partiendo de estos axiomas, podemos deducir, como primeras consecuencias, las siguientes propiedades:
1. P(S) = 1 - P( S ) 2. P(S) 1 3. S1,S2

F => P( S1+ S2) = P(S1) + P(S2) - P(S1S2)

3. INTERPRETACIN BAYESIANA O SUBJETIVA.


Es una forma mucho ms operativa de definir la probabilidad, que consiste en utilizar la informacin de la que un sujeto dispone, para realizar una apreciacin personal de la probabilidad de un suceso. Obviamente, si el sujeto conoce la frecuencia relativa del suceso, y su actuacin es coherente, utilizar esta como probabilidad. Si no conoce la frecuencia relativa, utilizar cualquier otro tipo de informacin para dar una estimacin de la probabilidad. Es lo que hacemos cuando, por ejemplo, decimos: Hay una probabilidad del 60% de que llueva este fin de semana; tenemos un 50% de posibilidades de que salga adelante este proyecto... Evidentemente, la estimacin de la probabilidad variar en funcin del sujeto y de la informacin de la que ste disponga. Por eso sera ms correcto decir P(A/I), que se lee: Probabilidad de que suceda A dado que disponemos de la informacin I. (Este tipo de notacin se usa para la probabilidad condicionada, tal como veremos ms adelante). La Estadstica clsica se apoya exclusivamente en los datos para estimar las caractersticas de la poblacin, mientras que la Estadstica Bayesiana utiliza adems la informacin basada en el grado de creencia que tiene el experimentador acerca de esas caractersticas. El anlisis de los datos permite variar esa creencia y el resultado puede servir de base para una nueva estimacin.

46

Gregorio Gmez Soriano

Introduccin a la Estadstica

Teora de la probabilidad

4. CALCULO PRCTICO DE PROBABILIDADES.


La raz del problema est en la asignacin de probabilidades a los sucesos elementales, ya que a partir de stos se puede calcular la probabilidad de cualquier suceso compuesto, aplicando las reglas que hemos visto en el apartado 2. La determinacin de la probabilidad de un suceso elemental puede hacerse:
1. Estudiando la frecuencia relativa mediante la repeticin del experimento hasta ver que sta se estabiliza. 2. Deducindolo de la naturaleza del experimento. El caso ms simple es el de homogneo o simtrico, ya que todos los sucesos elementales sern equiprobables, por lo que todos tendrn probabilidad 1/N, siendo N el nmero de sucesos elementales de . 3. En este caso la probabilidad de un suceso compuesto obedece a la conocida frmula de:

P( S ) =

Casos favorables N de sucesos elementales de S = Casos posibles N de sucesos elementales de

4. Combinando la informacin acerca de la naturaleza del experimento con los resultados de ste.

III. TEOREMAS FUNDAMENTALES DEL CALCULO DE PROBABILIDADES.


1. PROBABILIDAD CONDICIONADA. 1. CONCEPTO:
La probabilidad de A dado B, o condicionada a la ocurrencia de B, es la frecuencia relativa con la que se da el suceso A cuando se ha dado B. Se denota P(A/B) y no debe confundirse con P(AB). P(AB) es la probabilidad de que se den simultneamente A y B referida al espacio muestral . P(A/B) es lo mismo, pero tomando B como espacio muestral de referencia. Por ejemplo, si consideramos el experimento aleatorio resultado de lanzar un dado, entonces ={1,2,3,4,5,6}. Podemos tomar los sucesos: A = {5,6} (salir 5 o ms) B = {2,4,6} (salir par) En consecuencia, AB = {6} y de aqu P(AB) =1/6 (N de elementos de AB/N de elementos de ) Si sabemos que ha sucedido B, el espacio muestral se reduce a B ya que los nicos resultados posibles son {2,4,6}. En tal caso: A = {6}, puesto que el 5 no existe en el nuevo espacio muestral. y entonces P(A/B) =1/3 (N de elementos del nuevo A/N de elementos de B).

2. DEFINICIN.
El razonamiento anterior nos lleva a la relacin: P(A / B) =
P(AB) P(B)

que tambin puede escribirse como: P(AB) = P(B)P(A/B) = P(A)P(B/A)


47

Gregorio Gmez Soriano

Introduccin a la Estadstica

Teora de la probabilidad

Aplicada de forma iterativa nos da: P(A1A2...An) = P(A1) P(A2...An/A1) = = P(A1)P(A2/A1)P(A3...An/A1A2) = ... Con lo que al final obtenemos: P(A1A2...An) = P(A1)P(A2/A1)P(A3/A1A2)...P(An/A1A2...An-1)

2. SUCESOS INDEPENDIENTES.
Decimos que los sucesos A y B son independientes cuando el conocimiento de que uno de ellos ha ocurrido no modifica la probabilidad de que ocurra el otro. Teniendo en cuenta lo dicho al hablar de probabilidad condicionada: A y B son independientes es equivalente a cualquiera de las 3 afirmaciones siguientes:
a) P(A/B) = P(A) b) P(B/A) = P(B) c) P(AB) = P(A)P(B)

Este resultado es generalizable a un nmero cualquiera de sucesos: A1A2...An son independientes P(A1A2...An)=P(A1)P(A2)...P(An)

3. TEOREMA DE LA PROBABILIDAD TOTAL.


Dado un espacio muestral y un conjunto de sucesos B={B1, B2, ..., Bn} de modo que:
a) B1 + B2 + ... + Bn = b) BiBj= i j 1

para cualquier suceso A P() se verifica:


P(A) = P(Bi )P(A / Bi )
i=1 n

Efectivamente: A = A = ABi = ABi P(A) = P(ABi) y por ser los Bi disjuntos dos a dos: P(A) = P(ABi) P(A) =

P(Bi)P(A/Bi).

4. TEOREMA DE BAYES.
Con las mismas premisas del caso anterior: P(B1/A) =P(AB1)/P(A) = P(B1)P(A/B1)/P(A) y utilizando el resultado del teorema de la probabilidad total:
P ( B1 / A ) = P ( B1 ) P ( A / B1 ) P ( B1 ) P ( A / B1 ) + ... + P ( Bn ) P ( A / Bn )

48

Gregorio Gmez Soriano

Introduccin a la Estadstica

Teora de la probabilidad

Es decir, B constituye lo que se denomina una particin de . 49

Gregorio Gmez Soriano

Introduccin a la Estadstica

Teora de la probabilidad

2. VARIABLES ALEATORIAS

I. CONCEPTO DE VARIABLE ALEATORIA.


1. CONCEPTO.
Para representar los distintos sucesos elementales de un experimento aleatorio podemos utilizar cualquier tipo de smbolos, sin embargo, lo ms razonable es asociar a cada suceso elemental un numero. Adems en el caso de espacios muestrales continuos es la nica opcin, ya que no son numerables. Denominamos Variable Aleatoria a la forma de asociar un nmero real a cada uno de los sucesos elementales de un experimento aleatorio. En trminos matemticos: dado un espacio muestral , se define la variable aleatoria X como la funcin:
X : S X ( S )

1. EJEMPLOS:
1. Es el experimento aleatorio estado civil de un paciente, podemos definir la variable aleatoria, X, de modo que:

X(soltero) = 1

X(casado) = 2

X(divorciado) = 3

X(viudo) = 4

Diremos, entonces, que X es una variable aleatoria que toma los valores 1, 2, 3 y 4.
2. En el experimento aleatorio nmero de intervenciones quirrgicas realizadas en 1 mes en el servicio de traumatologa, podemos definir la variable aleatoria:

X(Realizar n intervenciones) = n Entonces X podr tomar los valores 0, 1, 2, 3...


3. En el experimento aleatorio duracin de una intervencin, podemos definir la variable aleatoria:

X(la intervencin dura x segundos) = x y X podr tomar cualquier valor real positivo.

50

Gregorio Gmez Soriano

Introduccin a la Estadstica

Teora de la probabilidad

2. TIPOS DE VARIABLES ALEATORIAS.


Las variables aleatorias se clasifican exactamente igual que los espacios muestrales:
1.- Variable aleatoria discreta: la que se asocia a un espacio muestral discreto. 2.- Variable aleatoria continua: Idem para . continuo.

II. FUNCIN DE PROBABILIDAD: f(x)


1. CONCEPTO.
Es la que asigna a cada valor de una variable aleatoria la probabilidad de que ocurra el suceso que tiene asociado ese valor de la variable aleatoria. Es decir si X(s) = x, entonces, la funcin de probabilidad, o funcin de densidad de probabilidad, f(x) ser:
f(x) = P(X = x) = P(s)

2. FUNCIN DE PROBABILIDAD DISCRETA2.


Corresponde exactamente a la definicin anterior, ya que la probabilidad de cada suceso est perfectamente definida. Un caso particular lo constituye la funcin uniforme, que es la que asigna la misma probabilidad a todos los valores de la variable aleatoria discreta. Si el nmero de valores que puede adoptar la variable aleatoria es n, entonces f(xi)=1/n xi. La funcin de probabilidad hereda las mismas propiedades que la probabilidad de sucesos. En particular: f(xi) = 1 y f(xi) 0 Ntese que, de acuerdo con la definicin, la representacin grfica de una funcin de probabilidad discreta coincidir con el histograma de frecuencias relativas.

3. FUNCIN DE PROBABILIDAD CONTINUA O FUNCIN DE DENSIDAD DE PROBABILIDAD.


Para la representacin grfica del histograma de frecuencias relativas en el caso de variables continuas, recurramos a la definicin de intervalos, obteniendo as una figura similar a la que resultaba de representar variables discretas. La amplitud de los intervalos puede tomarse de forma arbitraria y se observa que cuanto menor es sta, ms se va suavizando el polgono que forma. Si nos imaginamos que la amplitud de los intervalos tiende a cero, encontramos que el contorno deja de ser poligonal para pasar a ser una curva. Esta curva es la funcin de densidad de probabilidad y, de acuerdo con lo antedicho, el rea delimitada por la curva y el eje x entre los valores a y b, equivale a la probabilidad de que la variable aleatoria est entre a y b. Esto es lo que define, matemticamente, a la funcin de densidad de probabilidad:

P( a X b) = a f ( x )dx
b

Como consecuencia:

2En

el caso de variables aleatorias discretas se le suele denominar funcin de cuanta o de masa de probabilidad. 51

Gregorio Gmez Soriano

Introduccin a la Estadstica

Teora de la probabilidad

1. P(X=a) = 0 2.

f ( x )dx = 1

3. f(x) 03 4. P(a X b)=P(a<X<b)

4. UTILIDAD DE LA FUNCIN DE PROBABILIDAD


1. Permite sustituir la relacin completa de los valores de la probabilidad para cada suceso por una ecuacin matemtica. 2. Es ms general, ya que en la ecuacin quedan recogida la estructura y el comportamiento de la variable, para cualquier valor. 3. Es ms operativa y permite obtener fcilmente4 la probabilidad de cualquier intervalo.

III. III FUNCIN DE DISTRIBUCIN DE PROBABILIDAD: F(x)


1. CONCEPTO.
Es la funcin que asocia a cada valor x de la variable aleatoria la probabilidad de dicha variable aleatoria est por debajo de x: F(x)=P(X x). Teniendo en cuenta la definicin de f(x):
a) Si X es una variable aleatoria discreta:
F ( xi ) = f ( x j )
j =1
t

b) Si X es una variable aleatoria continua:

F (t ) = f ( x )dx

2. PROPIEDADES.
1. Lim F ( x ) = 0
x

2. Lim F ( x ) = 1
x +

3.

dF ( x ) = f ( x) dx

4. F(x) siempre es continua por la derecha.

3Ntese

que en el caso discreto, f(x) equivale directamente a P(x), pero en el caso continuo no sucede as. De hecho, P(x)=0, como se ha visto en la propiedad 1, y sin embargo f(x) puede valer ms ce 0. (incluso cabe la posibilidad de que f(x)>1). 4Aunque sea numricamente, siempre es posible evaluar una funcin matemtica. 52
Gregorio Gmez Soriano

Introduccin a la Estadstica

Teora de la probabilidad

IV. ESPERANZA MATEMTICA. MOMENTOS.


1. ESPERANZA MATEMTICA.
Dada una funcin de probabilidad f(x), se define la esperanza matemtica de una funcin cualquiera h(x ) como5:

n h( xi ) f ( xi ) E [ h( x )] = i =1 +h( x ) f ( x )dx

En el caso discreto En el caso contnuo

2. PROPIEDADES.
a) E[a] = a b) E[ax] = a E[x]

3. MOMENTO DE ORDEN P RESPECTO A UN PUNTO Z:


apz = E[(x-z)p]

4. MOMENTO ORDINARIO DE ORDEN P:


Basta con tomar z=0. Su expresin ser: mp = E[xp]

5. MOMENTO CENTRADO DE ORDEN P.


Tomamos z = :
p = E[(x-)p]

V. MEDIDAS CARACTERSTICAS DE UNA VARIABLE ALEATORIA6.


1. MEDIA.
=m1=E[x]

2. MEDIANA.
Es el valor de x que hace que F(x) = 0.5.
5Ntese 6El

que la diferencia entre el caso discreto y el continuo est en la utilizacin de sumatorios o integrales. significado de las medidas que se definen en este apartado es similar al de las que se definieron con los mismos nombres al hablar de las distribuciones univariables. La nica diferencia es la de que en aquel caso se referan a conjuntos de datos recogidos para un estudio y en este caso operan sobre una distribucin de probabilidad que viene determinada matemticamente por una relacin funcional. 53 Gregorio Gmez Soriano

Introduccin a la Estadstica

Teora de la probabilidad

3. MODA.
Es el valor de x que hace que f(x) sea mxima

4. PERCENTIL k
Es el valor de x que hace que F(x) = k/100.

5. VARIANZA.
2 = 2 = E[(x-)2]

6. COEFICIENTE DE ASIMETRA.
g1=3/3

7. COEFICIENTE DE APUNTAMIENTO.
g2=4/4

8. COEFICIENTE DE VARIACIN.
CV=/

VI. FUNCIN GENERATRIZ DE MOMENTOS Y FUNCIN CARACTERSTICA.


Dada una variable aleatoria X, podemos definir:

1. FUNCIN GENERATRIZ DE MOMENTOS.


Sirve para facilitar el clculo de los momentos ordinarios. Se define como:

x (t ) = E [ e tx ]
Una importante propiedad, que es la que nos permite el clculo de los momentos es: x ( 0) = mk
(k

2. FUNCIN GENERATRIZ DE CUMULANTES.


Sirve para facilitar el clculo de los momentos centrados. Se define como:
x (t ) = Lim x (t )

Y se cumple que:

x (0) =

2 x ( 0) = 2 =

x ( 0) = 3

54 Gregorio Gmez Soriano

Introduccin a la Estadstica

Teora de la probabilidad

3. FUNCIN CARACTERSTICA.

1. CONCEPTO Y DEFINICIN.
Tiene la misma utilidad que la funcin generatriz de momentos, pero con la ventaja de que siempre existe, cosa que no sucede con aquella. Cada distribucin tiene una funcin caracterstica propia, que es diferente de las dems, de modo que si dos distribuciones tienen la misma funcin caracterstica, es porque son idnticas. Se define:

x (t ) = E [ e itx ] Siendo i = 1
Es, por tanto, una funcin compleja de variable real.

2. PROPIEDADES.
1. Identifica a cada distribucin. 2. mk =

x( k (0)
ik

3. Si X e Y son variables aleatorias independientes:

x + y (t ) = x (t ) y (t )
4. Cualquiera que sea la variable aleatoria X, siempre existe x ( t ) y, adems, es continua y acotada, puesto que se verifica que:

x (t ) x (0) = 1

55 Gregorio Gmez Soriano

Introduccin a la Estadstica

Teora de la probabilidad

3. MODELOS UNIVARIANTES DE DISTRIBUCIONES DE PROBABILIDAD .


7

I. DISTRIBUCIONES DISCRETAS.
1. UNIFORME.
Se utiliza cuando tenemos discreto y simtrico, es decir, todos los valores de la variable aleatoria son equiprobables. Tambin se utiliza cuando desconocemos completamente cual es la funcin de probabilidad. EJEMPLOS: Lanzamiento de un dado, extraccin de un nmero de lotera, etc.

2. EL PROCESO DE BERNOUILLI Y SUS DISTRIBUCIONES ASOCIADAS.

1. EL PROCESO DE BERNOUILLI: CARACTERIZACIN.


Se denomina proceso de Bernouilli a un experimento aleatorio que consiste en observar elementos de una poblacin en la que se verifica que:
a) El resultado de la observacin de un elemento slo puede tomar dos valores que, en general, denotaremos:

1= xito 0= Fracaso
b) La proporcin de 1 y 0 en la poblacin es siempre constante y vale, respectivamente p y q=(1-p). Esto implica que, si la poblacin es finita, las extracciones deben realizarse con remplazamiento8.

7En

este tema slo se har una breve mencin de las distribuciones ms importantes. En el APNDICE II puede encontrarse ms informacin sobre la expresin de la f(x) y sus caractersticas principales. 8Si la poblacin es muy grande y el nmero de extracciones relativamente pequeo, no es indispensable el remplazamiento. 56 Gregorio Gmez Soriano

Introduccin a la Estadstica

Teora de la probabilidad

c) Las observaciones son independientes: el resultado de una observacin no influye sobre la siguiente.

2. DISTRIBUCIN DICOTMICA O DE BERNOUILLI.


Corresponde a un proceso de Bernouilli en el que el experimento aleatorio consiste en realizar una sola observacin. La variable aleatoria se define, entonces, como: X(xito)=1; X(Fracaso)=0 Y la funcin de probabilidad ser:
f(1)=p; f(0)=1-p=q
EJEMPLOS: Resultado de lanzar una moneda al aire; sexo de un recin nacido; sacar o no sacar un 6 al lanzar un dado...

3. DISTRIBUCIN BINOMIAL
Es la que corresponde a la repeticin de un proceso de Bernouilli n veces. En este caso la variable aleatoria ser: X = nmero de xitos al realizar n observaciones. EJEMPLO: nmero de caras al lanzar 15 veces una moneda.

4. DISTRIBUCIN GEOMTRICA O DE PASCAL


Idem al anterior pero definiendo: X= nmero de observaciones necesarias hasta obtener el primer xito. EJEMPLO: nmero de hijos hasta conseguir una nia.

5. DISTRIBUCIN BINOMIAL NEGATIVA9


Corresponde, como las dos anteriores, a un proceso de Bernouilli en el que definimos la variable: X = nmero de fracasos antes de obtener k xitos.
Funcin de densidad: Formula de recurrencia: Parmetros:

k + x 1 k x k f ( x ) = p k (q ) x = p q k 1 x
f ( 0) = p k ;
E x = kq ; p

f ( n + 1) =

q (n + k ) f ( n) n +1

2 =

kq p2

EJEMPLO: nmero de nias nacidas antes de nacer 5 nios.

6. DISTRIBUCIN HIPERGEOMTRICA.
Es equivalente a la binomial, pero cuando la extraccin se realiza sin remplazamiento, por lo que no corresponde exactamente a un proceso de Bernouilli. La variable aleatoria ser: X = nmero de xitos al extraer n elementos, sin remplazamiento, de una poblacin de tamao N. Suponemos que en la poblacin hay N1 xitos y N2 fracasos.
9No

se encuentra en el APNDICE II. 57

Gregorio Gmez Soriano

Introduccin a la Estadstica

Teora de la probabilidad

EJEMPLO: Nmero de bolas negras al sacar 15 bolas de una urna que contiene 50 (20 blancas y 30 negras)10.

3. EL PROCESO DE POISSON. DISTRIBUCIONES ASOCIADAS.

1. EL PROCESO DE POISSON: CARACTERIZACIN.


Consideremos un experimento aleatorio en el que se observa la aparicin de sucesos puntuales sobre un soporte continuo: averas de mquinas en el tiempo, accidentados que acuden a urgencias, defectos en una plancha de metal... Diremos que un proceso de este tipo es de Poisson cuando:
1. Es estable: a largo plazo: el nmero promedio de sucesos observados por unidad (de tiempo, de espacio, de rea, etc.) es constante y lo representamos por . 2. Los sucesos aparecen de forma independiente.

Supone la generalizacin de un proceso de Bernouilli cuando n y p 0 , siendo np = =cte.

2. DISTRIBUCIN DE POISSON.
Sobre un proceso de Poisson definimos la variable aleatoria: X = nmero de sucesos en un intervalo de longitud fija. EJEMPLOS: Nmero de infartos de miocardio atendidos por el Servicio de Urgencias en 1 semana.

II. DISTRIBUCIONES CONTINUAS DE PROBABILIDAD.


1. INTRODUCCIN.
Las distribuciones discretas de probabilidad pueden relacionarse de forma clara con determinados experimentos aleatorios, mediante un razonamiento lgico. Por esos, al hablar de ellos, hemos indicado los procesos, de tipo general, a los que se aplican. Esto, sin embargo, no siempre sucede con las distribuciones continuas, y es bastante comn que la adecuacin de una distribucin a un determinado proceso se realice de forma emprica.

2. DISTRIBUCIN UNIFORME.
Es la que se asocia a una variable aleatoria que slo puede tomar valores en el intervalo [a,b], de modo que todos los valores son equiprobables. Las tablas de nmero aleatorios se basan en esta distribucin, y tambin las funciones de aleatorizacin que utilizan los ordenadores.

10En

este caso N1=30 y N2=20. 58

Gregorio Gmez Soriano

Introduccin a la Estadstica

Teora de la probabilidad

3. DISTRIBUCIN DE CAUCHI.

1. FUNCIN DE PROBABILIDAD:
f ( x) = 1 a

a 2 + ( x b) 2

Donde a es el parmetro de escala y b el de localizacin.

2. PARMETROS:
No tiene media ni desviacin tpica.

3. FUNCIN DE DISTRIBUCIN:
F ( x) = 1 1 x b + ArcTg( ) 2 a

4. DISTRIBUCIN GAMMA: G(,p).


Est basada en la funcin (x) de Euler11. Adems de las caractersticas que aparecen en el cuadro del APNDICE II, cabe destacar:
a) Si tenemos 2 variables independientes12: X1~G(,p1) y X2~G(,p2), entonces, si Y=X1+X2, tenemos que: Y~G(, p1+p2). b) Si P es entero y positivo, entonces G(,P) representa la funcin de distribucin de una variable aleatoria asociada a un proceso de Poisson de parmetro y que mide el tiempo transcurrido hasta la ocurrencia de P sucesos. La funcin de distribucin es, en este caso:
F ( x ) = 1 e x ( x ) k k =0 k !

p 1

c) Funcin Exponencial:

Equivale a G(,1). De acuerdo con el apartado anterior, puede interpretarse como el tiempo que transcurre hasta que ocurre el primer suceso en un proceso de Poisson. Como corolario de a) y c) tenemos que si X1,...,Xk son k variables aleatorias independientes que se distribuyen segn una funcin exponencial de parmetro , y si Y=X1+X2 +...+ Xk entonces Y~G(,k).
d) Distribucin 2 n

Equivale a G(1/2,n/2). La veremos tambin ms adelante, como derivada de la normal.

5. DISTRIBUCIN BETA: b(p,q).


Esta basada en la funcin Beta de Euler, que se define como:

11Ver 12La

APNDICE I. notacin X~f(x) significa: la variable aleatoria X se distribuye segn la funcin de probabilidad f(x). 59

Gregorio Gmez Soriano

Introduccin a la Estadstica

Teora de la probabilidad

( p, q ) = 0 t p 1 (1 t ) q 1 dt =
1

( p ) ( q ) ( p + q )

Se aplica a variables aleatorias en los que 0 < X < 1

III. ESTUDIO PARTICULAR DE LA DISTRIBUCIN NORMAL O DE GAUSS.


1. TEOREMA CENTRAL DEL LIMITE
Dadas n variables aleatorias independientes: X1, X2, ...Xn que tienen el mismo tipo de funcin de distribucin, sea cual sea, la misma media y la misma varianza , entonces la variable aleatoria Y=X1+X2+...+Xn tiene una distribucin que tiende asintticamente a: N(n, n ). N(,) viene definida por la funcin de probabilidad:
1 f ( x) = e 2
( x ) 2
2 2

y se denomina distribucin Normal o de Gauss.

2. CONSECUENCIAS.
El teorema central del lmite explica porque la distribucin normal aparece con tanta frecuencia en los fenmenos reales. En efecto, siempre que en un proceso influya un nmero elevado de factores independientes, ste se distribuir de forma aproximadamente normal. Por ejemplo: Peso (depende de herencia, alimentacin, tipo de vida, ...); estatura, errores de medida; etc.

3. APROXIMACIN DE UNA DISTRIBUCIN BINOMIAL POR UNA NORMAL.


Una variable aleatoria binomial puede considerarse como la suma de n variables aleatorias de Bernouilli independientes. Por lo tanto, si n es suficientemente grande (en general npq > 5), la variable Binomial se aproximar a la normal de parmetros: =np y 2=npq . Es lo que se denomina el Teorema de LaplaceDe Moivre:
n

Lim Bi ( n , p ) = N ( np , npq )

4. APROXIMACIN DE UNA DISTRIBUCIN DE POISSON POR UNA NORMAL.


Teniendo en cuenta que la suma de n variables aleatorias de Poisson independientes, de parmetro , es otra variable aleatoria de Poisson de parmetro n, entonces:
n

Lim Po( ) = N ( , )

La aproximacin es aceptable para > 5.

60 Gregorio Gmez Soriano

Introduccin a la Estadstica

Teora de la probabilidad

5. DISTRIBUCIN 2 n DE PEARSON.
Si tenemos n variables aleatorias independientes X1, X2, ...Xn que se distribuyen segn N(0,1) y si 2 2 2 X = X 1 + X 2 + ... + X n , entonces la probabilidad para x>0 es:

x 2 f ( x) = 2

1 n xe 2
x 2

Podemos interpretar la distribucin 2 n considerando una variable multidimensional: X = (X1,X2,...Xn), de


2 2 2 + X2 + ... + X n = X 2 Es decir, representara la distribucin de la distancia de una variable modo que: X 1 multidimensional al centro de la distribucin, o en general, a su media, representada por el vector de medias.

1. PROPIEDAD:
2 2 Dadas dos variables aleatorias X1~ 2 n y X2~ m independientes y si Y= X1+ X2, entonces Y~ n + m

6. DISTRIBUCIN F DE FISHER-SNEDECOR.
Dadas dos variables aleatorias independientes, X1~ 2 n entonces Y~Fm,n PROPIEDAD:
n

y X2~ 2 m independientes y si Y =

X2 m , X1 n

2 Lm Fm,n = m

7. DISTRIBUCIN t DE STUDENT.
Dadas dos variables aleatorias independientes, X1~ 2 n y X2~N(0,1) y Y~St(n)13. si Y =
X2 X1 n

, ENTONCES

13St(n)

significa Student con n grados de libertad. Para ms detalles ver el APNDICE II.

61 Gregorio Gmez Soriano

Introduccin a la Estadstica

Teora de la probabilidad

APNDICE I
Dado un conjunto de m elementos: A={a1, a2,..., am}, se define:

I. Variaciones de m elementos tomados de n en n:


Nmero de subconjuntos de n elementos que se pueden formar a partir de los m elementos de A, de modo que contamos como diferentes dos conjuntos siempre que:
a) tengan algn elemento diferente. b) Si tienen los mismos elementos, estos estn en diferente orden.

1. Variaciones ordinarias14:
No se admite la repeticin de elementos. En consecuencia n m y se calculan:
Vm,n = m( m 1)...( m n + 1) =
n 1 i =0

( m i ) = ( m n )!
m!

2. Variaciones con repeticin15:


Puede haber elementos repetidos, y por lo tanto n puede tomar cualquier valor.
VR m,n = m
n

II. Permutaciones de m elementos:


Equivale a Vm,m. Es decir, son todas las posibles ordenaciones en las que pueden colocarse m elementos, hacindolos intervenir a todos siempre.

14Vgr.: 15Vgr.:

Si en una carrera participan 15 caballos, de cuantas formas diferentes puede quedar el podium? Cuantos nmeros de 15 cifras pueden formarse con los 10 dgitos? 62

Gregorio Gmez Soriano

Introduccin a la Estadstica

Teora de la probabilidad

1. Permutaciones ordinarias16:
Pm = Vm,m = m!

2. Permutaciones con repeticin17:


Cuando no todos los elementos del conjunto considerado son diferentes, sino que existen k elementos que se repiten, respectivamente, n1, n2,..., nk veces.
Pm1
n ,n2 ,...nk

m! n1 ! n2 !... nk !

Por supuesto

ni m .
i =1

3. Permutaciones cclicas:
Equivaldra a Pm pero considerando que los elementos se disponen en circulo18:
PRm = ( m 1)!

III. Combinaciones de m elementos tomados de n en n:


Consideramos que dos combinaciones son distintas cuando vara alguno de los elementos que entran a formar parte de ellas, y no lo son si solamente varia el orden en que se encuentran los elementos, pero estos son los mismos19.

Vm,n m m! = Cm,n = = n (m n)! n ! n !


A la expresin se le denomina nmero combinatorio.

m n

IV. Algunas propiedades de los nmeros combinatorios.


1. 0! = 1 2.

m m = n m n

16Vgr.: 17Vgr.:

De cuantas formas diferentes pueden hacer cola 6 personas? Al lanzar una moneda 10 veces, cuantas formas diferentes hay de que salgan 4 caras? Obsrvese que esto equivale a decir: cuantas maneras hay de ordenar 4 caras y 6 cruces? 18Vgr.: de cuantas formas pueden m personas sentarse en torno a una mesa redonda? 19Vgr.: Nmero de apuestas de Lotera Primitiva posibles. 63
Gregorio Gmez Soriano

Introduccin a la Estadstica

Teora de la probabilidad

3. = = 1

m 0

m m

4.

m + 1 m m + = n n 1 n
k

5. n = m
k

m n

m k nk m n

6. Definicin generalizada de :

Si n N y m R =

m n

m(m 1)...(m n + 1) n! m n

Si n es negativo y m R =0

V. El Teorema Multinomial.
1. El Teorema Binomial.
La expresin (1+t)n puede desarrollarse en serie de potencias convergente en los siguientes casos:
1. Si n

N, es decir si n = 1,2,3,...,
n n (1 + x ) n = x k k =0 k

2. Si n es negativo o fraccionario y |x|<1, o bien n>-1 y x = 1, o bien n>0 y x=-1


n (1 + x ) n = x k k =0 k

2. La identidad Hipergeometrica. Dados a, b R y n N


a + b a b = n k =0 k n k

3. Coeficiente Multinomial.
Dados m, n1 ,n2 ,...,nk enteros no negativos, se define:

64
Gregorio Gmez Soriano

Introduccin a la Estadstica

Teora de la probabilidad

m m! = n1 n 2 ... n k n1 ! n 2 !... n k !
4. El Teorema Multinomial. Si n N y x1,x2,...,xk R
( j1 + j2 + ...+ j k ) n k x = i ... i =1 j1 j2 jk n

n j1 j2 j x1 x 2 ... x k k j j ... j 1 2 k

VI. Factoriales generalizados.


1. La funcin GAMMA:
(n) = x n 1 e x dx
0

n +

1. PROPIEDAD: (n+1) = n(n) 2. COROLARIO:


Si n N (n+1) = n!

2. Frmula de STIRLING.

Lm ( n + 1) = n n e n 2n
n

Es decir: si n es suficientemente grande (n>10)


n ! n n e n 2 n

65
Gregorio Gmez Soriano

Introduccin a la Estadstica

Teora de la probabilidad

APNDICE II

Algunas distribuciones de probabilidad y sus caractersticas principales.


Distribuciones univariantes discretas. Distribuciones univariantes continuas. Proceso de obtencin de densidades para algunas leyes deducidas de la Normal. Distribuciones univariantes continuas deducidas de la Normal. Distribuciones k-variantes. 68 69 70 71 72

66
Gregorio Gmez Soriano

You might also like