You are on page 1of 16

Introduccin a la probabilidad

1. INTRODUCCIN.

El concepto de probabilidad est ntimamente ligado a la nocin de experimento aleatorio y de suceso aleatorio. Por tanto, los primeros objetivos de este tema sern definir estos conceptos bsicos para poder entender, posteriormente, el concepto de probabilidad.

Un experimento aleatorio es cualquier experimento que pueda dar lugar a varios resultados, sin que sea posible anunciar con certeza cul de esos resultados va a ser observado. Por tanto, hay 3 propiedades que todo experimento aleatorio debe cumplir:

1) Los resultados del experimento son conocidos previamente.

2) No se puede conocer de antemano el resultado del experimento.

3) Si se repite el experimento en condiciones anlogas, se pueden obtener diferentes resultados cada vez que se lleve a cabo el experimento.

Por otro lado, el conjunto de posibles resultados de un experimento aleatorio se conoce con el nombre de espacio muestral, y se representa por . Dependiendo del nmero de elementos que contenga , el espacio muestral puede ser finito, infinito numerable o continuo.

Un suceso es un subconjunto del espacio muestral. Aquellos sucesos que estn formados por un solo elemento reciben el nombre de sucesos elementales, y son aquellos resultados posibles del experimento aleatorio que no se pueden descomponer en otros sucesos ms sencillos. Por su parte, un suceso compuesto es aquel que est formado por la unin de dos o ms sucesos elementales.

Las principales operaciones que se pueden realizar con sucesos son las siguientes:

-1-

Introduccin a la probabilidad

Suceso contenido en otro: se dice que el suceso A est contenido en el suceso B, y se representa por A B , si siempre que ocurre el suceso A, ocurre el suceso B. Igualdad de sucesos: diremos que el suceso A es igual al suceso B, si siempre que ocurra el suceso A ocurre el suceso B, y si siempre que ocurra el suceso B ocurre el suceso A, es decir, si se verifica que A B y que B A . La igualdad de sucesos se representa por A = B . Unin de sucesos: se define la unin de los sucesos A y B como aquel suceso C que ocurre siempre que ocurra el suceso A o siempre que ocurra el suceso B. Se representa por A U B = C .

Interseccin de sucesos: se define la interseccin de los sucesos A y B como aquel suceso D que ocurre siempre que ocurran A y B simultneamente. Lo representaremos por A I B = D .

Suceso complementario a otro suceso: dado un suceso A, se define su complementario como aquel suceso que ocurre siempre que no ocurra el suceso A. Se representa por A . Suceso seguro: es aquel suceso que ocurre siempre. Lo representaremos por , puesto que coincide con el espacio muestral, y se obtiene de la unin de todo suceso con su complementario: A U A = .

Suceso imposible: el suceso imposible es aquel suceso que no ocurre nunca. Lo representaremos por

{ },

y se obtiene de la interseccin de todo suceso con su

complementario: A I A = { }.

Sucesos incompatibles o excluyentes: dados dos sucesos A y B, se dice que son incompatibles si siempre que ocurra A, no puede ocurrir B, es decir, el suceso interseccin de dos sucesos incompatibles es siempre el suceso imposible: A I B = { }.

-2-

Introduccin a la probabilidad

Diferencia de sucesos: dados dos sucesos A y B, se define la diferencia entre ellos como aquel suceso E que ocurre siempre que ocurra A y no ocurra B. Se representa por E = A B , y se puede demostrar que E = A I B .

Consideremos a continuacin la clase formada por todos los sucesos asociados a un experimento aleatorio, a la que llamaremos Q. Si en esta clase Q se pueden realizar las operaciones unin e interseccin de sucesos, se verificarn entonces las siguientes propiedades:

1) Propiedad conmutativa:
AU B = B U A AI B = B I A

A, B Q

2) Propiedad asociativa:

A U (B U C ) = ( A U B ) U C A I (B I C ) = ( A I B ) I C
A, B, C Q

3) Propiedad distributiva:

A U (B I C ) = ( A U B ) I ( A U C ) A I (B U C ) = ( A I B ) U ( A I C )
A, B, C Q

4) Existe elemento neutro para la unin y elemento neutro para la interseccin, puesto que se verifica lo siguiente:

-3-

Introduccin a la probabilidad

A U { }= A
AI = A
A Q

5) Existe el suceso complementario, de forma que dado el suceso A, existir siempre otro suceso A , de forma que se verifique lo siguiente:
AI A ={ }

AU A =
A Q

Pues bien, cuando una clase Q de sucesos, asociada a un experimento aleatorio, verifica las cinco propiedades anteriores, se dice que Q tiene una estructura de lgebra de Boole de sucesos, y se representa de la siguiente forma:

(Q; U, I)
Finalmente, como consecuencia de las cinco propiedades anteriormente enunciadas, se van a verificar tambin las siguientes propiedades adicionales:

- Propiedad idempotente:
AU A = A AI A = A A Q

- Propiedad simplificativa:

A U (A I B) = A A I (A U B) = A
A, B Q

-4-

Introduccin a la probabilidad

- Propiedad de los elementos neutros: AU =

A I { }= { }
A Q

- Leyes de Morgan: contrario de ( A U B ) = A I B contrario de ( A I B ) = A U B


A, B Q

2. DEFINICIN AXIOMTICA DE PROBABILIDAD.

Para definir la probabilidad desde un punto de vista axiomtico, es necesario considerar una estructura ms amplia que el lgebra de Boole de sucesos, ya que esta ltima estructura se refiere nicamente a un nmero finito de sucesos. As, cuando se considera un nmero infinito numerable de sucesos, aparece una nueva estructura algebraica, que recibe el nombre de -lgebra. De esta forma, se dice que un conjunto de sucesos, que llamaremos A ( y que es una parte del espacio muestral ) tiene una estructura de -lgebra si y slo si se verifica lo siguiente: 1) A A, se verifica siempre que A A. 2) Para toda sucesin {An }n N A, se verifica que:

A1 U A2 U A3 K = U An A
n =1

-5-

Introduccin a la probabilidad

Pues bien, el par (; A), donde es el espacio muestral y A es un conjunto de


sucesos con estructura de -lgebra, recibe el nombre de espacio probabilizable. La definicin axiomtica de probabilidad viene dada por la llamada axiomtica

de Kolmogorov, que dice que, a partir de un espacio probabilizable (; A), una


funcin:

P: A

es una probabilidad si satisface los siguientes axiomas: AXIOMA 1: A A, se verifica que P( A) 0 . AXIOMA 2: P( ) = 1 AXIOMA 3: para toda sucesin {An }n N A, tal que Ai I A j = { } , i j , se verifica que:

P U An = P ( An ) n =1 n =1

A partir de estos 3 axiomas fundamentales, se deducen tambin las siguientes propiedades: 1) P({ }) = 0 .

n n 2) P U Ai = P ( Ai ) , siempre que Ai I A j = { } , i j , i, j = 1, 2, K , n . i =1 i =1
3) A A, se verifica que P (A ) = 1 P ( A) . 4) Si A, B A, y A B , se verifica que P( A) P(B ) . 5) A A, se verifica que P( A) 1 .

-6-

Introduccin a la probabilidad

6) A, B A, se cumple que P( A U B ) = P( A) + P(B ) P( A I B ) .


7) A, B A, se cumple que P( A U B ) P( A) + P(B ) El tro (; A; P ) , donde es el espacio muestral; A es un -lgebra de sucesos, y P es una funcin de probabilidad, recibe el nombre de espacio

probabilstico.

3. DETERMINACIN DE LA PROBABILIDAD. CONCEPCIN DE LAPLACE.

Aunque se podra dar una primera definicin de probabilidad diciendo que es la medida del grado de incertidumbre que comporta cualquier fenmeno o experimento aleatorio, lo cierto es que existen diferentes concepciones de probabilidad, como la frecuencial, la subjetiva, etc. Pero la concepcin de probabilidad ms extendida en la prctica es la llamada concepcin clsica o de Laplace.

Esta concepcin se basa en que los sucesos elementales son equiprobables. El modelo matemtico asociado a esta concepcin recibe el nombre de modelo uniforme y se enuncia de la siguiente forma: Sea (; A; P ) un espacio probabilstico y sea a1 , a2 , K, an un conjunto finito de sucesos elementales asociados a dicho espacio probabilstico. Estos sucesos elementales son incompatibles dos a dos por su propia definicin, y la unin de todos ellos dar lugar al espacio muestral:

= a1 U a2 U K U an

Al tomar probabilidades en ambos miembros de la expresin anterior, se tendr lo siguiente: P ( ) = P (a1 ) + P (a2 ) + L + P (an ) = 1

-7-

Introduccin a la probabilidad

Puesto que los sucesos elementales son equiprobables, se verifica que: P(a1 ) = P(a2 ) = L = P(an )

con lo que:

P (ai ) =

1 i = 1, 2, K, n n

De acuerdo con todo lo anterior, para todo suceso A A, definido como la unin de k sucesos elementales, tendremos:

P ( A) = P (a1 ) + P(a2 ) + L + P (ak ) =

1 1 1 k + +L+ = n n n n

siendo k el nmero de sucesos elementales favorables a A, y n el nmero total de sucesos elementales de . As, la regla clsica de Laplace establece que la probabilidad es el cociente entre los casos favorables y el nmero total de casos posibles. Este esquema conceptual presupone siempre la equiprobabilidad de los sucesos elementales.

4. CONCEPTO DE PROBABILIDAD CONDICIONADA.

Para comprender mejor el concepto de probabilidad condicionada, considrese el siguiente experimento aleatorio: un investigador elige al azar a una empresa de una poblacin compuesta por N empresas. Se supondr que todas las elecciones son equiprobables, por lo que la probabilidad asociada a la eleccin de cada empresa ser de

1 N . Esta situacin aleatoria puede representarse mediante el espacio probabilstico


(; A; P ) .

-8-

Introduccin a la probabilidad

Supngase, adems, que se consideran los sucesos A = se elige una empresa que obtiene beneficios y B = se elige a una empresa que tiene ms de 50 empleados. Consideremos aquella situacin en la que sabemos que ser elegida una empresa que tiene ms de 50 empleados, es decir, se ha realizado ( o ha ocurrido ) el suceso B.

Pues bien, habiendo ocurrido el suceso B, el suceso A puede haber ocurrido o puede no haber ocurrido. Es decir, el suceso A habr ocurrido si la empresa seleccionada pertenece al subconjunto A I B de , mientras que el suceso A no habr ocurrido si la empresa elegida pertenece al subconjunto A I B de . En esta situacin, el suceso B es ahora un suceso seguro, mientras que el suceso A slo ocurrir cuando suceda A I B . Considerando la concepcin clsica de Laplace, la probabilidad de que ocurra A, sabiendo que ha ocurrido B, ser el cociente entre el nmero de casos favorables al suceso A I B y el nmero total de casos posibles que realizan B, es decir:

nAI B n AI B P( A I B ) = N = nB nB P (B ) N

Pues bien, a partir de esta idea intuitiva de probabilidad condicionada, podemos dar la siguiente definicin formal: Sea (; A; P ) un espacio probabilstico y sea B A, tal que P(B ) > 0 .
Llamaremos probabilidad condicionada del suceso A, dado que ha ocurrido el suceso B, al cociente entre la probabilidad del suceso A I B y la probabilidad del suceso B, es decir: P( A I B ) ; P (B ) > 0 P (B )

P( A B ) =

La probabilidad condicionada verifica los tres axiomas de Kolmogorov, ya que se cumple que:

-9-

Introduccin a la probabilidad

1) P( A B ) 0 ; A A. 2) P( B ) = 1 3) P A B U n = P ( An B ) , siempre que los sucesos An constituyan una n =1 n =1 sucesin de sucesos disjuntos, es decir, An I An = { }, n n .

5. TEOREMA DEL PRODUCTO O REGLA DE LA MULTIPLICACIN. Si A y B son dos sucesos del espacio probabilstico (; A; P ) , con P( A) > 0 y

P(B ) > 0 , se verifica, a partir de la propia definicin de probabilidad condicionada, que: P ( A I B ) = P ( A) P ( B A ) P (B I A ) = P (B ) P ( A B )

A cualquiera de estas dos expresiones se le llama teorema del producto o de la

probabilidad compuesta, y se puede generalizar sin dificultad a la interseccin de


varios sucesos. As, para 3 sucesos, A, B y C, se tendra lo siguiente:

P( A I B I C ) = P( A) P(B A) P(C A I B )

6. TEOREMA DE LA PROBABILIDAD TOTAL.


Sea (; A; P ) un espacio probabilstico y sea {An }nN A un sistema completo de sucesos disjuntos. Un sistema completo de sucesos disjuntos es un conjunto de sucesos que verifican que An I An = { }, n n y

UA
n =1

= . Por otra parte, sea B un

suceso, para el cual se conocen las probabilidades condicionadas P (B An ) , siendo

- 10 -

Introduccin a la probabilidad

tambin conocidas las probabilidades P( An ) ; n = 1, 2, K . En estas condiciones, el Teorema de la Probabilidad Total establece lo siguiente:

P (B ) = P ( An ) P (B An )
n =1

Para aclarar el uso de este teorema, considrese el siguiente ejemplo:

Una empresa constructora dedicada a la construccin y venta de viviendas en tres municipios de Extremadura, que llamaremos E1 , E2 y E3 , vende en el municipio

E1 el 60 % de las viviendas, en el municipio E2 el 30 % y en el municipio E3 el 10 %


restante de las viviendas construidas. Se sabe que un determinado porcentaje de familias no efecta el pago de las letras mensuales que previamente haban aceptado, siendo este porcentaje del 2 % para el municipio E1 , del 4 % para el municipio E2 y del 6 % para el municipio E3 . Con esta informacin, se pide lo siguiente:

1) Calcular la probabilidad de que una familia cualquiera no pague sus letras, sea cual sea el municipio extremeo en el que viva.

2) Determinar la probabilidad de que una familia, que no ha pagado sus letras, resida en el municipio E2 .

Para resolver el problema, considrense los siguientes sucesos:

E1 : la familia reside en el municipio E1 . E2 : la familia reside en el municipio E2 .


E3 : la familia reside en el municipio E3 . B: la familia no paga las letras que previamente ha aceptado. E1 U E2 U E3 =

- 11 -

Introduccin a la probabilidad

E1 I E2 = { } P(E1 ) = 0,60 P(B E1 ) = 0,02

E1 I E3 = { }

E2 I E3 = { } P(E3 ) = 0,10 P(B E3 ) = 0,06

P(E2 ) = 0,30 P(B E2 ) = 0,04

B = (E1 I B ) U (E2 I B ) U (E3 I B ) P(B ) = P(E1 I B ) + P(E2 I B ) + P(E3 I B ) =


= P (E1 ) P (B E1 ) + P (E2 ) P (B E2 ) + P (E3 ) P (B E3 ) = P (Ei ) P(B Ei )
i =1 3

P(B ) = 0,60 0,02 + 0,30 0,04 + 0,10 0,06 = 0,03

7. TEOREMA DE BAYES O TEOREMA DE LA PROBABILIDAD INVERSA. Sea (; A; P ) un espacio probabilstico y sea {An }nN A un sistema completo
de sucesos disjuntos, tal que P ( An ) > 0; n = 1, 2, K . Sea B A un suceso P(B ) > 0 , para el cual se conocen las probabilidades condicionadas P (B An ) . En estas condiciones, el teorema de Bayes establece lo siguiente:

P( An B ) =

P ( A ) P (B A )
n =1 n n

P( An ) P(B An )

El teorema anterior se puede demostrar fcilmente si se considera el concepto de probabilidad condicionada, el teorema del producto y el teorema de la probabilidad total.

El segundo apartado del ejemplo utilizado anteriormente para explicar el uso de la frmula del teorema de la probabilidad total es, en realidad, una aplicacin del teorema de Bayes, puesto que dicho apartado pide el clculo de la siguiente probabilidad condicionada:

- 12 -

Introduccin a la probabilidad

P (E2 B ) =

P (E2 I B ) P (E ) P (B E2 ) 0,30 0,04 = 3 2 = = 0,40 P(B ) 0,03 ( ) ( ) P E P B E i i


i =1

8. INDEPENDENCIA DE SUCESOS.
Sea (; A; P ) un espacio probabilstico y sean dos sucesos A, B A. Se dice
que estos dos sucesos son independientes si, y slo si, se verifica que:

P ( A I B ) = P ( A) P ( B )

Es importante indicar que los sucesos incompatibles o excluyentes son los sucesos ms dependientes que existen, puesto que la ocurrencia de uno implica necesariamente la no ocurrencia del otro, y viceversa.

Si los sucesos A y B son estadsticamente independientes, entonces se verificar tambin lo siguiente: 1) P( A B ) = P( A), si P(B ) > 0

P(B A) = P(B ), si P( A) > 0


2) P ( A I B ) = P ( A) P (B ) P ( A I B ) = P ( A ) P (B ) P ( A I B ) = P( A ) P (B )

Por otra parte, el concepto de independencia puede extenderse a ms de dos sucesos. As, los sucesos A, B y C sern mutuamente independientes si verifican lo siguiente:

- 13 -

Introduccin a la probabilidad

P ( A I B ) = P ( A) P ( B ) P( A I C ) = P( A) P(C ) P(B I C ) = P(B ) P(C ) P( A I B I C ) = P( A) P(B ) P(C )

Las tres primeras condiciones suponen lo que se denomina independencia por pares ( o independencia dos o dos ), pero para que los tres sucesos sean mutuamente independientes se debe verificar, adems de las tres primeras condiciones, la cuarta condicin.

De esta forma, y con carcter general, se dice que un conjunto de n sucesos son mutuamente independientes si, y slo si, para cualquier subfamilia finita ( A1 , A2 , , Ak ) de dicho conjunto ( k n ) se verifica lo siguiente:

P ( A1 I A2 I K I Ak ) = P ( Ai )
i =1

En consecuencia, se puede concluir diciendo que la independencia mutua implica siempre la independencia por pares, pero la independencia por pares no implica la independencia mutua.

Para aclarar todos estos conceptos, supngase que en una gran ciudad se venden 3 peridicos, de manera que, por diferentes estudios, se sabe que el 20 % de los lectores lee el peridico A, el 30 % lee el peridico B y el 50 % restante lee el peridico C. Tambin se sabe que el 6 % de los lectores lee tanto el peridico A como el peridico B, el 10 % lee los peridicos A y C y el 18 % lee los peridicos B y C. Finalmente, se sabe que un 3 % de los lectores lee los tres peridicos. Se desea determinar, con esta informacin, si los sucesos leer el peridico x son independientes.

A: el lector lee el peridico A. B: el lector lee el peridico B.

- 14 -

Introduccin a la probabilidad

C: el lector lee el peridico C.

P( A) = 0,20 P( A I B ) = 0,06

P(B ) = 0,30 P( A I C ) = 0,10 P( A I B I C ) = 0,03 P ( A I B ) = P ( A ) P (B )

P(C ) = 0,50 P(B I C ) = 0,18

0,06 = 0,20 0,30 0,06 = 0,06

A y B son sucesos independientes

P( A I C ) = P( A) P(C )
0,10 = 0,20 0,50 0,10 = 0,10

A y C son sucesos independientes

P(B I C ) = P(B ) P(C )


0,18 = 0,30 0,50 0,18 0,15

B y C no son sucesos independientes

P( A I B I C ) = P( A) P(B ) P(C )
0,03 = 0,20 0,30 0,50 0,03 = 0,03

Por tanto, podemos concluir diciendo que los sucesos A, B y C no son independientes por pares y, como consecuencia de ello, tampoco son mutuamente independientes. Ahora bien, si se hubiese verificado que P(B I C ) = P(B ) P(C ) , entonces los sucesos A, B y C seran mutuamente independientes y, consecuentemente, independientes por pares.

- 15 -

Introduccin a la probabilidad

9. BIBLIOGRAFA UTILIZADA.

CASAS SNCHEZ, J.M. y SANTOS PEAS, J. (1995): Introduccin a la Estadstica para Economa y Administracin de Empresas, pp. 17-23, 28-37. Editorial Centro de Estudios Ramn Areces, S.A. Madrid. MARTN-GUZMN, M.P. y MARTN PLIEGO, F.J. (1987): Curso bsico de Estadstica Econmica, pp. 1-6. Editorial AC. Madrid.

- 16 -

You might also like