You are on page 1of 9

UNIDAD 2 PROBABILIDAD 2.

1 PROBABILIDAD DE EVENTOS Muchos de los eventos que ocurren en la vida diaria no pueden ser predichos con exactitud desde antes por diversas razones, pues la mayora de los hechos estn influidos por factores externos. Adems, existen aquellos sucesos que estn directamente influidos por el azar, es decir, por procesos que no se est seguro de lo que va a ocurrir. Sin embargo, la probabilidad nos permite acercarnos a esos sucesos y estudiarlos, ponderando las posibilidades de su ocurrencia y

proporcionando mtodos para tales ponderaciones. PROBABILIDAD SUBJETIVA La probabilidad subjetiva de un evento se la asigna la persona que hace el estudio, y depende del conocimiento que esta persona tenga sobre el tema. Precisamente por su carcter de subjetividad no se considera con validez cientfica, aunque en la vida diaria es de las ms comunes que se utilizan al no apoyarse ms que en el sentido comn y los conocimientos previos, y no en resultados estadsticos. PROBABILIDAD FRECUENCIAL La probabilidad frecuencial de un evento es el valor fijo al que tienden las frecuencias relativas de ocurrencia del evento de acuerdo a la regularidad estadstica. Esta definicin sera la ms real, pero proporciona probabilidades aproximadas, es decir, proporciona estimaciones y no valores reales. Adems, los resultados son a posteriori, pues se necesita realizar el experimento para poder obtenerlo. PROBABILIDAD CLSICA La probabilidad clsica de un evento E, que denotaremos por P (E), se define como el nmero de eventos elementales que componen al evento E, entre el nmero de eventos elementales que componen el espacio muestral. Es la definicin ms utilizada porque supone de antemano, y se necesita como requisito indispensable, que todos los eventos elementales tienen la misma,

probabilidad de ocurrir. Existen dos procedimientos importantes por medio de los cuales podemos obtener estimativos para la probabilidad de un suceso.

1.

Enfoque clsico o a priori Si un suceso puede ocurrir en h maneras diferentes de un nmero total de n maneras posibles, todos igualmente factibles, entonces la probabilidad del suceso es h/n.

2.

Enfoque- como frecuencia relativa o a posteriori. Si despus de n repeticiones de un experimento, donde n es muy grande, un suceso ocurre h veces, entonces la probabilidad del suceso es h/n. Esto tambin se llama la probabilidad emprica del suceso.

Ambos enfoques el clsico y el de frecuencia presentan serias dificultades, el primero debido a la vaguedad de las palabras "igualmente factibles" y el segundo debido a la vaguedad incluida en un "nmero muy grande". A causa de estas dificultades los matemticos en los ltimos aos se han orientado a un enfoque axiomtico utilizando conjuntos. 2.2 ESPACIO MUESTRAL Un conjunto que consiste en todos los resultados de un experimento aleatorio se llama un espacio muestral y cada uno de los resultados se denomina punto muestral, Con frecuencia habr ms de un espacio muestral que describe los resultados de un experimento pero hay comnmente slo uno que suministra la mayora de la informacin. Espacio muestral (U) es el conjunto universo de todos los resultados posibles de un experimento dado. Cada uno de sus elementos se denomina punto muestral o muestra. Ejemplos: Si el experimento se basa en la eleccin de un dgito, entonces el espacio muestral es: U = {0, 1, 2, 3, 4, 5, 6, 7, 8, 9}.

Si el experimento se basa en el lanzamiento de una moneda, el espacio muestral tiene dos elementos, cara (c) y sello (s): U = {c, s}.

Espacio muestral de un dado: U = {1, 2, 3, 4, 5, 6}.

2.3 OCURRENCIA DE EVENTOS La unin de dos eventos es el evento que est formado por todos los resultados contenidos en cualquiera de los eventos. La unin se denota por:

La interseccin de dos eventos es el evento que est formado por los resultados contenidos en ambos eventos. La interseccin se denota por:

El complemento de un evento en un espacio muestral es el conjunto de resultados en el espacio muestral que no estn en el evento. Este componente del evento E se denota como E' * Si * Y * Entonces * + + + +

2.4 PERMUTACIONES Y COMBINACIONES PERMUTACIONES Una regla de conteo que a veces resulta til es la regla de conteo para permutaciones. Esta permite que uno pueda calcular el nmero de resultados experimentales al seleccionar r objetos de un conjunto n objetos, donde es importante el orden de seleccin. Si los mismos r objetos se seleccionan en otro orden se considera que se trata de un resultado experimental distinto. En las permutaciones s importa el orden Regla de conteo para permutaciones El nmero de permutaciones de n objetos tomando r a la vez est dado por

La regla de conteo para permutaciones tiene estrecha relacin con la de las combinaciones. No obstante, un experimento tendr ms permutaciones que combinaciones para el mismo nmero de objetos porque cada seleccin de r objetos tiene n! formas distintas para ordenarlos. COMBINACIONES Permite contar la cantidad de resultados experimentales cuando en un experimento se deben seleccionar r objetos entre un conjunto de n objetos (por lo comn ms grande). Se llama regla de conteo para combinaciones. El orden de los objetos seleccionados no es importante en el orden.

La cantidad de combinaciones de n objetos tomados r a la vez es

La notacin ! significa factorial; por ejemplo: 5 factoriales 5! = (5)(4)(3)(2)(1) = 120. Por definicin, 0! es igual a 1. 2.5 DIAGRAMA DE RBOL Un diagrama de rbol es una herramienta que se utiliza para determinar todos los posibles resultados de un experimento aleatorio. En el clculo de la probabilidad se requiere conocer el nmero de objetos que forman parte del espacio muestral, estos se pueden determinar con la construccin de un diagrama de rbol. El diagrama de rbol es una representacin grfica de los posibles resultados del experimento, el cual consta una serie de pasos, donde cada uno de los pasos tiene un nmero finito de maneras de ser llevado a cabo. Se utiliza en los problemas de conteo y probabilidad. Para la construccin de un diagrama en rbol se partir poniendo una rama para cada una de las posibilidades, acompaada de su probabilidad. Cada una de estas ramas se conoce como rama de primera generacin. En el final de cada rama de primera generacin se constituye a su vez, un nudo del cual parten nuevas ramas conocidas como ramas de segunda generacin, segn las posibilidades del siguiente paso, salvo si el nudo representa un posible final del experimento (nudo final).

1 2 A 3 4 1 2 B 3 4 1 2 C 3 4

A1 A2 A3 A4 B1 B2 B3 B4 C1 C2 C3 C4

Diagrama de Arbol

2.6. AXIOMAS DE PROBABILIDAD Los axiomas de probabilidad son las condiciones mnimas que deben verificarse para que una funcin definida sobre un conjunto de sucesos determine consistentemente sus probabilidades. Fueron formulados por Kolmogrov en 1933. Axiomas de Kolmogrov Primer axioma

La probabilidad de que ocurra un evento A cualquiera se encuentra entre cero y uno. 0 p(A) 1 Ejemplo: La probabilidad de sacar par en un dado equilibrado es 0,5. P(A) = 0,5 Segundo Axioma

La probabilidad de que ocurra el espacio muestral d debe de ser 1.

p() = 1 Ejemplo: La probabilidad de sacar un nmero del 1 al 6 en un dado equilibrado es "1".

Tercer Axioma

Si A y B son eventos mutuamente excluyentes. P (A B) = p(A) + p(B)

Ejemplo: La probabilidad de sacar en un dado "as" o sacar "nmero par" es la suma de las probabilidades individuales de dichos sucesos.

2.7 INDEPENDENCIA Y PROBABILIDAD CONDICIONAL Probabilidad condicional: Como su nombre lo indica se trata de determinar la probabilidad de que ocurra un evento A dado que ya aconteci un evento B, y se representa mediante P(A|B), se lee probabilidad de A dado B o probabilidad de A condicionada a B. En la probabilidad condicional, consideramos que de un espacio muestral S se conoce nicamente el evento B, que constituye un espacio muestral reducido. Como nicamente conocemos el evento B, la probabilidad de que exista A est dada por la posible interseccin del evento A con el evento B. Por lo tanto la expresin para la probabilidad condicional quedara P (A|B)=n(AB)/n(B), donde n(AB) es el nmero de elementos en la interseccin de A con B y n(B) es el nmero de elementos en el evento B. ( | ) ( ( ) )

PROBABILIDAD DE EVENTOS INDEPENDIENTES Regresando a la expresin anterior P(AB)=P(A)P(A|B). Si los eventos A y B son independientes entre s, esto significa que la ocurrencia de uno no depende de la ocurrencia del otro, por lo tanto la probabilidad condicional sera igual a la probabilidad de ocurra cualquier P(A|B)=P(A) y P(B|A)=P(B).

Sustituyendo en la expresin de probabilidad conjunta, tenemos P (AB)=P(A)P(B) Siempre y cuando A y B sean eventos independientes entre s y se le denomina Ley de multiplicacin de eventos Independientes.

2.8. TEOREMA DE BAYES En la teora de la probabilidad el teorema de Bayes es un resultado enunciado por Thomas Bayes en 1763 que expresa la probabilidad condicional de un evento aleatorio A dado B en trminos de la distribucin de probabilidad condicional del evento B dado A y la distribucin de probabilidad marginal de slo A. En trminos ms generales y menos matemticos, el teorema de Bayes es de enorme relevancia puesto que vincula la probabilidad de A dado B con la probabilidad de B dado A. Es decir que sabiendo la probabilidad de tener un dolor de cabeza dado que se tiene gripe, se podra saber -si se tiene algn dato ms-, la probabilidad de tener gripe si se tiene un dolor de cabeza, muestra este sencillo ejemplo la alta relevancia del teorema en cuestin para la ciencia en todas sus ramas, puesto que tiene vinculacin ntima con la comprensin de la probabilidad de aspectos causales dados los efectos observados.

Formula de Bayes

( | )

( | ) ( ) ( | ) ( )

El teorema de Bayes es vlido en todas las aplicaciones de la teora de la probabilidad. Sin embargo, hay una controversia sobre el tipo de probabilidades que emplea. En esencia, los seguidores de la estadstica tradicional slo admiten probabilidades basadas en experimentos repetibles y que tengan una confirmacin emprica mientras que los llamados estadsticos bayesianos permiten probabilidades subjetivas. El teorema puede servir entonces para indicar cmo debemos modificar nuestras probabilidades subjetivas cuando recibimos informacin adicional de un experimento.

You might also like