You are on page 1of 9

Grupo:

Carrera:
D8
Ingeniería Industrial

Alumnos:
Castillo Rodríguez Alexis
Materia: Valentín
Probabilidad y Estadística
Ortiz Díaz Higo Alberto
Rincón Avalos Daniel
Catedrático:
Adonay Arcadio Velueta
Chan Unidad lIl:
Fundamentos de
Probabilidad

Proyecto:
Investigación Y Desarrollo De La Unidad

1
3.1 Concepto clásico y como frecuencia relativa.

Concepto clásico de probabilidad.

La probabilidad es una medida de la certidumbre asociada a un suceso o evento


futuro y suele expresarse como un número entre 0 y 1 (o entre 0 % y 100 %).

Probabilidad como frecuencia relativa.

Se entiende por probabilidad como frecuencia que por cuantas más veces se repita
el experimento, al final las posibilidades de que ocurra cada uno de los sucesos será
regular. Aunque cualquier comportamiento sea aleatorio, por proceso empírico
llegaremos a una regularidad. Es cuando se lanza un dado y suponiendo cuantas
veces cae el número que se seleccionó.

Utilizando la fórmula del límite cuando tiende a infinito de y nos da la


probabilidad del suceso , o más gráficamente:

Por tanto, la forma de calcular la probabilidad es usar la frecuencia relativa, ya que


si se trata de un experimento aleatorio en el cual se repite muchas veces,
la frecuencia relativa se acercara mucho a la probabilidad del suceso .

3.2 Axiomas y teoremas.

Axioma 1. La probabilidad del suceso seguro (E) es igual a P(E) =1

Axioma 3. La probabilidad de la unión de dos sucesos mutuamente excluyentes es


la suma de sus probabilidades P(AUB)= P(A)+P(B) A∩B=Ø

Axioma 2. La probabilidad de todo suceso S es mayor o igual a cero, es decir, no


existen probabilidades negativas 0 ≤P(S) ≤1.

Teorema 1: La probabilidad del suceso imposible es nula.

Teorema 2: La probabilidad del complementario de un suceso S (S’) es igual a 1


menos la probabilidad de S.

2
Teorema 3: La probabilidad de un suceso S cualquiera siempre es igual o menor
que 1.

Teorema 4: Si A y B son dos sucesos no mutuamente excluyentes, entonces..

3.3 Probabilidad clásica: Espacio finito equiparable.

Sea d un espacio muestral que contiene n elementos, d = {a1, a2, a3,....,an}, si a


cada uno de los elementos de d le asignamos una probabilidad igual de
ocurrencia, pi = 1/n por tener n elementos d, entonces estamos transformando
este espacio muestral en un espacio finito equiprobable, el que debe cumplir con
las siguientes condiciones:

1. Las probabilidades asociadas a cada uno de los elementos del espacio


muestral deben ser mayores o iguales a cero, pi ³ 0.

1. La sumatoria de las probabilidades asociadas a cada elemento del espacio


muestral debe de ser igual a 1.

Spi = 1

En caso de que no se cumpla con las condiciones anteriores, entonces no se trata


de un espacio finito equiprobable.

Solo en el caso de espacios finitos equiprobables, si deseamos determinar la


probabilidad de que ocurra un evento A cualquiera, entonces;

p(A) = r*1/n = r/n

p(A) = maneras de ocurrir el evento A/ Número de elementos del espacio muestral

3
r = maneras de que ocurra el evento A

1/n = probabilidad asociada a cada uno de los elementos del espacio muestral

n = número de elementos del espacio muestral

3.4 Probabilidad condicional e independencia.

Probabilidad Condicional

Generalmente hablando, la probabilidad condicional de un evento A dado otro evento B,


denotada P(A|B), es la probabilidad de que el evento A ocurra cuando sabemos que el
evento B ocurrió. La razón por la cual se llama condicional es que la probabilidad de que
el evento A ocurra está condicionada por la ocurrencia de B. Esta información adicional
sobre A se incluye en el cómputo de su probabilidad condicional cuando se
analizan los resultados posibles que se pueden observar cuando es conocido que B ha
ocurrido
En gran número de problemas prácticos, los eventos de mayor interés son aquellos cuya
ocurrencia está condicionada a la ocurrencia de otro evento. De aquí que interese introducir
el concepto de probabilidad condicional, esto es, la probabilidad condicionada a que haya
ocurrido o pudiese ocurrir cierto evento.

4
Independencia estadística.

En teoría de probabilidades, se dice que dos sucesos aleatorios son independientes entre
sí cuando la probabilidad de cada uno de ellos no está influida porque el otro suceso ocurra
o no, es decir, cuando ambos sucesos no están relacionados.

3.5 Teorema de Bayes.

El teorema de Bayes, en la teoría de la probabilidad, es una proposición planteada por el


filósofo inglés Thomas Bayes (1702-1761) en 1763, que expresa la probabilidad
condicional de un evento aleatorio A dado Ben términos de la distribución de probabilidad
condicional del evento B dado A y la distribución de probabilidad marginal de sólo A.

5
Con base en la definición de Probabilidad condicionada se obtiene la Fórmula de
Bayes, también conocida como la Regla de Bayes:

3.6 Distribución Marginal Conjunta.

Son las distribuciones unidimensionales que nos informan del número de


observaciones para cada valor de una de las variables.

Usos
La función de probabilidad marginal es usada para hallar las diferentes
distribuciones de probabilidad estadística de las variables individuales, con esta
función podemos asignar diferentes valores a las variables conjuntas sin tener que
relacionarlas, por ello se amplía las probabilidades de cada una de las variables.

6
Características
La distribución marginal de X es simplemente la función de probabilidad de x, pero
la palabra marginal sirve para distinguirla de la distribución conjunta de X e Y.
Una distribución marginal nos da la idea de la forma como depende una
probabilidad con respecto a una sola variable.

Ventajas
La distribución marginal de dos variables aleatorias se puede obtener a partir de su
distribución conjunta.

Para una variable aleatoria se puede especificar probabilidades para dicha variable
sin tener en cuenta los valores de cuales quiera otras variables aleatorias.

Distribución de Frecuencia: Es una tabla en la que se organizan los datos en clases,


es decir, en grupos de valores que describen una característica de los datos y
muestra el número de observaciones del conjunto de datos que caen en cada una
de las clases.

Desventajas
No es posible reconstruir la distribución conjunta de dos variables aleatorias a partir
de sus distribuciones marginales sin información adicional.

La factor de densidad de probabilidad marginal representada en gráfica no


proporcionan información acerca de la relación entre las variables aleatorias
conjuntas.

7
CONCLUSIÓN
En esta unidad pudimos aprender acerca de probabilidades de diferentes tipos,
durante el aprendizaje de estos utilizamos conocimientos acerca de las operaciones
con conjuntos, herramientas como el diagrama de Venn y pudimos añadir nuevo
conocimiento que es lo más importante.

Aprendimos la importancia de conocer la probabilidad de que ocurra algún suceso


y saber cómo calcularla dependiendo de las condiciones que se nos pidan, así como
representarlo de diferentes maneras (como el diagrama de árbol o el de Venn,
además de usando las fórmulas). También con ayuda de los axiomas y teoremas
hemos aprendido a inferir diferentes cosas en los ejercicios que hemos realizado
para reforzar la teoría.

8
http://www.itchihuahua.edu.mx/academic/industrial/sabaticorita/_private/02Axioma
s%20y%20teoremas.htm
http://probabilidadestadistic.blogspot.mx/2010/09/axiomas-y-teoremas-de-la-
probabilidad.html?m=1

https://prezi.com/auautud5pxfb/probabilidad-condicional-e-independencia-
estadistica/?webgl=0

https://es.slideshare.net/moibemo/probabilidad-1

http://www.itchihuahua.edu.mx/academic/industrial/sabaticorita/_private/04Espacio
s%20finitos%20equiprobables.htm

https://prezi.com/uwfiz4zulhff/distribuciones-marginales/?webgl=0

http://www.ugr.es/~jsalinas/bayes.htm

https://prezi.com/m/auautud5pxfb/probabilidad-condicional-e-independencia-
estadistica/

You might also like