You are on page 1of 4

PROBABILIDAD

Definición clásica: Suponga que un evento E puede ocurrir en h de n maneras


igualmente posibles. Entonces la probabilidad de que ocurra el evento (a la que se le

llama éxito) se denota como 𝑝 = 𝑃𝑟{𝐸} = 𝑛.

Definición de frecuencia relativa: La definición clásica de probabilidad tiene la


desventaja de que la expresión “igualmente posible” es vaga. Es más, como esta
expresión parece ser sinónimo de “igualmente probable”, la definición es circular, ya que
está definiendo probabilidad en términos de probabilidad. Debido a esto, algunas
personas han abogado por una definición estadística de probabilidad. De acuerdo con
esto, se considera que la probabilidad estimada o probabilidad empírica de un evento es
la frecuencia relativa de ocurrencia del evento cuando la cantidad de observaciones es
muy grande. La probabilidad misma es el límite de esta frecuencia relativa a medida que
la cantidad de observaciones aumenta de manera indefinida.

Estadística, 4ta edición, Murray R. Spiegel; Larry J. Stephens, Págs. 139-140

Define la relación entre el número de veces en que un evento se produce y el total posible
de casos. Para el estudio de las probabilidades se puede emplear la distribución
experimental o bien ajustar mediante el método estadístico las series observadas a los
modelos estadísticos teóricos de distribución.

El método estadístico tiene como objetivo buscar una expresión matemática que permita
modelizar la ley de distribución teórica. Se pretende así obtener una función de
distribución que ofrezca un buen ajuste a la muestra de los datos observados y permita la
generalización. Con una función de distribución representativa las frecuencias relativas
analizadas pueden generalizarse al conjunto de la población. Las funciones de
distribución teóricas más empleadas en Climatología son la distribución normal y la
distribución Gamma. En Climatología existe un gran número de variables como la
precipitación o la velocidad del viento, cuyo límite inferior en numerosos casos es el cero.
En este tipo de variables la curva normal abierta en ambos sentidos no es la adecuada y
se aplica mejor la distribución Gamma.

Open Course Ware, Universidad Politécnica de Madrid

La probabilidad es una forma numérica de medir la incertidumbre. Es decir, una forma de


medir la facilidad o dificultad de que un suceso ocurra.

Modelos de Probabilidad, Palomo Sánchez José Gabriel; Universidad Politécnica de


Madrid, Julio 2001
El término Probabilidad se refiere al estudio del azar y la incertidumbre. En aquellas
situaciones en las cuáles se puede producir uno de varios resultados posibles, la Teoría
de la Probabilidad provee métodos para cuantificar la chance de ocurrencia de cada uno
de ellos.

Probabilidades y Estadística, Cs. De la Comunicación, Ana M. Bianco, Elena J. Martínez

PROBABILIDAD CONDICIONAL

Si E1 y E2 son dos eventos, la probabilidad de que ocurra E2, dado que E1 ha ocurrido,
se denota Pr{E2 |E1 } o Pr(E2 dado E1 ) y se conoce como la probabilidad condicional de
E2 dado que E1 ha ocurrido.
Si la ocurrencia o no ocurrencia de E1 no afecta la probabilidad de ocurrencia de E2,
entonces Pr{E2 |E1 } = Pr{E2 } y se dice que E1 y E2 son eventos independientes, de lo
contrario se dice que son eventos dependientes.
Si se denota con E1 E2 el evento de que “tanto E1 como E2 ocurran”, evento al que suele
llamarse evento compuesto, entonces

Pr{𝐸1𝐸2} _ Pr{𝐸1} Pr{𝐸2_𝐸1}

En particular,
Pr{𝐸1𝐸2} _ Pr{𝐸1} Pr{𝐸2} para eventos independientes

Para tres eventos E1, E2 y E3, tenemos

Pr{𝐸1𝐸2𝐸3} _ Pr{𝐸1} Pr{𝐸2_𝐸1} Pr{𝐸3_𝐸1𝐸2}

Es decir, la probabilidad de que ocurra E1, E2 y E3 es igual a (la probabilidad de E1) (la
probabilidad de E2 dado que E1 ha ocurrido) (la probabilidad de E3 dado que E1 y E2
han ocurrido). En particular,

Pr{𝐸1𝐸2𝐸3} _ Pr{𝐸1} Pr{𝐸2} Pr{𝐸3} para eventos independientes

En general, si E1, E2, E3,. . ., En son n eventos independientes que tienen probabilidades
p1, p2, p3,. . ., pn, entonces la probabilidad de que ocurra E1 y E2 y E3 y. . . En es
p1p2p3. . . pn.

TEOREMA DE BAYES

El teorema de Bayes es utilizado para calcular la probabilidad de un suceso, teniendo


información de antemano sobre ese suceso.

Podemos calcular la probabilidad de un suceso A, sabiendo además que ese A cumple


cierta característica que condiciona su probabilidad. El teorema de Bayes entiende la
probabilidad de forma inversa al teorema de la probabilidad total. El teorema de la
probabilidad total hace inferencia sobre un suceso B, a partir de los resultados de los
sucesos A. Por su parte, Bayes calcula la probabilidad de A condicionado a B.

El teorema de Bayes ha sido muy cuestionado. Lo cual se ha debido, principalmente, a su


mala aplicación. Ya que, mientras se cumplan los supuestos de sucesos disjuntos y
exhaustivos, el teorema es totalmente válido.

Fórmula del teorema de Bayes

Para calcular la probabilidad tal como la definió Bayes en este tipo de sucesos,
necesitamos una fórmula. La fórmula se define matemáticamente como:

Donde B es el suceso sobre el que tenemos información previa y A(n) son los distintos
sucesos condicionados. En la parte del numerador tenemos la probabilidad condicionada,
y en la parte de abajo la probabilidad total. En cualquier caso, aunque la fórmula parezca
un poco abstracta, es muy sencilla. Para demostrarlo, utilizaremos un ejemplo en el que
en lugar de A(1), A(2) y A(3), utilizaremos directamente A, B y C.

DISTRIBUCIÓN DE PROBABILIDAD DE VARIABLE DISCRETA

Discretas

Si una variable X toma un conjunto discreto de valores X1, X2,. . ., XK con probabilidades
respectivas p1, p2,. . ., pK, donde p1 + p2 +. . .+ pK = 1, esto se define como una
distribución de probabilidad discreta de X. La función p(X), que tiene los valores p1, p2,. . .
, pK para X = X1, X2, . . . , XK , respectivamente, se llama función de probabilidad o
función de frecuencia de X. Como X puede tomar ciertos valores con determinadas
probabilidades, suele llamársele variable aleatoria discreta. A las variables aleatorias
también se les conoce como variables estocásticas.

Continua

Las ideas anteriores pueden extenderse al caso en el que la variable X puede tomar un
conjunto continuo de valores. El polígono de frecuencias relativas de la muestra se
convierte, en el caso teórico o límite de una población, en una curva continua (como la
que se muestra en la figura 6-3) cuya ecuación es Y = p(X). El área total limitada por el eje
X, bajo esta curva, es igual a 1, y el área entre las rectas X = a y X = b (que aparece
sombreada en la figura 6-3) corresponde a la probabilidad de que X se encuentre entre a
y b, lo que se denota como Pr {a < X < b}.

A p(X) se le conoce como función de densidad de probabilidad o brevemente función de


densidad, y cuando se da una de estas funciones se dice que se define una distribución
de probabilidad continua para X; a la variable X suele llamársele variable aleatoria
continua. Como en el caso discreto, se pueden definir distribuciones de probabilidad
acumulada y las funciones de distribución correspondientes.

You might also like