You are on page 1of 7

INTRODUCCIÓN A LA PROBABILIDAD.

La probabilidad es una rama de la estadística que tiene múltiples aplicaciones una de ellas
es el muestreo, que al ser aplicado a esta etapa de la investigación se le llama el muestreo
probabilístico.

Veamos de manera formal el concepto de probabilidad.

Probabilidad: indica la posibilidad o chance de la ocurrencia de un evento futuro

El término probabilidad se utiliza en el lenguaje cotidiano para indicar la posibilidad de la


ocurrencia de un evento futuro. Esta interpretación práctica es aceptable, pero no suficiente para
su uso en la estadística. Es necesario precisar en qué contextos se aplica, cómo se mide y cómo
se usa para realizar inferencias.

La estadística inferencial parte de una muestra conocida para sacar conclusiones acerca de
la población desconocida.

Estadística Inferencial: Muestra → Población

La probabilidad permite razonar a partir de una población conocida hacia una muestra
desconocida.

Probabilidad: Población → Muestra

Veamos algunos ejemplos que muestran el uso de la probabilidad

Ejemplo: Consideremos el experimento de tirar un dado de seis caras y observar el resultado.


Los resultados posibles son 1, 2, 3, 4, 5, 6. Si el dado estuviera bien hecho, balanceado y
tiráramos el dado una gran cantidad de veces, se esperaría que 1/6 de las tiradas arrojaran 1
como resultado, 1/6 arrojaran 2, etc. Partiendo de esto, se puede calcular, por ejemplo, la
probabilidad de un par de seis en dos tiradas del dado.

Ejemplo: Supongamos que hay dos candidatos A y B que aspiran a un puesto público y
deseamos determinar si el candidato A va a ganar, es decir, si va a obtener más del 50% de los
votos.

▪ La población es el conjunto de preferencias de todos los electores.

▪ Se busca determinar si la fracción a favor de A excede 0.5 = 50%.

▪ Se selecciona una muestra de 20 electores y se determina a que candidato van a votar.

Supongamos que los 20 dicen que van a votar al candidato A.

La probabilidad permite razonar de la siguiente manera. No es imposible que 20 personas de 20


estén a favor del candidato A cuando menos del 50% del electorado lo va a votar, pero es muy
poco probable que gane el candidato B. Por eso se concluye que va a ganar el candidato A.

Ejemplo: Un médico debe decidir si administra un nuevo compuesto de hierro a un paciente con
anemia. Tiene información de que dicho compuesto fue administrado a 30 pacientes anémicos y
que en 20 de ellos se observó un aumento significativo en la cantidad de glóbulos rojos respecto
del nivel que tenían antes de iniciar el tratamiento.
El médico puede razonar de la siguiente manera: 2/3 de los pacientes en el experimento
mejoraron, entonces hay una mayor chance de mejoría que de no mejoría. Por lo tanto, decido
administrarle la nueva droga.

La probabilidad provee de métodos para tomar “buenas decisiones” pero esto no garantiza
“buenos resultados”. En este ejemplo, en base a la información que se tiene el administrarle la
nueva droga puede considerarse una buena decisión pero no hay garantía de que aumente el
nivel de glóbulos rojos. De todos modos las técnicas empleadas buscan que las discrepancias
entre “buenas decisiones” y “buenos resultados” se lo más pequeña posible.

A continuación vamos a definir algunos conceptos y estudiar algunos resultados que


permiten tener un marco formal para estudiar este tipo de situaciones.

EXPERIMENTO Y ESPACIO MUESTRAL.

Experimento: Proceso mediante el cual se obtiene una observación (o una medición) de un


fenómeno.

Los experimentos pueden ser concretos o conceptuales.

Experimentos concretos.

▪ Un investigador médico administra un medicamento a un paciente y observa el resultado.

▪ Un encuestador se presenta en una casa y le solicita a sus habitantes que le suministren


información para completar un formulario.

▪ En una central telefónica se cuenta el número de llamadas atendidas en un determinado


minuto.

Experimentos conceptuales.

▪ Se puede concebir (pero no realizar en la práctica) el experimento de arrojar una moneda al


aire infinitas veces y contar el número de tiradas que se requirieron antes de que salga la
primera cara.

Asociado a su realización, tenemos el conjunto de resultados posibles.

Espacio muestral o espacio muestra. El conjunto que consta de los resultados posibles de un
experimento E, se llama espacio muestral, y será denotado con S.

Cada elemento de S (resultado posible del experimento) se llama punto muestral.

Para un mismo experimento se pueden definir distintos espacios muestrales. La


determinación de S depende de lo que se quiera estudiar. Se asume que los resultados son
mutuamente excluyentes.

Ejemplo. Un investigador médico está interesado en verificar si hay un aumento en el número


de glóbulos rojos de un paciente después de administrarle un medicamento.

Hay diferentes formas de definir el espacio muestral S de este experimento.

Si sólo le interesa si hubo o no aumento:

S = {A, NA} donde A significa aumentó y NA no aumentó.


o bien,

S = {1, 0} donde 1 significa aumentó y 0 no aumentó.

Si le interesa la cantidad de glóbulos rojos y conoce una cota superior para la cantidad de
glóbulos rojos:

S = {0, 1, ..., 20 000 000}

Si le interesa la cantidad de glóbulos rojos y no conoce una cota superior para la cantidad de
glóbulos rojos:

S = {0, 1, 2, ...} = N (números naturales)

Cuando trabajemos con un experimento E se supondrá que el espacio muestral S ya ha sido


fijado.

Clases de experimentos:

Experimento determinístico. Si S tiene un único elemento.

Experimento aleatorio. Si S tiene más de un elemento.

En este curso nos dedicaremos al estudio de los experimentos aleatorios.

CONCEPTO DE PROBABILIDAD

La probabilidad de un evento A ∈ P(S), denotada con P(A), es una medida de la


posibilidad de que se realice A si se ejecuta el experimento una vez. Esta medida se define de
modo tal que satisfaga ciertas condiciones.

Una distribución de probabilidad o función de probabilidad P es una función que asigna a


cada evento un número real de modo que

1. P(A) ≥ 0.

2. P(S) = 1.

3. Si A1, A2, A3, ... son eventos mutuamente excluyentes (Ai ∩ Aj = ∅ si i j) entonces

P(A1 ∪ A2 ∪ A3 ∪ ...) = P(A1) + P(A2) + P(A3) + ... =∑∞


𝑖=1 𝑃(𝐴𝑖 ) .

De las condiciones anteriores se deduce:

Propiedades de P.

1) P(𝐴) = 0.

𝑛
2) Si Ai ∩ Aj =∅, i, j = 1, ..., n, entonces 𝑃(⋃𝑖=1 𝐴𝑖 ) = ∑𝑛𝑖=1 𝑃(𝐴𝑖 )

3) P(Ac) = 1 − P(A).
4) 0 ≤ P(A) ≤ 1.

5) P(A ∪ B) = P(A) + P(B) − P(A ∩ B)

6) Si A ⊆ B, entonces P(A) ≤ P(B).

Ejemplo. El experimento consiste en tirar una moneda. Se considera

S = {cara, ceca}

La familia de eventos es

P(S) = {∅,{cara}, {ceca}, S}

Si definimos

P(∅) = 0, P(S) = 1, P({cara}) = 1/2 y P({ceca}) = 1/2,

se puede demostrar que P verifica las condiciones anteriores. Por lo tanto es una distribución de
probabilidad.

Podría definirse

P(∅) = 0, P(S) = 1, P({cara}) = 1/4 y P({ceca}) = 3/4.

y también se verificarían las condiciones.

Ejemplo El experimento consiste en tirar un dado.

S = {1, 2, 3, 4, 5, 6}

P(S) tiene 26 = 64 eventos.

Los eventos simples son {1}, {2}, {3}, {4}, {5} y {6}.

Podemos definir

P({1}) = 0, P({2}) = 0, P({3}) = 0, P({4}) = 0, P({5}) = 1/3, P({6}) = 2/3.

Se tiene que cada uno de estos valores son no negativos, además

P({1}) + P({2}) + P({3}) + P({4}) + P({5}) + P({6}) = 0 + 0 + 0 + 0 + 1/3 + 2/3 = 1

Luego estos valores de P determinan una distribución de probabilidad y para calcular P de


cualquier otro evento se procede de la siguiente forma,

P({1, 6}) = P({1}) + P({6}) = 0 + 2/3 = 2/3

P({1, 3, 5}) = P({1}) + P({2}) + P({3}) = 0 + 0 + 0 = 0

P({5, 6}) = P({5}) + P({6}) = 1/3 + 2/3 = 1

Se tiene que P(S) = 1, y como podemos observar con este ejemplo un evento puede tener
probabilidad 1 sin ser S.
Del mismo modo,

Se tiene que P(∅ ) = 0, y según este ejemplo un evento puede tener probabilidad 0 sin ser ∅ .

Como hemos visto para un mismo experimento la distribución de probabilidad P puede


definirse de diferentes formas. Sin embargo, se debe buscar que la definición de P refleje la
naturaleza del experimento.

Esto puede hacerse de dos formas. La definición de P, puede basarse en un


conocimiento previo de la naturaleza del experimento (noción de probabilidad a priori) o bien se
puede utilizar la información obtenida al realizar el experimento un número grande de veces
(noción de probabilidad a posteriori).

Definición de probabilidad a priori o clásica

Si el experimento tiene un espacio muestral con N eventos simples igualmente posibles y si un


evento A contiene NA elementos, entonces se define

P(A) = NA/N.

(P se llama distribución de igual probabilidad)

Ejemplo. El experimento consiste en tirar una moneda. Se considera

S = {cara, ceca}

La familia de eventos es

P(S) = {∅ ,{cara}, {ceca}, S}

Hay sólo dos eventos simples {cara}y {ceca}. Si no tenemos razones para pensar que la moneda
está mal balanceada, estos eventos tendrán la misma posibilidad de salir y podemos definir P
como una distribución de igual probabilidad.

#S = 2

#{cara} = 1, entonces P({cara}) = #{cara} / #S = 1/2.

#{ceca} = 1, entonces P({ceca}) = #{ceca} / #S = 1/2.

Además se cumple P(S) = 1, pues

#S = 2, entonces P(S) = #S / #S = 2/2 = 1.

y P(∅ ) = 0, pues

#∅ = 0, entonces P(∅ ) = #vacio / #S = 0/2 = 0.

Ejemplo El experimento consiste en tirar un dado.

S = {1, 2, 3, 4, 5, 6}
P(S) tiene 26 = 64 eventos. Los eventos simples son {1}, {2}, {3}, {4}, {5} y {6}. Si el dado
está bien balanceado, estos eventos tendrán la misma posibilidad de salir y podemos definir P
como una distribución de igual probabilidad.

#S = 6.

Cada uno de los eventos simples tiene un solo elemento, por lo tanto su probabilidad será 1/6.
Para otros eventos se tiene,

P({1, 3, 5}) = 3/6 = 1/2

P({1, 3}) = 2/6 = 1/3

P({4, 5, 6}) = 3/6 = 1/2

La noción de probabilidad a posteriori se basa en la idea de que la probabilidad de un


evento mide, en cierto sentido, el porcentaje de veces que el evento debería realizarse si se
ejecutara el experimento un número grande de veces.

Definición de probabilidad a posteriori o frecuencial

Se repite el experimento N veces. Si en esas repeticiones el evento A se realiza NA veces,


entonces se define

P(A) = NA/N.

NA se llama frecuencia de aparición (observada) del evento A.

NA/N se llama frecuencia relativa de aparición (observada) del evento A.

Ejemplo. El experimento consiste en tirar una moneda. Se considera

S = {cara, ceca}

La familia de eventos es

P(S) = {∅ ,{cara}, {ceca}, S}

Se tira la moneda 100 veces y se observa


Resultado Frecuencia Frecuencia relativa
Cara 55 55/100 = 0.55
Ceca 45 45/100 = 0.45

En base a lo anterior se define,

P({cara}) = 0.55 P({ceca}) = 0.45

Si el conocimiento que se tiene del experimento permite asignarle una probabilidad a


priori a los eventos, es de esperar que coincida o sea muy aproximada a la asignación que se
obtiene con esta definición a posteriori. En este caso, se podría pensar que la moneda está bien
balanceada y la probabilidad a posteriori es una buena aproximación a lo que se esperaría: 0.5
para cada evento.

Otro caso podría ser, se tira la moneda 100 veces y se observa


Resultado Frecuencia Frecuencia relativa
Cara 4 4/100 = 0.04
Ceca 96 96/100 = 0.96

En base a lo anterior se define,

P({cara}) = 0.04 P({ceca}) = 0.96

Observación. La definición a posteriori o frecuencial se basa en un principio heurístico


llamado:

Regularidad estadística: si se repite el experimento N1, N2, N3 ... veces con N1 • Ν2 • Ν3,
entonces las frecuencias relativas observadas de un evento A en esas repeticiones, f 1(A), f2(A),
f3(A), tienden a un cierto número. Este número es el que se toma como P(A).

f1(A), f2(A), f3(A), ... → P(A).

En la práctica, este valor se desconoce y lo que se hace es repetir el experimento un


número determinado de N veces, y se considera P(A) = f(A).