You are on page 1of 70

VARIABLES ALEATORIAS Y

DISTRIBUCIÓN DE PROBABILIDADES

Variable Aleatoria es una función que asocia un número real, perfectamente definido, a
cada punto muestral. A veces las variables aleatorias (va) están ya implícitas en los puntos
muestrales.

Ejemplo 1: Sea el evento, la experiencia relacionada con la medición de la estatura de 100


individuos. Un punto muestral (resultado de un experimento) es ya un número (estatura).
La va está implícita.

Ejemplo 2: Sea el evento, lanzar una moneda 3 veces al aire. Si se representa la cara con c
y el sello con s, entonces el espacio muestral será:

Espacio Muestral = {ccc, ccs, csc, scc, css, scs, ssc, sss}

La probabilidad de cada suceso elemental es 1/8. Por ejemplo p(ccc) = 1/8, ya que la
probabilidad de sacar cara en una tirada es 1/2 según la definición clásica y las tiradas son
independientes.

Definimos la va X: número de caras, que puede tomar los valores {0, 1, 2, 3}. Se buscan
todos los puntos muestrales que dan lugar a cada valor de la variable y a ese valor se le
asigna la probabilidad del suceso correspondiente.

x Sucesos px

0 {zzz} 1/8

1 {czz, zcz, zzc} 3/8

2 {ccz, czc, zcc} 3/8

3 {ccc} 1/8

En el caso de las variables discretas, como en el ejemplo, es una función que para cada
valor de la variable da su probabilidad.

Ejemplo 3. Sea el evento experimental, lanzar al aire 2 monedas. Se sabe que el espacio
muestral de este experimento contiene 4 puntos muestra les.

Jesús Sachahuamán Flores Página 1


S = {(c, c), (c, s), (s, c), (s, s)}, donde el primer elemento de cada par indica si se obtuvo
cara (c) o sello (s) en la primera moneda, y el segundo lo mismo con respecto a la segunda
moneda. La probabilidad de cada punto muestral es entonces 1/4. Ahora bien, normalmente
no estamos interesados en los puntos muestrales, sino en cierta magnitud asociada con los
puntos muestrales. Por Ej. Se podría estar interesado en el número de caras que hay en
cada punto muestral. Si definimos una variable Xi como el número de caras en el punto
muestral si, Xi tomará los valores X1 = 2, X2 = 1, X3 = 1, X4 = 0. Por lo tanto, Xi es
una variable aleatoria.

Una variable X es una variable aleatoria si es una magnitud susceptible de tomar diversos
valores con determinadas probabilidades. Es una regla que asocia un número con cada
evento simple en el espacio muestra de un experimento. Por lo general, esta regla se
simboliza por medio de las mayúsculas X, Y o Z.

Definición

Una variable aleatoria es una función que asocia un número real a cada elemento
del espacio muestral.

O también,

Una Variable Aleatoria es una función que asigna un número real a cada resultado
en el espacio muestral de un experimento aleatorio.

Una variable es aleatoria si toma diferentes valores como resultado de un experimento


aleatorio. Esta variable aleatoria puede ser discreta o continua. Si puede tomar sólo un
número limitado de valores, entonces es una variable aleatoria discreta. En el otro
extremo, si puede tomar cualquier valor dentro de un intervalo dado, entonces se trata de
una variable aleatoria continua.

La distribución de probabilidad X se describe por una fórmula que enuncia la probabilidad


como una función de x. Es decir, la distribución de X está especificada por la función
f x ( x )  P ( X  x ) . El subíndice de f x ( x ) revela la variable aleatoria de interés. El
subíndice se omitirá cuando no halla ninguna confusión sobre la probabilidad del resulta-
do. Puesto que f x ( x ) está definida como una probabilidad, f x ( x ) es una función que va
del conjunto de valores posibles de la variable aleatoria al intervalo [0, 1].

Definición

La función f x ( x k )  P ( X  x k ), k  1, 2 ,3,...  que va del conjunto de los valores


posibles de la variable aleatoria discreta X al intervalo [0, 1] recibe el nombre de
función de probabilidad.

Para una variable aleatoria X , f x ( x) satisface las siguientes propiedades:

Jesús Sachahuamán Flores Página 2


1 ..... f x ( x k )  P ( X  x k )

2 .... f x ( x k )  0 ,... Para todo x.

3 ....  f x (x k )  1
x

Se ha esgrimido el término experimento estadístico para representar cualquier proceso a


través del cual se generan diversas observaciones al azar. Con frecuencia no interesan los
detalles asociados con cada punto muestral, sino simplemente alguna descripción numérica
del resultado. Por ejemplo, el espacio muestral que da una descripción detallada de cada
uno de los resultados posibles de los alumbramientos de una mujer en 3 ocasiones, pueden
escribirse así:

S = (Espacio Muestral) = {HHH, HHM, HMH, MHH, HMM, MHM, MMH, MMM}

Si lo que interesa es sólo el número de hembras que alumbra la mujer, entonces se podría
asignar un valor numérico de 0, 1, 2 ó 3 a cada uno de los puntos muestrales.

Los números 0, 1, 2 y 3 son cantidades aleatorias que se determinan a través del resultado
del experimento. Se podría pensar como los valores que toma alguna variable aleatoria X,
que en este caso representa el número hembras que nacen cuando la mujer tiene 3
alumbramientos.

Definición

Si un espacio muestral contiene un número finito de posibilidades o una secuencia


sin final con igual número de elementos que números enteros, se le denomina
variable aleatoria discreta (espacio muestral discreto). A una variable aleatoria
se le denomina variable aleatoria discreta si su conjunto de posibles resultados es
contable. Las distribuciones discretas son aquellas en las que la variable puede
pude tomar un número determinado de valores.

Las variables aleatorias discretas representan datos que se refieren, tales como el número
de artículos defectuosos en una muestra de m de ellos o el número de accidentes en
carreteras por año en un estado determinado.

Ejemplo: si se lanza una moneda al aire puede salir cara o cruz; si se tira un dado puede
salir un número de 1 al 6; en una ruleta el número puede tomar un valor del 1 al 32.

El resultado de un experimento estadístico que puede no ser finito ni contable. Un ejemplo


de este paradigma ocurre cuando se produce una investigación para medir las distancias
Jesús Sachahuamán Flores Página 3
que recorre cierta marca de automóvil en una distancia de prueba especificado con 5 litros
de gasolina. Asumiendo que el trayecto es una variable que se puede medir con cualquier
grado de precisión, entonces resulta claro que se tiene un número infinito de distancias
posibles en el espacio muestral y que no puede igualarse al número de números enteros. Si
se registrara también la cantidad de tiempo en que se efectúa el recorrido de la diferentes
marcas, da nueva cuenta de los intervalos de tiempos posibles que conforman el espacio
muestral serian infinitos en número e incontables. Se observa con esto que no todos los
espacios muestrales son necesariamente discretos.

Definición

Si un espacio muestral contiene un número infinito de posibilidades iguales al


número de puntos que se encuentran en un segmento de línea, se le denomina
variable aleatoria continua (espacio muestral continuo). Las distribuciones
continuas son aquellas que presentan un número infinito de posibles soluciones.
Cuando una variable aleatoria puede tomar valores en una escala continua, se le
denomina variable aleatoria continua.

Ejemplo: El peso medio de los alumnos de una clase puede tomar infinitos valores dentro
de cierto intervalo (42,37 kg, 42,3764 kg, 42, 376541kg, etc); la esperanza media de vida
de una población (72,5 años, 7,513 años, 72, 51234 años).

Con frecuencia, los valores posibles de una variable aleatoria continua son precisamente los
mismos valores contenidos en el espacio muestral continuo. Tal es el caso de aquella
variable aleatoria que representa la distancia que cierta marca de automóvil puede recorrer,
en un camino de prueba, con 5 litros de gasolina. En la mayoría de los problemas prácticos,
las variables aleatorias continuas representan datos medidos, tales como alturas, pesos,
temperaturas, distancias o períodos de vida posibles.

Se puede especular en una variable aleatoria como un valor o una magnitud que cambia de
un desarrollo a otra, sin seguir una secuencia predecible. Por ejemplo, en un hospital para
tratamiento del cáncer de pulmón no se tiene manera de saber con exactitud cuántos
hombres van a ser atendidas en un día cualquiera. Si los registros diarios del hospital
indican que los valores de la variable aleatoria van desde 100 hasta 115 pacientes diarios,
entonces ésta es una variable aleatoria discreta.

Una variable aleatoria es discreta cuando únicamente puede tomar un determinado número
de valores en un intervalo. Por ejemplo, la variable aleatoria N° de caras obtenidas al
lanzar 2 monedas, es una variable aleatoria discreta en el intervalo (0,2). Solo puede tomar
los valores 0, 1 y 2. Si el espacio muestral consiste en un Conjunto discontinuo de sucesos,
entonces una variable asociada con ese conjunto se le llama discreta; de otra manera, se le
llama continua.

Una variable aleatoria es continua cuando puede tomar cualquier valor en un intervalo.
Supongamos el experimento de lanzar una moneda hacia una línea marcada en el suelo.
Supongamos que la distancia máxima a que puede caer la moneda de la marca es 1 metro
(entendiendo como distancia la del centro de la moneda a la línea). Si definimos una

Jesús Sachahuamán Flores Página 4


variable aleatoria X que represente esa distancia, X puede tomar cualquier valor en el
intervalo [0,1].

Distribuciones de Probabilidad
DISTRIBUCIONES DE PROBABILIDAD PARA VARIABLES ALEATORIAS

Una variable aleatoria es un evento numérico cuyo valor se determina mediante un


proceso al azar. Cuando se asignan valores de probabilidad a todos los datos numéricos
posibles de una variable aleatoria X, ya sea mediante un listado o a través de una función
matemática, se obtiene como resultado una distribución de probabilidad. La suma de las
probabilidades para todos los resultados numéricos posibles debe ser Igual a 1.0. Pueden
denotarse los valores de probabilidad individuales mediante el símbolo f(x), lo cual implica
que hay implícita una función matemática; mediante P(x = X), lo cual implica que la
variable aleatoria puede asumir diversos valores específicos, o simplemente mediante P(X).

Para una variable aleatoria discreta, se pueden enumerar todos los valores numéricos
posibles de la variable en una tabla con las probabilidades correspondientes. Existen
diversas distribuciones estándar de probabilidad que pueden utilizarse como modelos para
una amplia gama de variables aleatorias discretas en aplicaciones de negocios.

Para una variable aleatoria continua no es posible enumerar todos los posibles valores
fraccionarios de la variable y, por lo tanto, las probabilidades que se determinan a través de
una función matemática se ilustran en forma gráfica mediante una función de densidad de
probabilidad o curva de probabilidad.

EJEMPLO 1. En la Tabla A se muestra el número de camionetas que se han solicitado para


rentar en una arrendadora de automóviles, en un periodo de 50 días. En la última columna
de la Tabla se incluyen las frecuencias observadas en este periodo de 50 días. En la última
columna de la tabla se incluyen las frecuencias observadas en ese periodo de 50 días,
convertidas en probabilidad. Así, puede observarse que la probabilidad de que se hayan
solicitado exactamente siete camionetas en un día elegido al azar en ese periodo es de 0.20,
y que la probabilidad de que se hayan solicitado seis o más es de 0.28 + 0.20 + 0.08 = 0.56.

Tabla B. Demanda diaria de arrendamiento de camionetas


durante un periodo de 50 días.

Valor
Demandas Posibles Número de Días Probabilidad  P ( X )  Ponderado  X . P ( X ) 
X
3 3 0.06 0.18
4 7 0.14 0.56
5 12 0.24 1.20
6 14 0.28 1.68
7 10 0.20 1.40
8 4 0.08 0.64
TOTALES 50 1.00 E ( X )  5 . 66

Jesús Sachahuamán Flores Página 5


Distribuciones de probabilidad para variables discretas

Las variables aleatorias, son aquellas que se relacionan con la ocurrencia de un fenómeno
aleatorio. Cuando una de esas variables aleatorias toma diversos valores, la probabilidad
asociada a cada uno de tales valores puede ser organizada como una distribución de
probabilidad, lo que se denomina distribución de las probabilidades asociadas a cada uno
de los valores de la variable aleatoria. Las distribuciones de probabilidad logran
representarse a través de una tabla, una gráfica o una fórmula, en cuyo caso tal regla de
correspondencia se le denomina función de probabilidad.

Una variable aleatoria discreta adquiere cada uno de sus valores con cierta probabilidad. En
el proceso del lanzamiento de una moneda 3 veces, la variable X, que representa el número
de sellos, toma el valor 2 con una probabilidad de 3/8, puesto que 3 de los puntos
muestrales igualmente probables dan como resultado 2 sellos y 1 cara. Si se suponen
arreglos iguales para los eventos simples del siguiente ejemplo:

Un empleado de un depósito le regresa, en forma aleatoria, tres herramientas de seguridad,


previamente revisados, a tres obreros de un taller. Si Saúl, Jesús y Boris, en ese orden,
reciben una de las tres herramientas, enumere los puntos muestrales para los órdenes
posibles de devolución de las herramientas y calcule los valores b de la variable aleatoria
B que representa el número de agrupaciones correctas.

Solución.- Si S, J y B representan las herramientas de Saul, Jesús y Boris respectivamente,


luego los arreglos posibles en los que podrían devolverse las herramientas y el número de
agrupaciones correctas serán:

b 3 1 1 0 0 1
Espacio Muestral SJB SBJ JSB JBS BSJ BJS

La probabilidad de que ningún obrero reciba de nuevo la herramienta que tenía, es decir,
la probabilidad de que B tome el valor de cero, es 1/3. Los posibles valores b de B y sus
probabilidades están dados por

b 0 1 3
1 1 1
P(B = b) 3 2 6

Jesús Sachahuamán Flores Página 6


Obsérvese que los valores de b agotan todos los casos posibles y por ello las probabilidades
suman 1.
Con frecuencia, resulta conveniente representar todas las probabilidades de una variable
aleatoria X a través de una fórmula. Esta fórmula seria necesariamente función de los
valores numéricos x, que se denotarán por f(x), g(x), r(x) y así sucesivamente. Por lo tanto,
se escribe f(x) = P(X= x); es decir f ( 3 )  P ( X  3 ) . Al conjunto de pares ordenados (x,
f(x)) se le denomina función de probabilidad o distribución de probabilidad de la
variable aleatoria discreta X.

Definición

El conjunto de pares ordenados (x, f(x)) es una función de probabilidad o una


distribución de probabilidad de la variable aleatoria discreta X si, para cada posible
resultado x,

1.  f ( x )  0.

2.   f ( x)  1.

3 .  P ( X  x )  f ( x ).

Ejemplo.- Un envió de ocho computadoras similares para un distribuidor contiene tres


defectuosas. Si un comerciante hace una compra aleatoria de dos de esas computadoras,
localice la distribución de probabilidad para el número de computadoras imperfectas.

Solución.- Sea X una variable aleatoria cuyos valores de x son los números posibles de
computadoras defectuosas adquiridas por el comerciante. Luego, x puede se cualquiera de
los números 0, 1 y 2. Entonces:

 3  5   3  5 
     
 0  2  10  1  1  15
f (0)  P (X  0)   ,.. f (1)  P ( X  1)   ,..
8 28 8 28
   
2 2
 3  5 
  
 2  0  3
.f ( 2 )  P ( X  2 )  
8 28
 
2

Por lo tanto, la distribución de probabilidad de X es:

Jesús Sachahuamán Flores Página 7


x 0 1 2
f(x) 10 15 3
28 28 28

Ejemplo: Analice la variable aleatoria X, como la cantidad de caras observadas cuando se


lanzan dos monedas al aire. El espacio muestral es el conjunto {CC, CS, SC, SS} y se
puede observar que la variable X puede tomar como valores 0, 1 y 2.

Calculando las probabilidades tenemos:

P(de no observar caras) = P(SS) = P(X=0) = ¼


2
P(de observar una cara) = P(SC o CS) = P(X=1) = /4
P(de observar dos caras) = P(CC) = P(X=2) = ¼

Si ahora se organizan estos resultados en el siguiente cuadro:

X 0 1 2
2
P(X=x) ¼ /4 ¼

Se alcanzará explicar por qué se usa el nombre "distribución de probabilidad". Con esta
información se puede construir un histograma como el siguiente:

Jesús Sachahuamán Flores Página 8


Problema
Se Lanzan dos dados al aire. ¿Cuál es probabilidad de que la suma de los puntos en los
dados sea menor que 8?

SOLUCIÓN: Si asumimos que todos los resultados observados al lanzar los dos dados son
equiprobables (si todos los sucesos elementales que lo integran tienen la misma
probabilidad) entonces el espacio muestral del experimento, con treinta y seis posibles
resultados, se presentan a continuación:

Tabla 1. Espacio muestral


resultante al lanzar dos dados

1 2 3 4 5 6
1 1,1 2,1 3,1 4,1 5,1 6,1
2 1,2 2,2 3,2 4,2 5,2 6,2
3 1,3 2,3 3,3 4,3 5,3 6,3
4 1,4 2,4 3,4 4,4 5,4 6,4
5 1,5 2,5 3,5 4,5 5,5 6,5
6 1,6 2,6 3,6 4,6 5,6 6,6

Como nos interesa la suma de los puntos observados, si obtenemos el resultado (3, 5) le
asignamos el valor 8, correspondiente a la suma de 3 y 5. Podemos calcular la probabilidad
de que la suma sea igual a 8, contando todos los resultados donde la suma es ocho. El
evento de que la suma es ocho contiene 5 resultados: {(2,6), (3,5), (4,4), (5, 3), (6,2)}; por
lo tanto la probabilidad deseada es 5/36. Podemos repetir este proceso con cada uno de los
resultados para obtener las siguientes sumas probables al lanzar dos de acuerdo con la
tabla 2.

Tabla 2. Distribución de probabilidad del total de


las sumas observadas al lanzar dos dados.

Sumas 2 3 4 5 6 7 8 9 10 11 12
1 2 3 4 5 6 5 4 3 2 1
Probabilidades
36 36 36 36 36 36 36 36 36 36 36

Hemos encontrado la distribución de probabilidad de los valores posibles de la suma al tirar


dos dados. Si R representa el resultado observado en el dado rojo y V el resultado que se

Jesús Sachahuamán Flores Página 9


observará en el dado verde, podemos expresar el valor que nos interesa así: X = R + V.
Antes de lanzar los dados no sabemos qué valores observaremos para R y V, por lo tanto
tampoco lo sabemos para X.

El valor que asumirá X puede variar de lanzada en lanzada, sujeto a la distribución


especificada en la tabla de arriba. Así X es una variable, que asume un número finito de
valores sujeto a una distribución de probabilidad. Este es un ejemplo de una variable
aleatoria discreta. Otros ejemplos son las variables R y V. En general, si S es un espacio
muestral con una medida de probabilidad P, definimos una variable aleatoria como una
función que asigna un número real a cada uno de los elementos de S.

Interpretamos, por ejemplo X = 8 como el evento de que se observó el resultado 8 al lanzar


los dos dados, es decir el evento {(2,6), (3,5), (4,4), (5, 3), (6,2)} ocurrió. También
asignamos a X = 8 la probabilidad de ese evento. Así vemos que P(X = 8) = P({ (2,6),
(3,5), (4,4), (5, 3), (6,2)}) = 5/36= 0.14. Es usual denotar las variables aleatorias por letras
mayúsculas y los valores que puede asumir por letras minúsculas.

En este caso la variable X puede asumir un valor entre un conjunto finito de valores
posibles. Cualquier variable que pueda asumir un número finito de valores decimos es una
variable aleatoria discreta. También son variables aleatorias discretas aquellas que
pueden asumir un número muy grande o infinito de valores que potencialmente podrían ser
contados, tal como el número de habitantes del planeta, el número de granos de maíz
producidos en el planeta en una fecha determinada, el número de los árboles de un país.

En la Tabla 2 vemos que a cada valor posible de X, le asignamos un número


correspondiente a su probabilidad. Así podemos definir otra función: f(x) = P(X = x), para
cada número x en el campo de valores de la variable X. Esta función se llama la función de
probabilidad o distribución de probabilidad de la variable X. Para el ejemplo de la suma
de los puntos al tirar dos dados, los valores de esta función están dados en la Tabla 2, la
cual se puede reescribir usando los conceptos estudiados.

Tabla 3. Distribución de probabilidad del total


de las sumas observadas al lanzar dos dados.

x 2 3 4 5 6 7 8 9 10 11 12
1 2 3 4 5 6 5 4 3 2 1
f(x) 36 36 36 36 36 36 36 36 36 36 36

Vemos que f(x) nunca adquiere un valor menor de cero. Esto se debe a que f(x) representa
una probabilidad, la cual nunca puede ser menor de cero. De igual manera f(x) nunca puede
ser menor de 1. Si sumamos todos lo valores que puede tener f(x) obtenemos 1, debido a
que estamos sumando las probabilidades de que la variable aleatoria asuma uno de los

Jesús Sachahuamán Flores Página 10


valores establecidos. Por su definición, la función de probabilidad tiene las siguientes
características:

1. f ( x )  0 para todo valor x en su dominio.

2.  f ( x )  1 ( donde la sumatoria se extiende sobre todos los valores x en el dominio


x
de f.

Los valores de la función de probabilidad se pueden representar en una gráfica como la


siguiente:

Diagrama de la distribucion de probabilidad


de la suma de dos dados

0,18

0,16

0,14

0,12
Probabilidades

0,1

0,08

0,06

0,04

0,02

0
1 2 3 4 5 6 7 8 9 10 11 12

Sumas de dos dados

La probabilidad de observar (En la grafica) un valor particular de la variable aleatoria,


digamos X = 3 está dado por la altura de la barra sobre el 3, es decir, P(X = 3) = 2/36 =
0.056. De igual manera, en vez de asociar la altura de la barra con la probabilidad,

Jesús Sachahuamán Flores Página 11


podemos ver que el área de la barra sobre el 3 es 2/36 1 = 2/36 = 0.056 ya que la altura de
la barra es 2/36 y su ancho es 1. Usar el área de las barras para representar la probabilidad
es muy útil para extender la noción de probabilidad a otras variables.

Podemos usar el histograma de probabilidad para calcular probabilidades tal como P(X
4). Vemos que P(X 4) = P(X =2 ó X =3 ó X =4) = P(X = 2) + P(X = 3) + P(X = 4) , ya
que los eventos donde X = 2, X = 3 y X = 4 son disjuntos. Entonces P(X 4) = 1/36 + 2/36
+ 3/36 = 6/36, sumando las áreas de la barras que están sobre el 4 y a su izquierda.
Debemos ser muy cuidadosos con las desigualdades, ya que P(X 4) = 6/36, mientras que
P(X< 4) = 3/26.

Extendiendo esta idea de probabilidades acumulativas, podemos definir otra función


partiendo de la distribución de probabilidad. Si X es una variable aleatoria discreta,
definimos la función de distribución de X o función de distribución acumulativa de X
de la siguiente manera:

f ( x )  p( X i  x )   f ( x ),.. Para ....   <x< 


x i

Las propiedades de las distribuciones de variables discretas son dos, y que


posteriormente, al hablar de las distribuciones de variables continuas, se repetirán de
manera muy similar:

a) Todos los valores de la distribución son mayores o iguales que cero, y además son
menores o iguales que uno.

0 ≤ P(X=x) ≤ 1.

b) La suma de todas las probabilidades de la distribución es la unidad. Esta demostración es


para mostrar que la distribución probabilística binomial cumple con tales propiedades.

 f ( x )  P(X=x) = 1.

De donde se puede afirmar que: la suma de todas las probabilidades de los eventos posibles
de una variable aleatoria es igual a la unidad. Hay que recalcar que estas propiedades se
enuncian suponiendo que conocemos el valor de la probabilidad, pero en la realidad esto no
ocurre, es decir, que no sabemos la probabilidad y lo que se hace es trabajar con
estimaciones. Se puede observar que en ningún caso las combinaciones toma valores

Jesús Sachahuamán Flores Página 12


negativos, y como p y q son positivos o cero, entonces todos los valores de la distribución
probabilística son positivos o cero. Precisamente esto conlleva a modelos teóricos que
estiman los resultados, y los principales, son los que a continuación se exhiben:

Modelos de distribuciones de probabilidad de variables discretas

Uniforme. Es la distribución donde todos los eventos elementales tienen la misma


probabilidad. Por ejemplo: tirar un dado, donde la función P(X=x)= 1/6 para valores
de x = {1, 2, 3, 4, 5, 6}

Binomial. Es la que manipula la distribución de la probabilidad de obtener cierta cantidad


de éxitos al realizar una cantidad de experimentos con probabilidad de éxito constante y
con ensayos independientes.

Geométrica. Es la distribución de la probabilidad de realizar cierto número de


experimentos antes de obtener un éxito.

Hipergeométrica. Es similar a la binomial, pero con un tamaño de muestra grande en


relación al tamaño de la población.

De Poisson. Es la distribución de la probabilidad de que ocurra un evento raro en un


periodo de tiempo, un espacio o un lugar.

La que más nos interesará de estas será la distribución binomial que explicaremos
posteriormente.

Media y desviación estándar de una distribución de probabilidad


para variables discretas
En una distribución de frecuencias para datos agrupados se calculaba la media, utilizando

la fórmula,  
 xf , donde, (  ) es la media de la población, la cual puede expresarse
n
f
como    X
n
.

Considerando la definición de probabilidad de un evento, P(X) es el cociente de la


frecuencia entre el número total de eventos (probabilidad frecuencial de ocurrencia), por lo
que la media de una distribución de probabilidad de una variable discreta es:

  x .P ( x )

Jesús Sachahuamán Flores Página 13


Por ejemplo: Consideremos la variable X del ejemplo de caras observadas en dos lanzamientos de
monedas. Es decir, X tal que su distribución de probabilidad sea:

X 0 1 2
2
P(X=x) ¼ /4 ¼

Entonces, para calcular su media (  ) se realiza la siguiente operación:

2
1 1 1
   xP ( x )  0 . 4  1 . 2  2 . 4 1
x0

 f (x   )
2

Análogamente, la varianza se definió como  2


 , y haciendo un
n
procedimiento semejante al anterior se tiene:

f
(x)
2 2
 
n

Finalmente, la varianza de una distribución de probabilidad de una variable discreta


será:

Entonces, la desviación estándar de una distribución de probabilidad de una variable


discreta es:

(x)
2
 P( x )

Jesús Sachahuamán Flores Página 14


Por ejemplo: Considerando la misma distribución de probabilidad del ejemplo anterior,
su desviación estándar se calcula:

2 1 2 1 2 1 1 1 1 1 1 1 2
 ( 0 1)  (1 1)  ( 2 1)  1.  0.  1.     .
4 2 4 4 2 4 4 4 2 2

ESPERANZA MATEMÁTICA O VALOR ESPERADO DE UNA


VARIABLE ALEATORIA DISCRETA
Valor esperado de una variable aleatoria discreta

Si X es una variable aleatoria, y el experimento aleatorio que determina el valor de X se


repite muchas veces, entonces se obtiene una secuencia de valores para X. Puede emplearse
un resumen de estos valores, tal como el promedio (  x ), para identificar el valor central de
la variable aleatoria. La función de probabilidad de X puede interpretarse como la
proporción de ensayos en los que X = x. En consecuencia, no es necesario realizar el
experimento muchas veces con la finalidad de determinar el valor medio de X. La media de
X puede calcularse corno el promedio ponderado de los valores posibles de X, asignando al
resultado x un factor de ponderación f x ( x)  P ( X  x) .

La media (  x ) de una distribución de probabilidad es el valor esperado de su variable


aleatoria.

El valor esperado o Esperanza Matemática de una variable aleatoria discreta se puede


considerar como su promedio ponderado sobre todos los resultados posibles siendo las
ponderaciones la probabilidad relacionada con cada uno de los resultados.

Esta medida de resumen se puede obtener multiplicando cada resultado posible Xi por su
probabilidad correspondiente P ( X i ) y después sumando los productos resultantes. Por
lo tanto el valor esperado de la variable aleatoria discreta X, representada como E ( X ) ,
se puede expresar con la siguiente formula matemática:

x  E(X )   X i P ( X i ) , donde:
i 1

Jesús Sachahuamán Flores Página 15


X = Variable aleatoria de Interés.

Xi = Resultado i de X.

P(X i )  Probabilidad de ocurrencia del evento i de X.

i= 1, 2, 3, ....,N.

También, se puede decir que:

La media, Esperanza Matemática o valor esperado de una variable aleatoria discreta X,


expresada por x o E ( X ), es:

x  E(X )   xf x
( x) o x  E(X )   X iP(X i ) .
x i 1

La media de X puede interpretarse como el centro de la masa del rango de los valores de X.
Esto es, si se coloca una masa igual a f x ( x ) en cada punto x de la recta real, entonces
E(X) es el punto donde la recta queda en equilibrio. Por consiguiente, el término función de
probabilidad puede interpretarse mediante esta analogía con la mecánica.

Media de una variable aleatoria

Si se tiran dos monedas al aire 16 veces y X representa el número de caras que ocurren por
lanzamiento, entonces los valores d e X pueden ser 0, 1 y 2. Supóngase que en el
experimento se obtienen cero caras 4 veces, una cara 7 veces y dos caras 5 veces. El
promedio de caras por lanzamiento de las dos monedas es entonces

( 0 )( 4 )  (1)( 7 )  ( 2 )( 5 )
 1 . 06 .
16

Este es un valor promedio y no necesariamente un resultado posible del experimento. Por


ejemplo, el ingreso mensual promedio de un vendedor no es probable que sea igual a
alguno de sus cheques de pago mensuales.

Reestructúrese ahora el cálculo para el número promedio de caras resultantes, de modo que
tenga la siguiente forma equivalente

Jesús Sachahuamán Flores Página 16


 4   7   5 
0    1    2    1 . 06 .
 16   16   16 

Los números 4/16, 7/16 y 5/16 son las fracciones del total de lanzamientos que resulta en 0,
1 y 2 caras, respectivamente. Estas fracciones son también las frecuencias relativas que
corresponden a los diferentes valores de X en el experimento. En efecto, se puede calcular
entonces la media o el promedio de un conjunto de datos, si se conocen los distintos valores
que intervienen y sus frecuencias relativas, sin conocimiento alguno del número total de
observaciones en el conjunto de datos. Por consiguiente, si 4/16 ó 1/4 de los lanzamientos
resultan 0 caras; 7/16, una cara; y 5/16, dos caras, el número medio de caras por
lanzamiento seria 1.06, sin importar que el número total de lanzamientos sea de 16, 1 000 o
aun de 10 000.

Utilícese ahora este método de las frecuencias relativas para calcular a la larga el número
promedio de caras por lanzamiento de dos monedas que podría esperarse.

Este valor promedio se conoce como media de la variable aleatoria X o media de la


distribución de probabilidad de X, y se representa como  x , o simplemente como  ,
cuando esté claro de que variable aleatoria se trata. También es común entre los estadísticos
designar a este valor como Esperanza o Expectativa Matemática, o bien como valor
esperado de la variable X, y representarla como E(X).

Suponiendo que se tiran al aire dos monedas normales, se tiene que el espacio
muestra1 para el experimento es

S = {CC, CS, SC, SS}

Donde es C cara y S sello.

Puesto que los 4 puntos muestrales son igualmente probables, se deduce que

P(X = 0) = P(SS) = 1 .
4

P(X = l) = P(SC) + P(CS) = 1 .


4

P(X = 2) = P(HH) = 1 .
4

Jesús Sachahuamán Flores Página 17


Donde un elemento, por ejemplo, SC, indica que de la primera tirada resultó Sello, seguida
de una cara en la segunda tirada. Ahora bien, estas probabilidades son justamente las
frecuencias relativas que a la larga corresponden a los eventos dados. Por consiguiente,

1 1 1


  E ( X )  0    1     2    1 . 0 .
4 2 4

Esto significa que una persona que tira al aire 2 monedas una y otra vez, logrará en
promedio 1 cara por tirada.

EL método descrito para calcular el número esperado de caras en cada tirada de 2 monedas,
indica que la media o valor esperado de una variable aleatoria discreta puede obtenerse
multiplicando cada uno de los valores x 1 , x 2 ,..., x n , de la variable aleatoria X por su
probabilidad correspondiente f ( x 1 ), f ( x 2 ),....., f ( x n ), y sumando luego los resultados.
Sin embargo, esto se verifica sólo si la variable aleatoria es discreta. En el caso de variables
aleatorias continuas, la definición del valor esperado es en esencia la misma, sólo que las
sumatorias se reemplazan por integrales.

Ejemplo. Determine el número esperado de químicos en un comité de tres personas


seleccionado al azar de un grupo de 4 químicos y 3 biólogos.

Solución. Se considera que X representa el número de químicos en el comité. La


distribución de probabilidad de X está dada por

 4  3 
  
 x  3 x 
f(x) , para x = 0, 1, 2, 3.
7
 
3

Aplicando la formula se calculan los diferentes f ( x i ) así:

Jesús Sachahuamán Flores Página 18


 4  3   4  3   4  3   4  3 
           
 0  3 0  1  1   3 1  12  2  3 2  18  3  33  4
f (0)   ;.. f (1)   ;.. f ( 2 )   ,.. f ( 3 )  
 7
35  7
35  7
35  
7
35
       
3 3 3 3

Los cálculos obtenidos son:

f(0) = 1/35, f(l) = 12/35, f(2) = 18/35, y f(3) = 4/35. Entonces,

 1   12   18   4  60 12
  E ( X )  0    1    2    3     1 . 70 .
 35   35   35   35  35 7

Por lo tanto, si se selecciona al azar una y otra vez un comité de 3 miembros a partir de un
grupo de 4 químicos y 3 biólogos, el mismo contendría en promedio 1.7 químicos.

Ejemplo. En un juego de azar de un casino, se le paga a una persona 5 dólares si al tirar a


aire 3 monedas obtiene solo caras o sellos, mientras que esta persona deberá pagar 3
dólares si obtiene sólo una o dos caras. ¿Cuál es la ganancia esperada de jugador?

Solución. El espacio muestral formado por todos los posibles resultados que pueden
obtenerse cuando se lanzan 3 monedas de manera simultánea, o en forma equivalente si la
moneda se lanzan 3 veces sucesivamente (C = cara, S = sello), es

S = {CCC, CCS, CSC, SCC, CSS, SCS, SSC, SSS}. Se puede argumentar que cada una
de estas posibilidades es igualmente posibles y ocurre con una probabilidad igual a 1/8. Un
enfoque alternativo seria aplicar la regla multiplicativa de probabilidad para sucesos
independientes con cada uno de los elementos del espacio muestral (S), así:

 1  1  1  1
P ( CCS )  P ( C ) P ( C ) P ( S )         . Recuerde que la probabilidad de salir cara es
 2  2  2  8
igual ala de salir sello, es decir, ½.

La variable aleatoria de interés es X, que es la cantidad que el jugador puede ganar; y los
valores posibles de X 5 $ si ocurre el evento E 1  CCC , SSS  y - 3 $ si ocurre el

Jesús Sachahuamán Flores Página 19


evento E 2  CCS , CSC , SCC ; CSS , SCS , SSC  .Si se observa que E1 y E2 se presentan con
probabilidad de ¼ y ¾ , respectivamente, se concluye que

1 3
  E ( X )  5      3     1 .
4 4

Por lo tanto en este juego el apostador, en promedio, perderá 1 $ al lanzar las 3 monedas.

Un juego de azar se considera justo si en el promedio el jugador termina sin perdida o


ganancia. Por lo tanto, un juego justo se define como aquel donde hay una ganancia
esperada de cero, es decir,   0 .

Se puede pensar en una variable aleatoria como un valor o una magnitud que cambia de una
presentación a otra, sin seguir una secuencia predecible. Por ejemplo, en una clínica para
tratamiento del cáncer de mamas no se tiene manera de saber con exactitud cuántas mujeres
van a ser atendidas en un día cualquiera. De modo que el número de pacientes del día
siguiente es una variable aleatoria. Los valores de una variable aleatoria son los valores
numéricos correspondientes a cada posible resultado del experimento aleatorio. Si los
registros diarios de la clínica indican que los valores de la variable aleatoria van desde 100
hasta 115 pacientes diarios, entonces ésta es una variable aleatoria discreta.

En la tabla B se ilustra el número de veces que se ha alcanzado cada nivel durante los
últimos l00 días. Observe que en la tabla aparece una distribución de frecuencias. Hasta
donde creamos que la experiencia de los pasados 100 días es un comportamiento típico,
podemos utilizar este registro para asignar una probabilidad a cada número posible de
pacientes y encontrar una distribución de probabilidad. Hemos hecho esto en la tabla B
mediante la normalización de la distribución de frecuencias observadas (en este caso, di-
vidimos cada valor que aparece en la columna de las frecuencias (fi) de la tabla B , el
número total de días en que se tomaron los registros (número atendido). La distribución de
probabilidad para la variable aleatoria “número de atenciones diarias” se presenta de
manera gráfica en la figura I. Note que la distribución de probabilidad para una variable
aleatoria proporciona una probabilidad para cada valor posible y que estas probabilidades
deben sumar 1. De la misma forma en esa tabla se registra el valor esperado o esperanza
matemática que es simplemente la multiplicación de los valores posibles de la variable
aleatoria por la probabilidad de que la variable aleatoria tome esos valores. En la tabla B
mostramos que ambos requisitos se cumplen. Además, tanto la tabla B como la figura I nos
dan información acerca de la frecuencia de presentación a la larga del número de pacientes
atendidos diariamente que esperaríamos observar si este “experimento” aleatorio se
efectuara de nuevo.

TABLA B

Jesús Sachahuamán Flores Página 20


NÚMERO DE MUJERES ATENDIDAS DIARIAMENTE DURANTE 100
DÍAS EN UNA CLÍNICA PARA LA ATENCIÓN DE CÁNCER DE MAMA.

Valores posibles de Número de días que Probabilidad de que la Esperanza


la Variable se observa este nivel variable aleatoria tome estos Matemática.
Aleatoria. (fi). valores.
(1)x(3)
(1) (2) (3)
100 1 0.01 1.00
101 2 0.02 2.02
102 3 0.03 3.06
103 5 0.05 5.15
104 6 0.06 6.24
105 7 0.07 7.35
106 9 0.09 9.54
107 10 0.10 10.70
108 12 0.12 12.96
109 11 0.11 11.99
110 9 0.09 9.90
110 8 0.08 8.88
112 6 0.06 6.72
113 5 0.05 5.65
114 4 0.04 4.56
115 2 0.02 2.30
TOTALES 100 108.02

El valor esperado de la variable aleatoria “número diario de mujeres atendidas en una


clinica”, es igual 108.02.

Jesús Sachahuamán Flores Página 21


Gr af ica co r r e s p o n d ie n t e a la d is t r ib u cio n d e
p r o b ab ilid ad p ar a la var iab le ale at o r ia d is cr e t a,
"n ú m e r o d iar io d e p acie n t e s at e n d id o s e n u n a clin ica"
0,14

0,12

0,1
PR O B A B IL ID A D

0,08

0,06

0,04

0,02

0
0
1
2
3
4
5
6
7
8
9
0
1
2
3
4
5
10
10
10
10
10
10
10
10
10
10
10
11
11
11
11
11
11
Nú m e r o s d iar io s d e m u je r e s at e n d id as

Si un agente de seguros afirma que puede esperarse que una mujer de 45 años de edad
viva otros 33 años, esto no significa que cualquier persona espere realmente que una mujer
de 45 años siga viviendo hasta cumplir los 78 años y muera al día siguiente. En lo
concerniente a esa afirmación, ciertas mujeres de 45 años vivirán 12 años más, otras
sobrevivirán 25 años, otras vivirán 38 años más, . . . , y la expectativa de vida de “33 años
más” se debe interpretar como una especie de promedio particular, llamado valor esperado
o esperanza matemática. Originalmente, el concepto de la esperanza matemática apareció
en relación con juegos de azar y, en su forma más simple, se determina con el producto de
la cantidad que un jugador deposita para ganar y la probabilidad de que gane dicha
cantidad.

EJEMPLO ¿Cuál es nuestra esperanza matemática, si apostamos para ganar 500 pesos, si
y sólo si sale cara, al lanzar al aire una moneda equilibrada?

SOLUCIÓN: La moneda está equilibrada, de manera que la probabilidad de que salga cara
es ½, entonces nuestra esperanza matemática es 500x0.5 = 250 pesos.

EJEMPLO ¿Cuál es nuestra esperanza matemática, si compramos uno de los 1000 boletos
de una rifa, en la que se ofrece como premio un televisor a color, que vale 480000 pesos?

Jesús Sachahuamán Flores Página 22


1
Solución: La probabilidad de que nos ganemos el televisor es , entonces nuestra
1000
esperanza matemática es

1 480000
480000x   480 , es decir, 480 pesos. Por lo tanto, en un sentido
1000 1000
estrictamente monetario, seria irracional pagar más de 480 pesos por el boleto.

PROBLEMA. Sean 0.24, 0.35, 0.29 y 0.12 las probabilidades de que un usurero pueda
vender en un año un lote subdividido, con las respectivas ganancias de Bs.1250000, Bs.
800000 o de Bs. 100000 o con una pérdida de Bs. 250000. ¿Cuál es la utilidad o ganancia
esperada?

SOLUCIÓN: Si se sustituye

x1  1250000 ,... x 2  800000 ,.. x 3  100000 ,.. x 4   250000 ,..

P1  0 . 24 ,.. P2  0 . 35 ,.. P3  0 . 25 .. y .. P4  0 . 12 .

Si ahora se aplica la formula matemática para la obtención de la Esperanza Matemática se


tiene:

x  E(X )   X iP(X i ) .
i 1

E  125000 ( 0 . 24  80000 ( 0 . 35 )  10000 ( 0 . 29 )  25000 ( 0 . 12 )  Bs . 579000 . Este


resultado indica que el usurero espera ganar 579000 Bs. Con su usura.

PROBLEMA. La distribución de probabilidad de la variable aleatoria discreta X es

x 3 x
 3  1   3 
f ( x )       , x  0 ,1, 2, 3. Encuentre la esperanza matemática.
 x  4   4 

Jesús Sachahuamán Flores Página 23


Solución:

0 3 2 2
 3  1   3  27  3  1  3  27  3  1   3  9
f (0 )        ,... f (1)         ,.. f ( 2 )        
 0  4   4  64  1  4  4  64  2   4   4  64

3 0
 3  1   3  1
f (3)       
 3  4   4  64

Con estos datos se puede formar la siguiente distribución de probabilidad:

x 0 1 2 3
27 27 9 1
f ( x) 64 64 64 64

Aplicando la siguiente formula :  x  E ( X )   X i P ( X i ) . Se tiene:


i 1

 27   27   9   1  27  ( 2 ) 9  ( 3 )1 48 3
E  0    1     2    3      0 . 75 .
 64   64   64   64  64 64 4

Luego la esperanza matemática buscada es de 0.75.

LA DISTRIBUCIÓN BINOMIAL
El nombre que recibe esta distribución se debe a la similitud existente entre la distribución
de las probabilidades de obtener 0, 1, 2, 3,…..elementos considerados como “éxito” de
una muestra de tamaño n, y los términos sucesivos del desarrollo binomial ( p  q ) n ,
donde p expresa la probabilidad de éxito de un solo ensayo (situación experimental), y q
es la probabilidad de “fracaso” (tal que, p + q = 1). En este caso, éxito significa
encontrarse con cierta clase de evento, mientras que fracaso significa no encontrarse con
dicho evento. En esta guía se hará un breve reposo del Teorema del binomio o Binomio

Jesús Sachahuamán Flores Página 24


de Newton. El teorema del binomio, o Binomio de Newton por haber sido éste quien
propuso el método general para su desarrollo, es un binomio elevado a una potencia n, que
en su caso más simple es un número natural.

En términos generales, el teorema del binomio establece que para a, bR y nN, se
tiene que:

n
 n  n  n  n 1  n  n 1  n  n  n  n i i

n
( a  b )    a    a b  ....    ab   b   a b .
0 1  n 1  n i 1 i

Para el caso concreto de esta guía, se cambiará la notación y se utilizará la propiedad de


conmutatividad de los números reales:

La probabilidad Px de que un evento ocurra EXACTAMENTE x veces en n intentos esta


dada por la ecuación:

 n  x n x
Px    . p q .
 x


La probabilidad Px de que un evento se presente POR LO MENOS x veces en n
intentos esta expresada por la ecuación:

xn xx
 n x n x
 Px    . p q
  .
xx

xx
  
x

Jesús Sachahuamán Flores Página 25


TRIÁNGULO DE PASCAL

Los coeficientes de los términos del desarrollo de cualquier potencia de un binomio se


pueden encontrar en forma inmediata utilizando el llamado triángulo de Pascal. Los
coeficientes del desarrollo de cualquier potencia de un binomio son los números que se
hallan en la fila horizontal en donde después del 1 esta el exponente del binomio. Ejemplo:
Los coeficientes del desarrollo del binomio ( a  b ) 5 son aquellos números que se
encuentran en la fila horizontal, del triángulo de Pascal, en donde después del 1 esta el 5,
es decir, 1, 5, 10, 10, 5, 1. De igual manera se procede para ubicar los coeficientes de
cualquier binomio.

El triángulo se forma de la siguiente manera: En la primera fila horizontal se coloca 1. En


la segunda fila se coloca 1 y 1. Desde la tercera fila en adelante se comienza por 1 y cada
número posterior al 1 se obtiene sumando en la fila anterior el primer número con el
segundo, el segundo con el tercero, el tercero con el cuarto, cuarto con el quinto, el quinto
con el sexto y así sucesivamente hasta obtener los coeficientes de la potencia buscada,
recuerde que el ultimo número de la fila horizontal siempre tiene que ser 1 (ver triángulo).

1
1 1
1 2 1
1 3 3 1
1 4 6 4 1
1 5 10 10 5 1
1 6 15 20 15 6 1
1 7 21 35 35 21 7 1
1 8 56 7028 56 28 8 1
1 9 36 84 126 126 84 36 9 1
1 10 45 120 210 252 210 120 45 10 1

Ejemplo: Sean los binomios ( 2 x  3 y ) 5 y ( x  y ) 5 , desarrolle los mismos aplicando el


triángulo de Pascal:

Jesús Sachahuamán Flores Página 26


5 5 4 3 2 2 3 4 5
( 2 x  3 y )  ( 2 x )  5( 2 x ) 3 y  10 ( 2 x ) ( 3 y )  10 ( 2 x ) ( 3 y )  5( 2 x )( 3 y )  ( 3 y ) 
5 5 4 3 2 2 3 4 5
( 2 x  3 y )  32 x  240 x y  720 x y  1080 x y  810 xy  243 y .

6 6 5 4 2 3 3 2 4 5 6
( x  y )  x  6 x y  15 x y  20 x y  15 x y  5 xy  y .

PROPIEDADES DE LA DISTRIBUCIÓN BINOMIAL

1.- El experimento se fundamenta en n ensayos repetidos.

2.- Cada ensayo proporciona un resultado que puede clasificarse como éxito o fracaso.
Cuando es éxito la variable toma el valor 1 y cuando es fracaso toma el valor 0.

3.- La probabilidad de éxito, designada por p, permanece constante de un ensayo a otro.

4.- Los ensayos son independientes.

EJEMPLOS 1: La Probabilidad de salir cara al lanzar una moneda al aire (sale cara o no
sale); la probabilidad de ser admitido en una universidad (o te admiten o no te admiten); la
probabilidad de acertar un Kino (o aciertas o no aciertas).

Al haber únicamente dos soluciones se trata de sucesos complementarios:

A la probabilidad de éxito se le denomina "p"

A la probabilidad de fracaso se le denomina "q"

Verificándose que:

p + q = 1.
EJEMPLOS 2: Probabilidad de salir cara al lanzar una moneda al aire:

Probabilidad de que salga cara: p = 0,5.

Probabilidad de que no salga cara: q = 0,5.

p + q = 0,5 + 0,5 = 1.

Ejemplo 3: Probabilidad de ser admitido en la universidad:

Jesús Sachahuamán Flores Página 27


Probabilidad de ser admitido: p = 0,25.

Probabilidad de no ser admitido: q = 0,75.

p + q = 0,25 + 0,75 = 1.

Ejemplo 4: Probabilidad de acertar un número de lotería de 100000:

Probabilidad de acertar: p = 0,00001.

Probabilidad de no acertar: q = 0,99999.

p + q = 0,00001 + 0,99999 = 1.

Considérense los siguientes experimentos y variables aleatorias

1. Lanzar una moneda diez veces. Sea X = número de caras obtenidas.

2. IJna máquina herramienta desgastada produce 1 % ¡de partes defectuosas. Sea X =


número de partes defectuosas en las siguientes 25 que se produzcan.

3. La posibilidad de que cada muestra de aire contenga una molécula rara es 10%. Sea X
= número de muestras de aire que contienen la molécula rara en las siguientes 18 muestras
por analizar.

4. De todos los bits transmitidos por un canal de transmisión digital, el 10 % se reciben


con error. Sea X = número de bits con error en los siguientes cinco por transmitir.

5. Un examen de opción múltiple contiene diez preguntas, cada una con cuatro opciones, y
se pide a una persona que adivine las respuestas. Sea X = número de respuestas
contestadas de manera correcta.

6. De los siguientes 20 nacimientos en un hospital, sea X = número de niñas.

7. De todos los pacientes que padecen una enfermedad en particular, el 35 % experimenta


una mejora con cierto medicamento. Para los siguientes 30 pacientes a los que se les
administrará el medicamento, sea X = número de pacientes que experimentan mejoría.

Estos ejemplos dejan entrever la utilidad de un modelo de probabilidad general que incluya
estos experimentos como casos particulares.

Cada uno de estos experimentos aleatorios pueden considerarse corno formado por una
serie de ensayos repetidos; 10 lanzamientos de la moneda en el experimento (1), la
producción de 25 partes en el experimento (2) y así sucesivamente. En cada caso, la

Jesús Sachahuamán Flores Página 28


variable aleatoria es el conteo del número de ensayos que cumplen con un criterio
específico. Con esto, el resultado de cada ensayo coincide o no con el criterio y X cuenta o
no; en consecuencia, cada ensayo puede resumirse como un éxito o un fracaso,
respectivamente. Por ejemplo, en el experimento de opción múltiple, para cada una de las
preguntas, sólo la opción que es correcta es la que se considera como un éxito. La selección
de cualquiera de las otras tres opciones incorrectas da como resultado un ensayo que puede
resumirse como un fracaso.

Los términos éxito y fracaso son solo etiquetas. También pueden utilizarse para este fin
“A” “B” o “0” y "1". Por desgracia, en ocasiones las etiquetas usuales pueden ser
engañosas. En el experimento (2), dado que X es el número de partes defectuosas, la
producción de éstas es un éxito.

A menudo es razonable suponer que los ensayos que forman el experimento aleatorio son
independientes. Esto implica que el resultado de uno de los ensayos no tiene ningún efecto
sobre el resultado que se obtenga en cualquier otro ensayo. En el experimento (2), la
hipótesis de ensayos independientes implica saber que la parte número 5 es defectuosa, no
tiene ningún efecto sobre la probabilidad de que cualquiera de las demás partes sea
defectuosa. Asimismo, a menudo es razonable suponer que la probabilidad de éxito en
cada ensayo es constante. En el experimento de opción múltiple [experimento (5)], si se
supone que el sujeto que lleva a cabo la prueba no tiene ningún conocimiento del tema y
sólo adivina la respuesta de cada pregunta, entonces puede considerarse que la probabilidad
de una respuesta correcta para cada pregunta es 1/4.

PROBLEMA VA : Sea el experimento binomial aquel donde se selecciona al azar 3


artículos de un proceso manufacturado, si se examinan y se clasifican como defectuosos
(D) o sin defectos, es decir, normales(N). Un artículo defectuoso se considerara como un
éxito. El número de éxitos es una variable aleatoria x que toma valores enteros desde cero
hasta 3. Los 8 posibles resultados y los correspondientes valores de x son:

Resultados NNN NDN NND DNN NDD DND DDN DDD


x 0 1 1 1 2 2 2 3

Los artículos se seleccionan en forma independiente de un proceso que produce


supuestamente 25 % de artículos defectuosos, entonces la probabilidad de selección es

 4  1 4 3 4   9 64 .
P ( NDN )  P ( N ) P ( D ) P ( N )  3

El número X de éxitos en n ensayo de un experimento binomial se llama variable


aleatoria binomial. La distribución de probabilidad de esta variable aleatoria se le
denomina distribución binomial y sus valores serán designados por b(x, n, p), ya que
dependen del número de ensayos y de la probabilidad de éxitos en un ensayo

Jesús Sachahuamán Flores Página 29


determinado. Por lo tanto, para la distribución de probabilidad de X, el número de defectos
en el problema antes planteado es

P ( X  x )  f ( x )  b ( x .;.. n ;.. p ),

Generalizando la igualad anterior con el objeto de obtener una formula matemática para
b(x, n, p), que proporcione la probabilidad de x éxitos en n ensayos en el caso de un
experimento binomial. Primeramente se considerará la probabilidad de x éxitos y de n – x
fracasos en un orden especificado. Tomando en cuenta que los ensayos son independientes,
se pueden multiplicar todas las probabilidades correspondientes a los diferentes resultados.
Cada éxito ocurre con una probabilidad p y cada fracaso, con una probabilidad q = 1 – p.
En consecuencia, la probabilidad para un determinado pedido (del problema anterior) es
x n x
p q . Se debe determinar ahora el número total de puntos maestrales en el experimento
que tiene x éxitos y n – x fracasos. Este número es igual al número de particiones de n
resultados en dos grupos, con x en un grupo y n – x en el otro, el cual esta determinado
n n!
por    C ( n ,x )  C xn = (n! se lee factorial de n, donde por definición factorial
 x x ! ( n  x )!
de cero es igual 1). Como esas particiones son mutuamente excluyentes, se suman las
probabilidades de todas las particiones diferentes para obtener la formula general o se
n
multiplica p x q n  x por   .
x

DEFINICIÓN DE DISTRIBUCIÓN BINOMIAL

Si un ensayo binomial puede resultar en un éxito con probabilidad p y en un fracaso


con probabilidad q = 1 – p, entonces en la distribución de probabilidad de la
variable aleatoria binomial X, el número de éxitos en n ensayos independientes, es

 n  x n x
b( x , n , p )  f ( x )    . p q ,.... x  0 ,1 ,2 ,3 ......, n
x

Esta es la formula de la distribución de probabilidad para eventos binomiales.

Observe el problema VA que cuando n = 3 y p =1/4, la distribución de probabilidad de


X, el número de defectos, se puede expresar así:

Jesús Sachahuamán Flores Página 30


x 3 x
 1  3  1   3 
b  x ,3 ,   f ( x )        , x  0 ,1 ,2 ,3 .
 4  x  4   4 

Aplicando Esta formula al problema VA se puede calcular la probabilidad de cada evento


así:

0 3 1 2
 3  1   3  27  3  1   3  27
f ( 0 )        ..., f ( 1 )        
 0  4   4  64  1  4   4  64

2 1 3 0
 3  1   3  9  3  1   3  1
f ( 2 )        ..., f ( 3 )        
 2  4   4  64  3  4   4  64

La distribución de probabilidad del problema Va es:

x 0 1 2 3
f(x) f ( x ) 27 27 9 1
64 64 64 64

EJEMPLO: La posibilidad de recibir de manera errónea un bit transmitido por un canal de


transmisión digital, es 0,1. Además, supóngase que los ensayos de transmisión son
independientes. Sea X = número de bits recibidos con error en los próximos cuatro que
serán transmitidos.

Calcule el espacio muestral de este experimento e indíquese el valor de X en cada resultado.


Calcúlese también, P(X = 2).

En este experimento se indica con E un bit erróneo, y con C un bit sin error, esto es,
recibido correctamente. Con esto, el espacio muestral de este experimento puede
describirse como una lista de cuatro letras que indican qué bits fueron recibidos con y sin
error. Por ejemplo, el resultado CECE indica que el segundo y el cuarto bit son erróneos, y
los otros dos se recibieron correctamente. Por consiguiente, el espacio muestral es:

Resultado x Resultado x
CCCC 0 ECCC 1
CCCE 1 ECCE 2
CCEC 1 ECEC 2
CCEE 2 ECEE 3
CECC 1 EECC 2
Jesús Sachahuamán Flores Página 31
CECE 2 EECE 3
CEEC 2 EEEC 3
CEEE 3 EEEE 4

El evento en que X = 2 está formado por seis resultados:

S = {EECC, ECEC, ECCE, CEEC, CECE, CCEE}

Si se hace uso de la hipótesis de que los ensayos son independientes, entonces la


probabilidad de {EECC} es

P(EECC) = P(E)P(E)P(C)P(C) = (0.1)2(0.9)2 = 0.0081

Por otra parte, la probabilidad de que se presente cualquiera de los seis resultados
mutuamente excluyentes para los que X = 2, es la misma. Por consiguiente:

P(X = 2) = 6(0.0081) = 0.0486

En general,

P(X = x) =f(x)= (número de resultados con x errores) multiplicados por (0.1)x (0.9)4-x

Para ultimar una fórmula general de probabilidad, únicamente es preciso una expresión
para el número de resultados que contienen x errores. Puede construirse un resultado que
contiene x errores separando los cuatro ensayos en dos grupos. El tamaño de uno de los
grupos es x y contiene los errores, mientras que el tamaño del otro grupo es n-x y está
formado por los ensayos donde no hay errores. Tomando en cuenta la ecuación de
Combinación, el número de maneras de separar cuatro objetos en dos grupos, uno de los
cuales tiene tamaño x, es:

4 4!
  . Por tanto, en este ejemplo,
 x  x ! ( n  x )!

Jesús Sachahuamán Flores Página 32


4 x 4 x 4 2 42
P ( X  x )  f ( x )   ( 0 . 1 ) ( 0 . 9 )  P ( X  2 )  f ( 2 )   ( 0 . 1 ) ( 0 . 9 ) 
x 2
P ( X  2 )  f ( 2 )  6 ( 0 . 01 )( 0 . 81 )  0 . 0486 .

P ( X  2 )  f ( 2 )  0 . 0486 .

Otros ejemplo:

Los siguientes son ensayos Binomiales:

Un tornillo, puede estar defectuoso o no defectuoso.

El sexo de un bebé al nacer puede ser: niño o niña.

Las respuestas en una prueba determinada puden ser: correcta o incorrecta.

Si consideramos que una serie de ensayos Binomiales tiene como características:

1. La probabilidad de éxito permanece constante, ensayo tras ensayo; y

2. Los ensayos son independientes entre sí;

Entonces se tiene lo que se denomina experimento binomial, donde el número de ensayos


se denota con n, la probabilidad de éxito con p y la de fracaso con q. Hay que notar que las
probabilidades de éxito y de fracaso están relacionadas de la siguiente manera: p + q =1.

Por ejemplo: Consideremos un examen con tres preguntas de opción múltiple, con cuatro
opciones, y que será contestado al azar.

Podemos utilizar el siguiente ejemplo:

1.- Las flores de la cayena son de color:


a) rojas b) azules c) amarillas d) naranjas

2.- Don Cristóbal Colon descubrió a Colombia en:


a) 1592 b) 1692 c) 1492 d) 1792

3.- El significado de la palabra planta es:


a) hoja b) árbol c) flor d) fruto

Con los datos de esta prueba contamos con un experimento binomial, ya que la
probabilidad de éxito permanece constante en las tres preguntas (p = ¼) y las respuestas de

Jesús Sachahuamán Flores Página 33


una a otra pregunta son independientes entre sí. Se cuenta con una cantidad n = 3 de
ensayos y q =1 – p = 3/4.

Hay que decir que n y p son los llamados parámetros de la distribución.

Tenemos ahora la variable aleatoria X del ejemplo anterior que representará el número de
respuestas correctas, siendo sus posibles valores: 0, 1, 2, y 3.

Para calcular la distribución de probabilidad correspondiente, consideraremos como E los


éxitos y como F los fracasos (el subíndice indica el número de pregunta). Así pues, se tiene
que:

P(X=0) = P(F1  F2  F3) = P(F1)·P(F2)·P(F3) = (3/4)3 = 1·(3/4)3·(1/4)0


=
27
/64

81
P(X=1) = P[(E1  F2  F3)  (F1  E2  F3)  = /256 = 3·(3/4)2·(1/4)1
 (F1  F2  E3)]

9
P(X=2) = P[(E1  E2  F3)  (E1  F2  E3)  = /64 = 3·(3/4)1·(1/4)2
 (F1  E2  E3)]

P(X=3) = P(E1  E2  E3) = P(E1)·P(E2)·P(E3) = (1/4)3 = 1·(3/4)0·(1/4)3


= 1/64

Al presentar esta información como tabla, su respectivo histograma seria el siguiente:

X P(X=x)
0 0.422
1 0.422
2 0.141
3 0.016

Jesús Sachahuamán Flores Página 34


EJEMPLO: Un estudio sobre la influencia relativa de esposos y esposas en las políticas
familiares de consumo, establece que el marido ejerce una influencia decisiva en la compra
de un automóvil nuevo, en lo referente a la marca, en 70 % de las familias. Suponga que 4
familias han decidido comprar un automóvil nuevo.

a.- ¿Cuál es la probabilidad de que en exactamente 2 de las 4 familias los maridos ejerza
una influencia decisiva en la selección de la marca del automóvil a comprar?

b.- ¿Cuál es la probabilidad de que los maridos ejerzan una influencia decisiva en la
selección de la marca del automóvil en por lo menos 2 de las 4 familias?

c.- ¿Cuál es la probabilidad de que los maridos seleccionen la marca del automóvil en las 4
familias?

SOLUCIÓN: Se supone que las decisiones de compras de las familias son independiente
y que p permanece constante de una familia a otra, por lo tanto, n = 4, y p = 0.7. Sea x el
número de familias en las cuales los maridos ejercen una influencia decisiva en la selección
de un automóvil nuevo. Por consiguiente, x = 0, 1, 2, 3 y 4, entonces se tiene que:

4
b ( x ,4 ,0 . 7 )  f ( x )    0 . 70   0 . 30 
x n x
,... x  0 ..,1 .., 2 ..,3 .., 4
x
4 2 2
a ).  P ( exactament e ..dos )  P ( x  2 )  f ( 2 )    .( 0 . 70 ) ( 0 . 30 ) 
2
4!
( 0 . 49 )( 0 . 09 )  0 . 2646
2 !. 2 !

Jesús Sachahuamán Flores Página 35


Luego la probabilidad de que en exactamente 2 de las a familias los maridos ejerzan una
influencia decisiva en la selección de la marca de auto a comprar es de 26.46 %.

b).- P(al menos dos) = tiene 2 soluciones posibles a saber:


1 ).  P ( x  2 )  p ( 2 )  p ( 3 )  p ( 4 ),... o ..tambien
2 ).  P ( x  2 )  1   p ( 0 )  p ( 1 )  

 4 0 4 4 1
1  C 0 ( 0 .7 ) ( 0 .3 )  C 1 ( 0 .7 ) ( 0 .3 )
3

1  0 . 0081  0 . 0756   1  0 . 0837
1  0 . 0837  0 . 9163

Entonces la probabilidad de que al menos en 2 de las familias el marido seleccione la


marca del automóvil nuevo es de 0.9163 = 91.63 %. La solución 1 se le deja al
estudiante para que la realice.
4 4 0 4! 4
c).- P(4 familias) = C 4 ( 0 .7 ) ( 0 .3 )  ( 0 . 7 ) ( 1 )  0 . 2401 .
4 !. 0 !
La probabilidad de que los maridos de las 4 familias seleccionen la marca del automóvil es
de 0.2401 = 24.01 %.

PROBLEMA: Con el propósito de decidir si se aceptan los lotes de mercancía que envía
la fabrica RANICA a un comerciante, se lleva acabo un procedimiento que consiste en
seleccionar 10 artículos al azar de cada lote y determinar el número que presenta defectos.
Un lote se rechaza siempre que se encuentren 2 o más artículos defectuosos entre los 10
seleccionados. Se supone que el número de artículos en cada lote es grande y que cada lote
contiene un 5 % de artículos defectuosos. ¿Cuál es la probabilidad de aceptar un lote de
artículos? ¿Cuál es la probabilidad de rechazarlo?

SOLUCIÓN: Sea x el número de artículos defectuosos observados; n  10 , y la


probabilidad de observar un articulo defectuoso en un ensayo es p = 0.05, entonces:

 10  x 10  x
p ( x )  f ( x )    .( 0 . 05 ) ( 0 . 95 ) , entonces las probabilidades de aceptar un lote
 x
es:

Jesús Sachahuamán Flores Página 36


1 .. P ( aceptar )  p ( 0 )  p ( 1 )
10
 10 

x 10  x
2 .. P ( aceptar )  1    .( 0 . 05 ) ( 0 . 95 )
x2  x 
0 10 1 9
1 ). P ( aceptar )  p ( 0 )  p ( 1 )  C ( 10 ,0 ) ( 0 . 05 ) ( 0 . 95 )  C ( 10 ,1 ) ( 0 . 05 ) ( 0 . 95 ) 

P ( aceptar )  ( 1 )( 1 )( 0 . 599 )  ( 10 )( 0 . 05 )( 0 . 6302 )  0 . 599  0 . 315


P ( aceptar )  0 . 914  91 . 40 %.

a ). P ( rechazar )  1  P ( aceptar  1  0 . 914  0 . 086  8 . 60 %... tambien .. puede .. ser :

10
 10 

x 10  x
b ). P ( rechazar )    .( 0 . 05 ) ( 0 . 95 )
x2  x 

El estudiante debe realizar la parte 2 de la P ( acetar ) y el resultado tiene que ser igual al
obtenido en la parte 1, (0.914). De la misma forma debe realizar los cálculos de la parte b y
el resultado tiene que ser igual al de la parte a (0.086).

LA MEDIA Y LA VARIANZA DE UNA VARIABLE ALEATORIA BINOMIAL

El cálculo de p(x) puede ser muy aburrido cuando los valores de n son muy grandes. Por
tal razón, es conveniente describir la distribución de probabilidad binomial mediante se
media y su desviación estándar. Esto permitirá identificar valores de x que son altamente
improbables, usando el conocimiento sobre el teorema de Tchebysheff y la regla empírica.
Por lo tanto, es de gran importancia conocer el valor esperado o esperanza matemática y la
varianza de la variable aleatoria binomial x.

La Media, la Varianza y la Desviación Estándar de una variable aleatoria Binomial son:

  E ( x )  np
2
  npq

 npq

Jesús Sachahuamán Flores Página 37


VARIABLE ALEATORIA CONTINUA
Una variable numérica puede clasificarse como discreta o continua. Las variables discretas
se miden utilizando números enteros y es posible asociarlas con la idea de "contar". Las
variables continuas se pueden asociar con la idea de "medir" utilizando fracciones y
decimales. Cuando la variable es continua el modelo probabilístico que más se usa es la
distribución normal. Las variables aleatorias que hemos estudiado hasta ahora tienen la
propiedad de que son el resultado de contar; sus valores posibles varían en forma discreta
(a saltos). Hay otro tipo de variables aleatorias, las que son el resultado de un proceso de
medir; sus valores posibles cubren todo un intervalo en los números reales reales.

Cuando el espacio muestral de una variable aleatoria es un intervalo real decimos que la
variable es continua. La matemática que utilizamos para las variables continuas es diferente
a la de las discretas aunque los conceptos probabilísticos sean los mismos de manera que en
nuestro estudio de las continuas utilizaremos este paralelo con las discretas.

DENSIDAD DE UNA VARIABLE ALEATORIA CONTINÚA

FUNCIÓN DE DENSIDAD

Una función y=f(x) es una función de densidad de una variable aleatoria continua si
cumple las siguientes condiciones:

El primer hecho de importancia es que una va (variable aleatoria) continúa tiene


probabilidad cero de tomar un valor específico, sólo tiene valores positivos para intervalos:

P( X = a ) = 0 para cualquier valor de a

Para calcular la probabilidad de que X esté en un intervalo (a, b) o (a, b] o [a, b) o [a, b] o
cualquier otro intervalo, debemos hacer uso de una función asociada a la variable aleatoria,
la función de densidad de X. Las variables aleatorias discretas tienen la función de
probabilidad, las continuas tienen función de densidad. Además, como en el caso discreto,
la función de densidad está ligada a la va X de modo que cuando sea necesario aclarar a

Jesús Sachahuamán Flores Página 38


cuál densidad nos referimos podemos usar la notación f x (x), poniéndole el subíndice X a
la f.

PARÁMETROS DE UNA VARIABLE ALEATORIA CONTINUA

Por analogía con las definiciones de estos conceptos para variables aleatorias discretas, se
definen la esperanza matemática o media , la varianza  y la desviación típica  de una
variable aleatoria continua de la siguiente forma:

TIPIFICACIÓN DE UNA VARIABLE ALEATORIA

X 
Si X es una variable aleatoria de media  y desviación típica , la variable Z 

tiene de media 0 y de desviación típica 1, y se llama tipificada de X. Podemos decir que
mide la desviación de X respecto de su media, tomando como unidad la desviación típica
de X.

Distribución normal
También se llama distribución de Gauss o distribución de Laplace-Gauss. Ello se debe a
que el matemático francés Pierre Simon de Laplace (v.), fue el primero que demostró la
siguiente relación, muy importante en el estudio de la distribución normal:

x
2

  e  

Jesús Sachahuamán Flores Página 39


Sin embargo, muchos autores consideran como auténtico descubridor de la distribución
normal a Abraham De Moivre (v.), quien publicó en 1733 un folleto con el título de
Approximatio ad summan terminorum binomii (a + b)n, en el que aparece por primera vez
la curva de la distribución de errores, que pasando el tiempo, y con no cierta injusticia, se
conoce como distribución de Gauss.

El modelo matemático más importante en estadística es la distribución normal, ya que


provee una descripción adecuada para la distribución de una gran cantidad de variables
continuas.

Carl Friedrich Gauss.- Nació el 30 de Abril 1777 en Brunswick, (Ahora Alemania).


Falleció, el 23 de Febrero 1855 en Göttingen, Hanover (Ahora Alemania).

Cuando Gauss tenía diez años de edad, su maestro solicitó a la clase que encontrará la suma
de todos los números comprendidos entre uno y cien. El maestro, pensando que con ello la
clase estaría ocupada algún tiempo, quedó asombrado cuando Gauss, levantó en seguida la
mano y dio la respuesta correcta. Gauss reveló que encontró la solución usando el álgebra,
el maestro se dio cuenta de que el niño era una promesa en las matemáticas. Hijo de un
humilde albañil, Gauss dio señales dio señales de ser un genio antes de que cumpliera los
tres años. A esa edad aprendió a leer y hacer cálculos aritméticos mentales con tanta
habilidad que descubrió un error en los cálculos que hizo su padre para pagar unos sueldos.
Ingresó a la escuela primaria antes de que cumpliera los siete años. Cuando tenía doce años,
criticó los fundamentos de la geometría euclidiana; a los trece le interesaba las
posibilidades de la geometría no euclidiana. A los quince, entendía la convergencia y probó
el binomio de Newton. El genio y la precocidad de Gauss llamaron la atención del duque de
Brunswick, quien dispuso, cuando el muchacho tenía catorce años, costear tanto su
educación secundaria como universitaria. Gauss, a quien también le interesaban los clásicos
y los idiomas, pensaba que haría de la filosofía la obra de su vida, pero las matemáticas
resultaron ser una atracción irresistible.

Cuando estudiaba en Gotinga, descubrió que podría construirse un polígono regular de


diecisiete lados usando sólo la regla y el compás. Enseñó la prueba a su profesor, quién se
demostró un tanto escéptico y le dijo que lo que sugería era imposible; pero Gauss
demostró que tenía la razón. El profesor, no pudiendo negar lo evidente, afirmó que
también él procedió de la misma manera. Sin embargo, se reconoció el mérito de Gauss, y
la fecha de su descubrimiento, 30 de Marzo de 1796, fue importante en la historia de las
matemáticas. Posteriormente, Gauss encontró la fórmula para construir los demás polígonos
regulares con la regla y el compás.

A la edad de setenta y siete años, Gauss falleció. Se ha dicho que la lápida que señala su
tumba fue escrita con un diagrama, que construyó el mismo Gauss, de un polígono de
diecisiete lados. Durante su vida, se reconoció que era el matemático más grande de los
siglos XVIII y XIX. Su obra en las matemáticas contribuyó a formar una base para
encontrar la solución de problemas complicadísimos de las ciencias físicas y naturales.

La distribución normal es en forma de campana, habitualmente llamada distribución de


Gauss. Es simétrica en torno a su media (  ); la media, mediana y modo son iguales; el área

Jesús Sachahuamán Flores Página 40


total de la curva por encima del eje basal x es la unidad del área = 1, por lo tanto cada
sector de derecha e izquierda tiene un valor de 0,5. Si se trazan líneas perpendiculares a un
desvío estándar (  ) de distancia de la media, se obtiene un 68% del área de la curva. Dos
desvíos estándar encierran un 95% y tres un 99,7% de la curva. La mayoría de las variables
aleatorias que se presentan en los estudios relacionados con las ciencias sociales,
Administración, físicas y biológicas, por ejemplo, el peso de niños recién nacidos, talla de
jóvenes de 18 años en una determinada región, son continuas y se distribuyen según una
función de densidad.

Esta distribución es frecuentemente utilizada en las aplicaciones estadísticas. Es propio


que ciertos fenómenos tienden a parecerse en su comportamiento a esta distribución.
Muchas variables aleatorias continuas presentan una función de densidad cuya gráfica tiene
forma de campana.

En otras ocasiones, al considerar distribuciones binomiales, tipo B(n, p), para un mismo
valor de p y valores de n cada vez mayores, se ve que sus polígonos de frecuencias se
aproximan a una curva en "forma de campana".

En resumen, la importancia de la distribución normal se debe principalmente a que hay


muchas variables asociadas a fenómenos naturales que siguen el modelo de la normal.

 Caracteres morfológicos de individuos (personas, animales, plantas,...) de una


especie, p.ejm. tallas, pesos, envergaduras, diámetros, perímetros,...
 Caracteres fisiológicos, por ejemplo: efecto de una misma dosis de un fármaco, o
de una misma cantidad de abono.
 Caracteres sociológicos, por ejemplo: consumo de cierto producto por un mismo
grupo de individuos, puntuaciones de examen.
 Caracteres psicológicos, por ejemplo: cociente intelectual, grado de adaptación a un
medio,...
 Errores cometidos al medir ciertas magnitudes.
 Valores estadísticos muestrales, por ejemplo : la media.
 Otras distribuciones como la binomial o la de Poisson son aproximaciones
normales, ...

Y en general cualquier característica que se obtenga como suma de muchos factores.

En el gráfico se observa la campana de Gauss, representante de la distribución normal y sus


desvíos estándares.

Sir Francis Galton construyó un ingenioso dispositivo que permitía obtener de forma
experimental la curva de distribución normal. La mayoría de las magnitudes, incluida la
inteligencia, se distribuyen siguiendo esta ley normal, que matemáticamente viene
expresada por la función:

Jesús Sachahuamán Flores Página 41


Donde:
e es la constante 2,7182…(base de los logaritmos neperianos).

 es 3,1415… (Relación entre la longitud de la circunferencia y su diámetro).

x es la abscisa, cualquier punto del intervalo.

 es la media de la variable aleatoria.

 es la desviación tipo de la variable aleatoria,

2
 es la varianza de la variable aleatoria

f(x) la ordenada de la curva.

Dicha curva y tal como vemos en la gráfica, presenta un apiñamiento de frecuencias altas
en torno a la media, que se alejan de la misma a medida que ganan en singularidad.La
medida de la distancia al valor central es indicado por la desviación tipo o estándar.

Ejemplos de distribuciones normales con diferentes parámetros

Jesús Sachahuamán Flores Página 42


Jesús Sachahuamán Flores Página 43
Jesús Sachahuamán Flores Página 44
Como e y π son constantes, la forma de la curva normal depende solamente de los dos
parámetros de la distribución normal, la media μx y la desviación estándar σx. Las
diferentes curvas normales van a variar dependiendo de esos dos parámetros.

En matemáticas, la ecuación de la distribución normal se puede representar visualmente


como una curva en forma de campana. El área debajo de esta curva se halla por medio del
integral de la función y corresponde al porciento o la proporción de puntuaciones que se
encuentran en el intervalo dado.

La distribución normal queda definida por dos parámetros, su media y su desviación típica
y la representamos así

N (  , )

Para cada valor de  y  se tendrá una función de densidad diferente, por lo tanto la
expresión N (  ,  ) representa una familia de distribuciones normales.

Donde μ es la media de la variable aleatoria y σ es su desviación típica. Este tipo de


variables se dice que se distribuye normalmente. El área bajo la función de densidad es 1.
La función de densidad, en el caso de la distribución Normal, tiene forma de campana:

Jesús Sachahuamán Flores Página 45


Para una variable aleatoria X, que se distribuya normalmente con media: μ y desviación
típica: σ, la probabilidad de que la variable X esté comprendida entre los valores a y b es el
área teñida de rojo en la siguiente figura:

Propiedades de la distribución normal


1.- Tiene una única moda, que coincide con su media y su mediana.

2.- La curva normal es asintótica al eje de abscisas. Por ello, cualquier valor entre  
y   es teóricamente posible. El área total bajo la curva es, por tanto, igual a 1.

3.- Es simétrica con respecto a su media  . Según esto, para este tipo de variables
existe una probabilidad de un 50% de observar un dato mayor que la media, y un 50%
de observar un dato menor.

4.- La distancia entre la línea trazada en la media y el punto de inflexión de la curva es


igual a una desviación típica (  ). Cuanto mayor sea  , más aplanada será la curva de
la densidad.

Jesús Sachahuamán Flores Página 46


5.- El área bajo la curva comprendida entre los valores situados aproximadamente a dos
desviaciones estándar de la media es igual a 0.95. En concreto, existe un 95% de
posibilidades de observar un valor comprendido en el intervalo   1 . 96  ;   1 . 96   .

6.- La forma de la campana de Gauss depende de los parámetros  y  . La media


indica la posición de la campana, de modo que para diferentes valores de  la gráfica
es desplazada a lo largo del eje horizontal. Por otra parte, la desviación estándar
determina el grado de apuntamiento de la curva. Cuanto mayor sea el valor de  , más se
dispersarán los datos en torno a la media y la curva será más plana. Un valor pequeño
de este parámetro indica, por tanto, una gran probabilidad de obtener datos cercanos al
valor medio de la distribución.

7.- Como se deduce de este último apartado, no existe una única distribución normal,
sino una familia de distribuciones con una forma común, diferenciadas por los valores
de su media y su varianza. De entre todas ellas, la más utilizada es la distribución
normal estándar, que corresponde a una distribución de media 0 y varianza 1.

8.- Ql y Q3 están situados a 2/3 de una desviación estándar. El 68 % del área de la curva
(probabilidad) se encuentra a una desviación estándar de la media.

9.- La variable tiene un alcance infinito, pero la mayor parte del área bajo la curva se
encuentra a tres desviaciones estándar de la media.

FUNCIÓN DE DISTRIBUCIÓN

 Puede tomar cualquier valor (- , + )


 Son más probables los valores cercanos a uno central que llamamos media 
 Conforme nos separamos de ese valor , la probabilidad va decreciendo de igual
forma a derecha e izquierda (es simétrica).
 Conforme nos separamos de ese valor , la probabilidad va decreciendo de forma
más o menos rápida dependiendo de un parámetro , que es la desviación típica.

Jesús Sachahuamán Flores Página 47


F(x) es el área sombreada de esta gráfica

LA DISTRIBUCIÓN NORMAL ESTANDARIZADA O TIPIFICACIÓN

La Distribución Normal Estándar es una Distribución Normal teórica que utiliza un


sistema numérico común. Cuando se estudia la variable de peso de los niños al nacer, o el
grueso de tornillos, o el número de frutos dañados en un árbol, aun cuando las
distribuciones de datos muestren la misma forma, las unidades métricas son variables, por
tanto, para poderlas comparar con una distribución patrón es necesario referirlas en la
misma unidad de medida. Esta unidad de medida es la desviación estándar (se verá más
adelante), de esta manera, sean pesos de bebes, grueso de tornillos o frutos de árboles,
transformados a una unidad estándar, estaremos habando en la misma escala. Cuando se
diga por ejemplo, entre el punto A y el punto B hay k desviaciones estándar, sin importar
las unidades en que fueron medidos los datos, kilos, micras o unidades para el ejemplo. Por
tanto, al comparar las magnitudes entre el punto A y el punto B en los tres análisis con las

Jesús Sachahuamán Flores Página 48


unidades de la Distribución Normal Estándar, se podrá deducir entre otras cosas, la
magnitud relativa entre el punto A y el punto B. Debe quedar claro que las comparaciones
únicamente son posibles en poblaciones similares, niños con niños, tornillos con tornillos
etc.

Puesto que hay un número infinito de combinaciones para los dos parámetros, hay un
número infinito de curvas normales diferentes. Este problema se ha resuelto prácticamente
al transformar los valores de todas las distribuciones normales a los valores de una
distribución normal estandarizada (tipificada) representada por la curva normal
estandarizada.

Las puntuaciones estandarizadas (tipificadas) se logran restando la media a cada


observación y dividiendo entre la desviación estándar. La unidad estándar o tipificada se
llama Z y se obtiene mediante la formula:

x
Z 

Donde μ es la media de la distribución y σ su desviación estándar.

En muchas ocasiones se quieren comparar puntuaciones que pertenecen a dos


distribuciones normales diferentes. La diferencia entre las dos distribuciones radica en que
las medias y las desviaciones estándar no son iguales. Sin embargo la comparación se hace
posible si se convierten las puntuaciones de ambas distribuciones a puntuaciones z que
corresponden a la distribución normal estandarizada o tipificada.

Por tanto su función de densidad es

y su función de distribución es

Jesús Sachahuamán Flores Página 49


Siendo la representación gráfica de esta función la siguiente:

A la variable Z se la denomina variable tipificada de X, y a la curva de su función de


densidad curva normal tipificada.

Característica de la distribución normal tipificada (reducida o estándar)

 No depende de ningún parámetro


 Su media es 0, su varianza es 1 y su desviación típica es 1.
 La curva f(x) es simétrica respecto del eje 0Y
 Tiene un máximo en el eje Y
 Tiene dos puntos de inflexión en z =1 y z = -1

La curva normal estándar tiene  = 0 y  = 1. Recordamos que la probabilidad equivale


al área bajo la curva, que el área bajo toda la curva es 1 y que el área bajo cada mitad de la
curva es 0.5. Para calcular probabilidades en una curva normal no estándar, usamos la
fórmula de conversión z. Cuando la media de la distribución normal es 0 y la varianza es 1
se denomina "normal tipificada", y su ventaja reside en que hay tablas donde se recoge la
probabilidad acumulada para cada punto de la curva de esta distribución.

Jesús Sachahuamán Flores Página 50


Ejemplo:

Consideremos que el peso de los niños varones venezolanos en el momento del nacimiento
se distribuyen normalmente. Si sabemos que el peso medio en el momento de nacer son
3,25 Kg. y la desviación típica es de 0,82 Kg., ¿cuál es la probabilidad de que el peso de un
niño varón al nacer sea superior a 4 Kg?

X  4  3 . 25
Z    0 . 9146
 0 . 82

Tipificamos la variable aleatoria X, peso de los niños al nacer. En el proceso de


tipificación, al valor de X = 4, le corresponde el valor, t = 0,9146:

En la tabla de la distribución normal tipificada, buscamos el valor de α correspondiente


al valor de t = 0,9146 ; la probabilidad de t > 0,9146 es, según se puede apreciar en la

figura: . Luego:
2

Por lo tanto la probabilidad de que un niño al nacer tenga un peso superior a 4 kg. es de
18.0 %.

Jesús Sachahuamán Flores Página 51


EJEMPLOS:

A) Calcular P (z < –1.35) y P (z > –1.35). Solución: abajo se reproduce parte de la tabla:

z .00 .01 .02 .03 .04 .05 .06 .07 .08 .09

–1.3 .0968 .0951 .0934 .0918 .0901 .0885 .0869 .0853 .0838 .0823

Recordamos que la tabla proporciona el área bajo la curva a la izquierda de z. Por lo tanto,

P (z < –1.35) = 0.0885.

La otra área se obtiene así: P (z > –1.35) = 1 – 0.0885 = 0.9115.

B) Una distribución normal tiene  = 60 y  = 5. Encontrar P(x < 63) y P(x > 63).

Solución: Primero transformamos el valor de x a su equivalente en z: z = (63–60)/5 = 0.6.

z .00 .01 .02 .03 .04 .05 .06 .07 .08 .09

0.6 .7257 .7291 .7324 .7357 .7389 .7422 .7454 .7486 .7517 .7549

Al consultar la tabla (ver arriba): P(x < 63) = P(z < 0.60) = 0.7257.

Además, P(x > 63) = P (z > 0.60) = 1 – P (z < 0.60) = 0.2743.

EJERCICIOS: Calcular las siguientes probabilidades.

1) P(z > –2.43)

2) P(z < –0.96)

3) P(z > 1.17)

4) P(z < 2.39)

5) Si  = 110 y  = 4, calcular P(x < 107) y P(x > 105)

6) Si  = 30 y  = 2, calcular P(x < 31.2) y P(x > 32.3)

Consideremos, el siguiente problema:

Supongamos que se sabe que el peso de los sujetos de una determinada población sigue
una distribución aproximadamente normal, con una media de 80 Kg. y una desviación

Jesús Sachahuamán Flores Página 52


estándar de 10 Kg. ¿Podremos saber cuál es la probabilidad de que una persona, elegida al
azar, tenga un peso superior a 100 Kg?

SOLUCIÓN: Expresando por X a la variable que representa el peso de los individuos en


esa población, ésta sigue una distribución N (80, 10). Su distribución no es de la normal
estándar, entonces, es útil transformar esta característica según la Ecuación siguiente:

Así, la probabilidad que se desea calcular será:

Como el área total bajo la curva es igual a 1, se puede deducir que:

Esta última probabilidad puede ser fácilmente obtenida a partir de la tabla, resultando ser
. Por lo tanto, la probabilidad buscada de que una persona elegida
aleatoriamente de esa población tenga un peso mayor de 100 Kg., es de:

1–0.9772 = 0.0228, es decir, aproximadamente de un 2.3%.

De modo análogo, podemos obtener la probabilidad de que el peso de un sujeto esté entre
60 y 100 Kg:

Tomando a = -2 y b = 2, podemos deducir que:

Por el ejemplo anterior, se sabe que P ( z  2 )  0 . 9772 . Para la segunda probabilidad, sin
embargo, encontramos el problema de que las tablas estándar no proporcionan el valor de
P ( z   2 ) para valores negativos de la variable. Sin embargo, haciendo uso de la simetría
de la distribución normal, se tiene que:

Dagoberto Salgado Horta Página 53


Finalmente, la probabilidad buscada de que una persona elegida al azar tenga un peso entre
60 y 100 Kg., es de 0.9772-0.0228=0.9544, es decir, aproximadamente de un 95%. Resulta
interesante comprobar que se obtendría la misma conclusión recurriendo a la propiedad de
la distribución normal.

No obstante, es fácil observar que este tipo de situaciones no corresponde a lo que


habitualmente nos encontramos en la práctica. Generalmente no se dispone de información
acerca de la distribución teórica de la población, sino que más bien el problema se plantea a
la inversa: a partir de una muestra extraída al azar de la población que se desea estudiar, se
realizan una serie de mediciones y se desea extrapolar los resultados obtenidos a la
población de origen.

Ejemplo: Supongamos que se dispone del peso de n =100 individuos de esa misma
población, obteniéndose una media muestral de X  75 Kg., y una desviación estándar
muestral S  12 Kg., se pretende extraer alguna conclusión acerca del valor medio real de
ese peso en la población original.

La solución a este tipo de cuestiones se basa en un resultado elemental de la teoría


estadística, el llamado teorema central del límite. Dicho axioma viene a decirnos que las
medias de muestras aleatorias de cualquier variable siguen ellas mismas una distribución
normal con igual media que la de la población y desviación estándar la de la población
dividida por n . En nuestro caso, podremos entonces considerar la media muestral
 
X  N ,   , con lo cual, a partir de la propiedad de la normal se conoce que
 n
aproximadamente un 95% de los posibles valores de X caerían dentro del intervalo
 1 . 96  1 . 96  
  ;   . Puesto que los valores de  y  son desconocidos, podríamos
 n n 
pensar en aproximarlos por sus análogos muestrales, resultando

Estaremos, por lo tanto, un 95% seguros de que el peso medio real en la población de
origen oscila entre 75.6 Kg y 80.3 Kg. Aunque la teoría estadística subyacente es mucho
más compleja, en líneas generales éste es el modo de construir un intervalo de confianza
para la media de una población.

Ejemplo: Supongamos que cierto fenómeno pueda ser representado mediante una
va X  N ( 45 ,81 ) , y queremos calcular la probabilidad de que X tome un valor entre 39 y
48, es decir,

P 39  X  48   ??

Dagoberto Salgado Horta Página 54


SOLUCIÓN: Comenzamos haciendo el cambio de variable

X  X  45 X  45
Z    . De modo que
 81 9

P 39  X  48   0 . 378  37 . 80 %.

Dagoberto Salgado Horta Página 55


Tabla de Áreas bajo la curva normal estándar. Los valores de la tabla que no se muestran en negrita
representan la probabilidad de observar un valor menor o igual a z. La cifra entera y el primer
decimal de z se buscan en la primera columna, y el segundo decimal en la cabecera de la tabla.

z 0.00 0.01 0.02 0.03 0.04 0.05 0.06 0.07 0.08 0.09
0.0 0.5000 0.5040 0.5080 0.5120 0.5160 0.5199 0.5239 0.5279 0.5319 0.5359
0.1 0.5398 0.5438 0.5478 0.5517 0.5557 0.5596 0.5636 0.5675 0.5714 0.5753
0.2 0.5793 0.5832 0.5871 0.5910 0.5948 0.5987 0.6026 0.6064 0.6103 0.6141
0.3 0.6179 0.6217 0.6255 0.6293 0.6331 0.6368 0.6406 0.6443 0.6480 0.6517
0.4 0.6554 0.6591 0.6628 0.6664 0.6700 0.6736 0.6772 0.6808 0.6844 0.6879
0.5 0.6915 0.6950 0.6985 0.7019 0.7054 0.7088 0.7123 0.7157 0.7190 0.7224
0.6 0.7257 0.7291 0.7324 0.7357 0.7389 0.7422 0.7454 0.7486 0.7517 0.7549
0.7 0.7580 0.7611 0.7642 0.7673 0.7704 0.7734 0.7764 0.7794 0.7823 0.7852
0.8 0.7881 0.7910 0.7939 0.7967 0.7995 0.8023 0.8051 0.8078 0.8106 0.8133
0.9 0.8159 0.8186 0.8212 0.8238 0.8264 0.8289 0.8315 0.8340 0.8365 0.8389
1.0 0.8413 0.8438 0.8461 0.8485 0.8508 0.8531 0.8554 0.8577 0.8599 0.8621
1.1 0.8643 0.8665 0.8686 0.8708 0.8729 0.8749 0.8770 0.8790 0.8810 0.8830
1.2 0.8849 0.8869 0.8888 0.8907 0.8925 0.8944 0.8962 0.8980 0.8997 0.9015
1.3 0.9032 0.9049 0.9066 0.9082 0.9099 0.9115 0.9131 0.9147 0.9162 0.9177
1.4 0.9192 0.9207 0.9222 0.9236 0.9251 0.9265 0.9279 0.9292 0.9306 0.9319
1.5 0.9332 0.9345 0.9357 0.9370 0.9382 0.9394 0.9406 0.9418 0.9429 0.9441
1.6 0.9452 0.9463 0.9474 0.9484 0.9495 0.9505 0.9515 0.9525 0.9535 0.9545
1.7 0.9554 0.9564 0.9573 0.9582 0.9591 0.9599 0.9608 0.9616 0.9625 0.9633
1.8 0.9641 0.9649 0.9656 0.9664 0.9671 0.9678 0.9686 0.9693 0.9699 0.9706
1.9 0.9713 0.9719 0.9726 0.9732 0.9738 0.9744 0.9750 0.9756 0.9761 0.9767
2.0 0.9772 0.9778 0.9783 0.9788 0.9793 0.9798 0.9803 0.9808 0.9812 0.9817
2.1 0.9821 0.9826 0.9830 0.9834 0.9838 0.9842 0.9846 0.9850 0.9854 0.9857
2.2 0.9861 0.9864 0.9868 0.9871 0.9875 0.9878 0.9881 0.9884 0.9887 0.9890
2.3 0.9893 0.9896 0.9898 0.9901 0.9904 0.9906 0.9909 0.9911 0.9913 0.9916
2.4 0.9918 0.9920 0.9922 0.9925 0.9927 0.9929 0.9931 0.9932 0.9934 0.9936
2.5 0.9938 0.9940 0.9941 0.9943 0.9945 0.9946 0.9948 0.9949 0.9951 0.9952
2.6 0.9953 0.9955 0.9956 0.9957 0.9959 0.9960 0.9961 0.9962 0.9963 0.9964
2.7 0.9965 0.9966 0.9967 0.9968 0.9969 0.9970 0.9971 0.9972 0.9973 0.9974
2.8 0.9974 0.9975 0.9976 0.9977 0.9977 0.9978 0.9979 0.9979 0.9980 0.9981
2.9 0.9981 0.9982 0.9982 0.9983 0.9984 0.9984 0.9985 0.9985 0.9986 0.9986
3.0 0.9987 0.9987 0.9987 0.9988 0.9988 0.9989 0.9989 0.9989 0.9990 0.9990
3.1 0.9990 0.9991 0.9991 0.9991 0.9992 0.9992 0.9992 0.9992 0.9993 0.9993
3.2 0.9993 0.9993 0.9994 0.9994 0.9994 0.9994 0.9994 0.9995 0.9995 0.9995
3.3 0.9995 0.9995 0.9995 0.9996 0.9996 0.9996 0.9996 0.9996 0.9996 0.9997
3.4 0.9997 0.9997 0.9997 0.9997 0.9997 0.9997 0.9997 0.9997 0.9997 0.9998
3.5 0.9998 0.9998 0.9998 0.9998 0.9998 0.9998 0.9998 0.9998 0.9998 0.9998

Dagoberto Salgado Horta Página 56


3.6 0.9998 0.9998 0.9999 0.9999 0.9999 0.9999 0.9999 0.9999 0.9999 0.9999
3.7 0.9999 0.9999 0.9999 0.9999 0.9999 0.9999 0.9999 0.9999 0.9999 0.9999
3.8 0.9999 0.9999 0.9999 0.9999 0.9999 0.9999 0.9999 0.9999 0.9999 0.9999
3.9 1.0000 1.0000 1.0000 1.0000 1.0000 1.0000 1.0000 1.0000 1.0000 1.0000

¿Cómo se lee esta tabla?

La columna de la izquierda indica el valor cuya probabilidad acumulada queremos conocer.


La primera fila nos indica el segundo decimal del valor que estamos consultando.

Ejemplo: queremos conocer la probabilidad acumulada en el valor 2,75.Entonces


buscamos en la columna de la izquierda el valor 2,7 y en la primera fila el valor 0,05. La
casilla en la que se interseccionan es su probabilidad acumulada (0,99702, es decir 99.7%).

Atención: la tabla nos da la probabilidad acumulada, es decir, la que va desde el inicio de


la curva por la izquierda hasta dicho valor. No nos da la probabilidad concreta en ese punto.
En una distribución continua en el que la variable puede tomar infinitos valores, la
probabilidad en un punto concreto es prácticamente despreciable.

Ejemplo: Imaginemos que una variable continua puede tomar valores entre 0 y 5. La
probabilidad de que tome exactamente el valor 2 es despreciable, ya que podría tomar
infinitos valores: por ejemplo: 1,99, 1,994, 1,9967, 1,9998, 1999791, etc.

Veamos otros ejemplos:

Probabilidad acumulada en el valor 0,67: la respuesta es 0,7486

Probabilidad acumulada en el valor 1,35: la respuesta es 0,9115

Probabilidad acumulada en el valor 2,19: la respuesta es 0,98574

Veamos ahora, como podemos utilizar esta tabla con una distribución normal:

Ejemplo: el salario medio anual de los empleados de una empresa se distribuye según una
distribución normal, con media 5 millones de Bs. y desviación típica 1 millón de Bs.
Calcular el porcentaje de empleados con un sueldo inferior a 7 millones de Bs.

Lo primero que haremos es transformar esa distribución en una normal tipificada, para ello
se crea una nueva variable (Z) que será igual a la anterior (X) menos su media y dividida
por la desviación típica

X 
Z 

En el ejemplo, la nueva variable sería:

Dagoberto Salgado Horta Página 57


X 5
Z 
1

Esta nueva variable se distribuye como una normal tipificada. La variable Z que
corresponde a una variable X de valor 7 es:

75
Z  2
1

Ya podemos consultar en la tabla la probabilidad acumulada para el valor 2 (equivalente a


la probabilidad de sueldos inferiores a 7 millones de Bs.). Esta probabilidad es 0,97725

Por lo tanto, el porcentaje de empleados con salarios inferiores a 7 millones de Bs. es del
97,725%.

Ejercicio 1º: La renta media de los habitantes de un pueblo es de 4 millones de Bs/año, con
una varianza de 1,5. Se supone que se distribuye según una distribución normal. Calcular:

a) Porcentaje de la población con una renta inferior a 3 millones de Bs.

b) Renta a partir de la cual se sitúa el 10% de la población con mayores ingresos.

c) Ingresos mínimo y máximo que engloba al 60% de la población con renta media.

a) Porcentaje de la población con una renta inferior a 3 millones de Bs.

SOLUCIÓN:
Lo primero que tenemos que hacer es calcular la normal tipificada:

X 4
Z 
1 . 22

Recuede que el denominador es la desviación típica (raíz cuadrada de la varianza)

El valor de Z equivalente a 3 millones de Bs. es – 0,816.

P (X < 3) = P (Z < – 0,816)

Ahora tenemos que ver cuál es la probabilidad acumulada hasta ese valor. Tenemos un
problema: la tabla de probabilidades sólo abarca valores positivos, no obstante, este
problema tiene fácil solución, ya que la distribución normal es simétrica respecto al valor
medio.

Por lo tanto:

Dagoberto Salgado Horta Página 58


P (Z < – 0,816) = P (Z > 0,816)

Por otra parte, la probabilidad que hay a partir de un valor es igual a 1 (100%) menos la
probabilidad acumulada hasta dicho valor:

P (Z > 0,816) = 1 - P (Z < 0,816) = 1 - 0,7925 (aprox.) = 0,2075

Luego, el 20,75% de la población tiene una renta inferior a 3 millones Bs.

b) Nivel de ingresos a partir del cual se sitúa el 10% de la población con renta más
elevada.

Vemos en la tabla el valor de la variable tipificada cuya probabilidad acumulada es el 0,9


(90%), lo que quiere decir que por encima se sitúa el 10% superior.

Ese valor corresponde a Z = 1,282 (aprox.). Ahora calculamos la variable normal X


equivalente a ese valor de la normal tipificada:

X 4
1 ,282   1 . 282 ( 1 . 22 )  X  4  X  1 . 57  4  X  5 . 57 .
1 . 22

Despejando X, su valor es 5,57. Por lo tanto, aquellas personas con ingresos superiores a
5,57 millones de Bs. constituyen el 10% de la población con renta más elevada.

c) Nivel de ingresos mínimo y máximo que engloba al 60% de la población con renta
media

Vemos en la tabla el valor de la variable normalizada Z cuya probabilidad acumulada es el


0,8 (80%). Como sabemos que hasta la media la probabilidad acumulada es del 50%, quiere
decir que entre la media y este valor de Z hay un 30% de probabilidad.

Por otra parte, al ser la distribución normal simétrica, entre -Z y la media hay otro 30% de
probabilidad. En definitiva, el segmento (-Z, Z) engloba al 60% de población con renta
media.

El valor de Z que acumula el 80% de la probabilidad es 0,842 (aprox.), por lo que el


segmento viene definido por (-0,842, + 0,842). Ahora calculamos los valores de la variable
X correspondientes a estos valores de Z.

Los valores de X son 2,97 y 5,03. Por lo tanto, las personas con ingresos superiores a 2,97
millones de Bs. e inferiores a 5,03 millones de Bs. constituyen el 60% de la población con
un nivel medio de renta.

Ejercicio 2º: La vida media de los habitantes de un país es de 68 años, con una varianza de
25. Se hace un estudio en una pequeña ciudad de 10.000 habitantes:

Dagoberto Salgado Horta Página 59


a) ¿Cuántas personas superarán posiblemente los 75 años?

b) ¿Cuántos vivirán menos de 60 años?

SOLUCIÓN:

a) Personas que vivirán (posiblemente) más de 75 años

Calculamos el valor de la normal tipificada equivalente a 75 años

75  68
Z   1 .4
5

Por lo tanto

P (X > 75) = (Z > 1,4) = 1 - P (Z < 1,4) = 1 - 0,9192 = 0,0808

Luego, el 8,08% de la población (808 habitantes) vivirán más de 75 años.

b) Personas que vivirán (posiblemente) menos de 60 años

Calculamos el valor de la normal tipificada equivalente a 60 años

60  68
Z    1 ,6 . Por lo tanto P (X < 60) = (Z < -1,6) = P (Z > 1,6) = 1 - P (Z < 1,6) =
5
0,0548.

Luego, el 5,48% de la población (548 habitantes) no llegarán probablemente a esta edad.

Ejercicio 3: El consumo medio anual de cerveza de los habitantes de una país es de 59


litros, con una varianza de 36. Se supone que se distribuye según una distribución normal.

a) Si usted presume de buen bebedor, ¿cuántos litros de cerveza tendría que beber al año
para pertenecer al 5% de la población que más bebe?.

b) Si usted bebe 45 litros de cerveza al año y su mujer le califica de borracho ¿qué podría
argumentar en su defensa?

a) 5% de la población que más bebe.

Vemos en la tabla el valor de la variable tipificada cuya probabilidad acumulada es el 0,95


(95%), por lo que por arriba estaría el 5% restante.

Ese valor corresponde a Z = 1,645 (aprox.). Ahora calculamos la variable normal X


equivalente a ese valor de la normal tipificada:

Dagoberto Salgado Horta Página 60


X  58
1 ,645   6 ( 1 ,645 )  X  58  X  9 . 87  58
6
X  67 ,87

Despejando X, su valor es 67,87. Por lo tanto, tendría usted que beber más de 67,87 litros al
año para pertenecer a ese "selecto" club de grandes bebedores de cerveza.

b) Usted bebe 45 litros de cerveza al año. ¿Es usted un borracho?

Vamos a ver en que nivel de la población se situaría usted en función de los litros de
cerveza consumidos.

Calculamos el valor de la normal tipificada correspondiente a 45 litros:

45  58
Z    2 ,2
6

Por lo tanto

P (X < 45) = (Z < -2,2) = P (Z> 2,2) = 1 - P (Z < 2,2) = 0,0139

Luego, tan sólo un 1,39% de la población bebe menos que usted. Parece un argumento de
suficiente peso para que dejen de catalogarle de "enamorado de la bebida"

Ejercicio 4: A un examen de oposición se han presentado 2.000 aspirantes. La nota media


ha sido un 5,5, con una varianza de 1,1.

a) Tan sólo hay 100 plazas. Usted ha obtenido un 7,7. ¿Sería oportuno ir organizando una
fiesta para celebrar su éxito?

b) Va a haber una 2ª oportunidad para el 20% de notas más altas que no se hayan
clasificados. ¿A partir de que nota se podrá participar en este "Nuevo Ingreso"?

a) Ha obtenido usted un 7,7

Vamos a ver con ese 7,7 en que nivel porcentual se ha situado usted, para ello vamos a
comenzar por calcular el valor de la normal tipificada equivalente.

7 .7  5 .5
Z   2 . 1 . A este valor de Z le corresponde una probabilidad acumulada (ver
1 ,049
tablas) de 0,98214 (98,214%), lo que quiere decir que por encima de usted tan sólo se
encuentra un 1,786%.

Si se han presentado 2.000 aspirante, ese 1,786% equivale a unos 36 aspirantes; como hay
100 plazas disponibles, tiene usted suficientes probabilidades como para ir organizando la
"mejor de las fiestas".

Dagoberto Salgado Horta Página 61


b) "Repesca" para el 20% de los candidatos

Vemos en la tabla el valor de la normal tipificada que acumula el 80% de la probabilidad,


ya que por arriba sólo quedaría el 20% restante.

Este valor de Z corresponde a 0,842 (aprox.). Ahora calculamos el valor de la normal X


equivalente:

X  5 .5
0 ,842   ( 0 . 842 )( 1 ,049 )  X  5 . 5  X  ( 0 ,883 )  5 . 5
1 ,049
X  6 ,38

Despejamos la X, su valor es 6,38. Por lo tanto, esta es la nota a partir de la cual se podrá
acudir al "Nuevo Ingreso".

LA DISTRIBUCIÓN "T DE STUDENT":


En la mayoría de casos reales o prácticos es frecuente que el tamaño de la muestra sea
limitado por el costo y por el tiempo por el cual se requiere de procedimientos un poco
diferentes a los utilizados para muestras grandes o mayores que treinta observaciones que
por lo general se asocian con la distribución normal. Los procedimientos de estimación y
prueba de hipótesis para muestras pequeñas como es el caso de este trabajo son tratados
preferencialmente por la distribución denominada "T de student", Descubierta por William
S Gosset y publicada en 1908 bajo el seudónimo de "student", otra característica que
permite utilizar una distribución "T" es que la desviación estándar de tipo poblacional se
desconoce y se debe utilizar una desviación estándar de tipo muestral; ésta también es una
razón para utilizar la "T de Student" .

Las muestras de tamaño N>30, se les llamadas grandes muestras, las distribuciones de
muestreo de muchos estadísticos son aproximadamente normales, siendo la aproximación
tanto mejor cuanto mayor sea N. Para muestras de tamaño menor que 30, llamadas
pequeñas muestras, esa aproximación no es adecuada y empeora al decrecer N, de modo
que son precisas ciertas modificaciones. El estudio de la distribución de muestreo de los
estadísticos para pequeñas muestras se llama teoría de pequeñas muestras. Sin embargo, un
nombre más apropiado sería teoría exacta del muestreo, pues sus resultados son válidos
tanto para pequeñas muestras como para grandes. En esta guía analizaremos la
Distribución de Student, la cual se designa con la letra t.

X  (X )
Definamos el estadístico t   N que es análogo al estadístico z dado
S S
N
X  X 
por Z   N .
 
N
Dagoberto Salgado Horta Página 62
INTERVALOS DE CONFIANZA

Al igual que se hizo con la distribución normal, se pueden definir los intervalos de
confianza 95%, 99%, u otros, usando la tabla de la distribución t. De esta forma podemos
estimar la media de la población dentro de los límites especificados.

S
X  t , Donde S es la desviación estándar estimada de X .
2 N N

GRADOS DE LIBERTAD

Para el cálculo de un estadístico tal como t y es necesario emplear tanto observaciones de
muestras como propiedades de ciertos parámetros de la población, si estos parámetros son
desconocidos, hay que estimarlos a partir de la muestra.

¿Qué son los grados de libertad? Se pueden definir como el número de valores que se
pueden escoger libremente.

Suponiendo que se esta trabajando con dos valores de muestra, a y b, y se sabe que tienen
una media de 18. Simbólicamente, se puede expresar:

ab
 18  a  b  36 . ¿Cómo se puede encontrar los valores que a y b puedan tomar
2
en esta situación? La respuesta es que a y b pueden ser cualquiera de dos valores cuya
suma sea 36, ya que 36 entre 2 es 18.

Suponiendo que a tiene un valor de 10; ahora b ya no esta libre de tomar cualquier valor,
sino que debe tomar solamente el valor 26 puesto que, si a = 10, entonces 10 + b = 36,
por lo tanto b = 26.

Este ejemplo demuestra que cuando existen 2 elementos de una muestra y solo conocemos
la media de la muestra de esos elementos, entonces somos libres de especificar solamente
uno de esos elementos, puesto que el otro estará determinado por el hecho de que los 2
elementos suman el doble de la mitad de la muestra. En términos estadísticos se dice que
tenemos un grado de libertad.

Observemos otro ejemplo. Existen 7 elementos en una muestra y se sabe que la media de
estos elementos es 16. Simbólicamente se tiene la siguiente situación:

abcd e f  g
 16
7

En este caso, los grados de libertad (GL) o el número de variables que se pueden
especificar libremente es 7 – 1 = 6. Se tiene la libertad de asignar valores a 6 variables, y
Dagoberto Salgado Horta Página 63
luego ya no tenemos libertad de especificar el valor de la séptima variable, puesto que esa
queda determinada automáticamente. En cada uno de los ejemplo tenemos un grado de
libertad que es igual a n – 1 grados de libertad, suponiendo que n es el tamaño de la
muestra. Utilizamos los grados de liberta cuando se elige una distribución t para estimar
una media de población, y se utilizará n – 1 GL, tomando n igual al tamaño de la
muestra.

Regiones de aceptación y rechazo en el contraste de hipótesis

Distribución t de Student para varios valores

Dagoberto Salgado Horta Página 64


Valores críticos para la distribución Student's - t alfa = área a la derecha de t(df, alfa)

T~t(df) P(T > t(df,alfa))


grados alfa
de
libertad 0.1000 0.0500 0.0250 0.0100 0.0050 0.0010 0.0005
1 3.078 6.314 12.706 31.821 63.656 318.289 636.578
2 1.886 2.920 4.303 6.965 9.925 22.328 31.600
3 1.638 2.353 3.182 4.541 5.841 10.214 12.924
4 1.533 2.132 2.776 3.747 4.604 7.173 8.610
5 1.476 2.015 2.571 3.365 4.032 5.894 6.869
6 1.440 1.943 2.447 3.143 3.707 5.208 5.959
7 1.415 1.895 2.365 2.998 3.499 4.785 5.408
8 1.397 1.860 2.306 2.896 3.355 4.501 5.041
9 1.383 1.833 2.262 2.821 3.250 4.297 4.781
10 1.372 1.812 2.228 2.764 3.169 4.144 4.587
11 1.363 1.796 2.201 2.718 3.106 4.025 4.437
12 1.356 1.782 2.179 2.681 3.055 3.930 4.318
13 1.350 1.771 2.160 2.650 3.012 3.852 4.221
14 1.345 1.761 2.145 2.624 2.977 3.787 4.140
15 1.341 1.753 2.131 2.602 2.947 3.733 4.073
16 1.337 1.746 2.120 2.583 2.921 3.686 4.015
17 1.333 1.740 2.110 2.567 2.898 3.646 3.965
18 1.330 1.734 2.101 2.552 2.878 3.610 3.922
19 1.328 1.729 2.093 2.539 2.861 3.579 3.883
20 1.325 1.725 2.086 2.528 2.845 3.552 3.850
21 1.323 1.721 2.080 2.518 2.831 3.527 3.819
22 1.321 1.717 2.074 2.508 2.819 3.505 3.792
23 1.319 1.714 2.069 2.500 2.807 3.485 3.768
24 1.318 1.711 2.064 2.492 2.797 3.467 3.745
25 1.316 1.708 2.060 2.485 2.787 3.450 3.725
26 1.315 1.706 2.056 2.479 2.779 3.435 3.707
27 1.314 1.703 2.052 2.473 2.771 3.421 3.689
28 1.313 1.701 2.048 2.467 2.763 3.408 3.674
29 1.311 1.699 2.045 2.462 2.756 3.396 3.660
30 1.310 1.697 2.042 2.457 2.750 3.385 3.646
31 1.309 1.696 2.040 2.453 2.744 3.375 3.633
32 1.309 1.694 2.037 2.449 2.738 3.365 3.622
33 1.308 1.692 2.035 2.445 2.733 3.356 3.611

Dagoberto Salgado Horta Página 65


34 1.307 1.691 2.032 2.441 2.728 3.348 3.601
35 1.306 1.690 2.030 2.438 2.724 3.340 3.591
36 1.306 1.688 2.028 2.434 2.719 3.333 3.582
37 1.305 1.687 2.026 2.431 2.715 3.326 3.574
38 1.304 1.686 2.024 2.429 2.712 3.319 3.566
39 1.304 1.685 2.023 2.426 2.708 3.313 3.558
40 1.303 1.684 2.021 2.423 2.704 3.307 3.551
60 1.296 1.671 2.000 2.390 2.660 3.232 3.460
120 1.289 1.658 1.980 2.358 2.617 3.160 3.373
inf 1.282 1.645 1.960 2.327 2.576 3.091 3.291

BIBLIOGRAFÍA

Benavente del Prado, Arturo Núñez (1992): Estadística Básica par Planificación.
Editorial Interamericana. 6ª. Edición. México.

Berenso, Mark.(1.992): Estadística Básica en Administración. Editorial. Harla.


Cuarta Edición. México.

Best,J. W. (1987): Como Investigar en Educación. Editorial Morata. Madrid – España.

BUDNICK FRANK S. (1992): Matemáticas Aplicadas para Administración, Economía y


Ciencias Sociales. Tercera Edición. Editorial McGaw-Hill Interamericana de
México, S.A de C.V. México.

CABALLERO, WILFREDO (1975): Introducción a la Estadística. Editorial ICA. Costa


Rica.

Cadoche, L. S.; G. Stegmayer, J. P. Burioni y M. De Bernardez (1998). Material del


Seminario de Encuestas en Educación, impartido vía internet por parte de la
Universidad
Nacional del Litoral, en Santa Fe, y de la Universidad Tecnológica Nacional,
Regional Santa Fe, en la República de Argentina.

Castañeda J., J.(1991): Métodos de Investigación 2. Editorial McGraw-Hill. México.

Carono, R., Minujin, A. y Vera, G.(1982): Manual de técnicas de evaluación y


ajuste de información Estadísticas. Fondo de cultura económica. México.

Chao, L.(1993): Estadística para la Ciencia Administrativa. Editorial McGraw –


Hill. 4ta Edición. Colombia

CHOU, YA-LUN (1972): Análisis Estadístico. Editorial Interamericana. México

DANIEL WAYNE, W. y Otros (1993): Estadística con Aplicación a las Ciencias


Sociales y a la Educación. Editorial McGraw-Hill Interamericana de México,
S.A. de C.V. México.

Dagoberto Salgado Horta Página 66


De Oteyza de O., E; Emma Lam O., Carlos Hernández G. y Ángel M. Carrillo H. (1998).
Temas Selectos de Matemáticas. Prentice Hall. México

Enciclopedia Microsoft Encarta 2002 (2002): Censo- Cuestionario- Encuesta. Estadística.


Editorial Microsoft corporation. USA.

ERKIN KREYSZIA (1978): Introducción a la Estadística Matemática. Editorial Limusa,


S.A. México.

FREUD J: E. y Otros (1990): Estadística para la Administración con Enfoque Moderno.


Editorial, S.A. México.

Gomes Rondón, Francisco (1985): Estadística Metodologica: Ediciones Fragor. Caracas.

González, Nijad H. (1986): Métodos estadísticos en Educación. Editorial Bourgeón,


Caracas.

Guilford, J. Y Fruchter, B. (1984): Estadística aplicada a la Psicología y la Educación.


Editorial McGraw-Hill Latinoamericana, S. A., Bogotá.

Hamdan González, Nijad (1986): Métodos Estadísticos en Educación. Editorial Bourgeón


C.A. Caracas – Colombia.

KEVIN, RICHARD I. (1988): Estadística para Administradores. Editorial


Hispanoamericana. México.

LARSON HAROLD, J. (1985): Introducción a la Teoría de Probabilidades e inferencia


Estadística. Editorial Limusa. México.

LEHMANN, CHARLES H. (1995): ÁLGEBRA. Editorial limusa, S.A. DE C.V. Grupo


Noriega Editores. México.

LEITHOLD, LOUIS (1992): El Cálculo con Geometría Analítica. Editorial HARLA


México.

LINCON L., CHAO (1996): Estadística para Ciencias Administrativas. Cuarta edición.
Editorial McGaw-Hill. Usa.

Lenin, R.y Kubin, D.(1992): Estadística para Administradores. Editorial


Hispanoamérica. VI edición. México.

LOPEZ CASUSO, R. (1984): Introducción al Cálculo de Probabilidades e Inferencia


Estadística. Editorial Instituto de Investigaciones Económicas, UCAB. Caracas-
Colombia.

Mason, Robert (1.992): Estadística para la Administración y Economía. Ediciones


Alfaomega S.A.N. México.

Dagoberto Salgado Horta Página 67


MENDENNAF, W. y OTROS (1981): Estadística para Administradores y Economía.
Editorial Iberoamericana. México.

Mode, Elmer B. (1988): Elementos de Probabilidades y Estadística Editorial Reverte


Mejicana. México.

Murria, R.(1993): Estadística. Edición Interamericana.2da Edición. México.

PARZEN, E. (1986): Teoría Moderna de Probabilidades y sus Aplicaciones Editorial


Limusa. México

PUGACHEV, V. S. (1973): Introducción a la Teoría de Probabilidades Editorial Mir.


Moscú.

Rivas González, Ernesto(1980): Estadística General. Ediciones de la Biblioteca UCV


Caracas – Colombia.

Soto Negrin, Armando (1982): Iniciación a la estadística. Editorial José Marti.


CaracasColombia.

Stephen P., Shao (1986): Estadística para Economistas y Administradores de Empresa.


Editorial Herreros Hermanos, Sucs., S.A., México.

Stevenson, William(1991): Estadística para la Administración y Económica. Editorial


Harla. México.
Universidad Nacional Experimental “Simón Rodríguez” (1983): Estadística 1. Ediciones
UNESR, Caracas.

WALPOLE, R. y Myers, R. (1987): Probabilidad y Estadística para Ingenieros.


Editorial Interamericana. México.

Webster, Allen L. (1996): Estadística Aplicada a la Empresa y la Economía. Editorial


Irwin. Segunda edición. Barcelona – España.

Weimer, Richard C. (1996) Estadística. Compañía Editorial Continental, SA de CV.


México.

Wonnacott, T. H. y Wonnacott, R: J. (1989): Fundamentos de Estadística para


Administración y Economía. Editorial LIMUSA. México.

DIRECCIONES DE INTERNET

http://www.inf.ufsc.br/cee/pasta1/art4.html
http://www.inf.ufsc.br/cee/pasta4/art1p4.html
http://193.145.158.7/asepuma01/doco16.pdf
http://www.caib.es/ibae/esdeveniment/jornades_10_01/doc/Estepa-Jornadas-Mallorca.doc
http://www.inf.ufsc.br/cee/pasta1/art4.html

Dagoberto Salgado Horta Página 68


http://www.unesr.edu.ve/pregrado/Estadistica/ES1ntro.htm
http://buscar.hispavista.com/?cadena=Aprende+estadistica
http://www.psicol.unam.mx/Cim2000/Estadistica/journal_of_statistics_education.htm
http://www.cimat.mx/talleres/pasados/2002/
http://www.ine.es/revistas/estaespa/148_2.pdf
http://www.fuentesestadisticas.com/numero1/paginas/editorial.html
http://www.itcr.ac.cr/carreras/matematica/ArchivosyProgramas/IIFESTIVAL/Index2festiva
l.htm
http://www.uaq.mx/matematicas/estadisticas/xstad02.html
http://fc.udg.es/~caegb/material_esp.html
http://www.fceqyn.unam.edu.ar/bio/farpro.html
http://lib.stat.cmu.edu/
http://www.statserv.com/softwares.html
http://www.maths.uq.edu.au/~gks/webguide/
http://www.statistics.com/
http://www.helsinki.fi/~jpuranen
http://e-stadistica.bio.ucm.es/web_spss/entorno_de_trabajo_del_SPSS.html
http://fc.udg.es/~caegb/material_esp.html
http://www.computo99.unam.mx/educacio/educa47.htm
http://fractus.mat.uson.mx/Papers/revista/Urre_Ar/Urre_Ar.html
http://www.hrc.es/bioest/Introducion_ch.html
http://www.hrc.es/bioest/M_docente.html#tema2
http://www.edustatspr.com/toc.htm
http://members.tripod.com/~beatrizt/verdad/5.html
http://www.doxmatic.com/EE/libros.mv?h
http://www.monografias.com/trabajos5/estadm/estadm.shtml
http://www.pntic.mec.es/Descartes/Bach_CNST_1/Variables_estadisticas_bidimensionales
_regresion_correlacion/regresio.htm
http://www.monografias.com/trabajos10/esta/esta.shtml
http://www.rincondelvago.com/html/fotocopiadora/search.php?id=&tipo=&categoria=&titu
lo=estadistica&totalResults=44&thisPage=2
http://platea.pntic.mec.es/~jescuder/estadist.htm
http://xue.unalmed.edu.co/~pguarin/estadistica/83regresion.htm
http://www.universidadabierta.edu.mx/SerEst/MAP/METODOS%20CUANTITATIVOS/V
ega%20Trujillo%20Maria%20del%20Pilar.htm
http://www.geocities.com/arguello_vyr/contenido.html
http://www.cortland.edu/flteach/stats/stat-sp.html
http://www.fuentesestadisticas.com/Numero50/paginas/9.htm
http://cipres.cec.uchile.cl/~ma34b/
http://www.ideamas.cl/cursoProb/javaEstat/intro_prob_models/intro_prob_models.html
http://www.ideamas.cl/cursoProb/javaEstat/index.html
http://www.angelfire.com/journal2/estadistica/Links.htm
http://www.ibad-laspalmas.com/inferencia/index.html Cursa de est. Inferencial)
http://www.estadisticautil.es.fm/
http://www.edustatspr.com/documentos/probabilidad/3.1.vadiscr.pdf
http://www.cnice.mecd.es/Descartes/Estadistica/variables_continuas/normal0.htm
http://www.unlu.edu.ar/~mapco/apuntes/610/mapco610.htm
http://www.tutoria.com.ar/apuntes.htm
Dagoberto Salgado Horta Página 69
http://w3.mor.itesm.mx/~cmendoza/ma835/ma83500.html
http://rrpac.upr.clu.edu:9090/~amenend/excel8intro.htm
http://www.fisterra.com/material/investiga/distr_normal/distr_normal.htm
http://www.fisterra.com/material/index.htm
http://www.multired.com/ciencia/gosilagu/analisis%20estadistico.htm
http://www.uned.es/111044/examenes/EJERESUS01.doc

Software on-line
http://it.stlawu.edu/~rlock/maa99/
http://it.stlawu.edu/~rlock/tise98/java.html
http://www.stat.vt.edu/~sundar/java/applets/
http://www.kuleuven.ac.be/ucs/java/index.htm
Demostraciones Java para el aprendizaje de la estadística
Electronic Textbook (UCLA), programa on-line de representación y cálculo de funciones de
densidad y de distribución (normal, F, ji-cuadrado, números aleatorios...). Equivalente a un
libro de tablas

Dagoberto Salgado Horta Página 70