You are on page 1of 30

tema

66 MATEMÁTICAS

Distribuciones de probabilidad de
variable continua.
Características y tratamiento.
La distribución normal. Aplicaciones.
24-13858-13

Temario 1993
tema 66

matemáticas

1. Distribuciones de probabilidad de variable continua

2. Características y tratamiento

3. La distribución normal: características y tratamiento


3.1. Definición

3.2. Significado de los parámetros


3.2.1. Esperanza de la distribución
3.2.2. Varianza y desviación típica
3.2.3. Función característica

3.3. Representación gráfica de N(μ, σ)

3.4. Distribución normal tipificada. Tipificación de una variable

3.5. Uso de las tablas de áreas

3.6. Aproximación de una distribución binomial por una normal

4. Aplicaciones

3
tema 66

matemáticas

INTRODUCCIÓN

Frecuentemente, en los experimentos aleatorios, el interés está en una función del resultado
del experimento y no en el resultado propiamente dicho. El concepto de variable aleatoria
permite pasar de los resultado experimentales a una función numérica de éstos. En general,
se puede establecer para cada experimento una regla que asocia con un número cada resul-
tado del experimento. Esta regla de asociación se llama variable aleatoria, variable porque
son posibles diferentes valores numéricos y aleatoria porque el valor observado depende de
cuál de los resultados experimentales posibles resulte.
Por lo dicho, para un determinado espacio muestral de algún experimento, una variable
aleatoria es cualquier regla que relaciona un número con cada resultado en el espacio mues-
tral. En el lenguaje matemático, una variable aleatoria es una función cuyo dominio es el
espacio muestral y cuyo recorrido es el conjunto de los números reales.
Por lo común, las variables aleatorias se denotan con letras griegas como ξ ó con letras
mayúsculas, como X y Y (en contraste con el uso que se suele hacer de utilizar una letra
minúscula, como x, para denotar a una variable). Las letras minúsculas se utilizan para
representar un determinado valor de la variable aleatoria correspondiente. La notación
ξ (a)=x ó X(a)=x significa que x es el valor relacionado con el resultado a mediante dicha
variable aleatoria.
Hay dos tipos de variables aleatorias, variables aleatorias discretas y variables aleatorias
continuas.
Una variable aleatoria discreta es una variable cuyos valores posibles constituyen un con-
junto finito, o bien se pueden listar en una secuencia infinita numerable. Una variable alea-
toria es continua si su subconjunto de valores posibles consiste en un intervalo completo
en la recta numérica.
Estas palabras nos sirven para introducirnos en el tema, donde se va a estudiar el concepto
de variable aleatoria continua y las funciones asociadas a ella. Además se analizan las prin-
cipales características de las variables aleatorias continuas y los modelos más usados para
las mismas: la distribución normal.
La ley de distribución normal es de suma importancia, fundamentalmente, por ser la dis-
tribución límite hacia la cual tienden (bajo condiciones que generalmente se plantean en la
vida cotidiana) gran número de distribuciones de probabilidad. La distribución normal fue
reconocida por primera vez por el francés Abraham de Moivre (1667-1754).  Posterior-
mente, Carl Friedrich Gauss (1777-1855) elaboró desarrollos más profundos y formuló
la ecuación de la curva; de ahí que también se la conozca, más comúnmente, como la «ley
de Gauss» o «campana de Gauss».  La distribución de una variable normal está completa-
mente determinada por dos parámetros, su media y su desviación estándar

5
tema 66

matemáticas

1 Distribuciones de probabilidad
de variable continua

XX Variable aleatoria

Sea (E, A, P) un espacio probabilístico. Llamaremos variable aleatoria definida


sobre (E, A, P) a toda función ξ de E en R, tal que para cada intervalo I = (−∞, c]
de R, ξ−1 (I) ∈ A.

XX Función de distribución de una variable aleatoria

Sea ξ una variable aleatoria definida sobre (E, A, P). Definimos función de dis-
tribución de la variable aleatoria ξ a la función F(x) de R en R, que determina la
probabilidad de que ξ tome un valor menor o igual que x, es decir:
F(x) = P(ξ ≤ x)

XX Variable aleatoria continua

Podemos decir que una variable aleatoria es continua cuando puede tomar todos
los valores de un cierto intervalo finito o infinito.
Para precisar la definición, hemos de recordar lo que entendemos por función
absolutamente continua.
Una función F: R → R es absolutamente continua si para todo e > 0 ∃δ > 0 para
cualquier colección de intervalos disjuntos (a1 b1], (a2 b2], ..., (an bn], que verifi-
can:
n n

∑(b − a ) < δ ⇒ ∑F(b ) − F(a ) < e


i =1
i i
i =1
i i

Es evidente que F absolutamente continua ⇒ F uniformemente continua ⇒ F


continua.
Definición:
Una variable aleatoria ξ definida sobre el espacio probabilístico (E, A, P) es con-
tinua si su función de distribución F(x) es absolutamente continua.
Propiedades de la función de distribución
1. Los valores de la función de distribución pertenecen al intervalo [0, 1]. Es de-
cir, 0 ≤ F(x) ≤ 1.
Esta propiedad es evidente, teniendo en cuenta que se ha definido la función de
distribución como una probabilidad.

6
tema 66

matemáticas

2. F(x) es una función monótona no decreciente, ya que si x1 < x2, F(x1) ≤ F(x2).
En efecto:
F(x2) = P(ξ ≤ x2) = P(ξ ≤ x1) + P(x1 < ξ ≤ x2) ≥ P(ξ ≤ x1) = F(x1)
es decir:
F(x1) ≤ F(x2)
3. La probabilidad de que una magnitud aleatoria tome un valor del intervalo
(x1, x2] es igual al incremento de la función de distribución en este intervalo.
P(x1 < ξ ≤ x2) = F(x2) – F(x1)
Teniendo en cuenta que
P(ξ ≤ x2) = P(ξ ≤ x1) + P(x1 < ξ ≤ x2)
F(x2) = F(x1) + P(x1 < ξ ≤ x2) ⇒ P(x1 < ξ ≤ x2) = F(x2) − F(x1)
4. La probabilidad de que una variable aleatoria continua ξ tome un valor deter-
minado, es igual a cero.
Teniendo en cuenta el resultado anterior
P(x1 < ξ ≤ x1 + ∆x) = F(x1 + ∆x) − F(x1)
Si hacemos ∆x → 0, como F(x) es continua,
P ( ξ = x1 ) = lim [ F ( x1 + ∆x ) − F ( x1 ) ] = F ( x1 ) − F ( x1 ) = 0
∆x→0

Apoyándonos en este resultado es inmediato demostrar que:


P(x1 ≤ ξ < x2) = P(x1 < ξ < x2) = P(x1 < ξ ≤ x2)
5. Si los posibles valores de una variable aleatoria están en el intervalo (a, b) se
verifica:
F(x) = 0 ∀x ≤ a
F(x) = 1 ∀x ≥ b
Si x1 ≤ a. El suceso para el que ξ < x1 es imposible, y por tanto su probabilidad
es nula.
Si x2 ≥ b. El suceso ξ < x2 es verdadero, luego su probabilidad es la unidad.
De la propiedad anterior se deduce que si los valores posibles de una magnitud
aleatoria continua son todos los x de R, se verifica que:
F(+∞) = 1     F(−∞) = 0
ya que:
F ( +∞) = lim F ( x ) = lim P ( ξ ≤ x ) = 1
x→+∞ x→+∞

F ( −∞) = lim F ( x ) = lim P ( ξ ≤ x ) = 0


x→−∞ x→−∞

7
tema 66

matemáticas

XX Representación gráfica de la función de distribución


Todo lo dicho anteriormente nos indica que la gráfica está comprendida entre las
rectas y = 0 e y = 1.
Si suponemos que todos los valores de la variable pertenecen al intervalo (a, b),
(en él la función es no decreciente), la gráfica será:

XX Función de densidad
Sea ξ una variable aleatoria continua, y F(x) su función de distribución.
Llamaremos función de densidad de la variable ξ a la variable derivada primera
de su función de distribución. Si f(x) es la función de densidad,
F’(x) = f(x)
Propiedades de la función de densidad
1. La probabilidad de que una variable aleatoria continua tome un valor del inter-
valo (a, b) es igual a la integral de la función de densidad entre a y b.


b
P(a < ξ < b) = a
f(x) dx

Teniendo en cuenta que: P(a < ξ < b) = F(b) − F(a)

∫ F’(x) dx = ∫
b b
y que F(b) − F(a) = a a
f(x) dx


b
queda P(a < ξ < b) = P(a < ξ ≤ b) = a
f(x) dx

Este resultado se puede interpretar geométricamente diciendo que la probabili-


dad de que una variable continua tome un valor del intervalo (a, b) es igual al
área del trapecio mixtilíneo limitado por x = a, x = b, la curva de distribución
o representación de la función de densidad f(x) y el eje OX.

8
tema 66

matemáticas

La gráfica de la función de densidad se llama curva de distribución.


2. La función de distribución se puede hallar mediante la función de densidad por
la expresión:

x
F(x) = −∞
f(x) dx

En efecto, F(x) = P(ξ ≤ x) = P(−∞ < ξ ≤ x).


Si en la fórmula obtenida en la propiedad anterior hacemos a = − ∞, b = x, se
obtiene:

x
P(−∞ < ξ ≤ x) = −∞
f(x) dx
o sea:

x
F(x) = −∞
f(x) d x
3. La función de densidad es no negativa. Es decir, f(x) ≥ 0. Como la función de
distribución F(x) es no decreciente, su derivada F’(x) = f(x) tiene que ser no
negativa.
+∞
4. ∫−∞
f(x) d x = 1
En efecto:
+∞ +∞
∫ f ( x ) dx = ∫ f ( x ) dx + ∫ f ( x ) dx = F ( a) + lim ∫ f ( x ) dx =
a x

−∞ −∞ a x→+∞ a

= F ( a) + F ( +∞) − F ( a) = 1
+∞

La integral −∞ f(x) dx expresa la probabilidad del suceso en que la variable
aleatoria toma un valor del intervalo (−∞, +∞). Tal suceso es cierto, y por tanto
su probabilidad es uno.
Geométricamente, significa que el área comprendida entre la curva de distribu-
ción y el eje x es igual a la unidad.
Damos a continuación unos ejemplos.

Ejemplo 1:
Sea ξ = X una magnitud aleatoria cuya función de distribución es

 0, x ≤ −1
1
 1
F ( x ) =  x + , −1 < x ≤ 3
4 4
1, x>3

9
tema 66

matemáticas

Calcular: a) f(x);  b) P(0 < X ≤ 2);  c) P(X = 2)

0 si x ≤ −1
1
a) f ( x ) = F ′( x ) = 
 si −1 < x ≤ 3
 4 2 1 1 2 1
b) P(0 < X ≤ 2) = F(2) − F(0) =
0 si x > 43 + 4 − 4 = 4 = 2

c) P(X = 2) = 0, propiedad 4, de F(x).


Ejemplo 2:
Sea X una variable aleatoria cuya función de densidad es:

0 x≤a
 1

f ( x) =  a< x≤b
b − a
0 x>b

Calcular la función de distribución.



x
F(x) = 0 para x ≤ a. Para a < x ≤ b   F(x) = −∞
f(x) dx

1 1 x−a
F ( x ) = F ( a) + ∫
x
dx = 0 + [ x ]ax =
a b−a b−a b−a
dx b−a
Para x > b F ( x ) = ∫ f ( x ) dx = ∫ 0 dx + ∫ + ∫ 0 dx =
x a b x
=1
−∞ −∞ a b−a b b−a

 0, x≤a
x−a

F ( x) =  a< x≤b
b − a
1, x>b

10
tema 66

matemáticas

2 Características y tratamiento

XX Esperanza matemática

Llamamos esperanza matemática de la variable aleatoria continua ξ, cuya fun-


ción de densidad es f(x), a la expresión:
+∞
E(ξ) = α1 = ∫−∞
x f(x) dx
supuesta la integral absolutamente convergente, es decir:
+∞
∫−∞
x f(x) dx < +∞

XX Varianza

Definimos varianza de la variable aleatoria continua ξ a la esperanza matemática


de (ξ − α1)2.
+∞
σ2 = µ2 = E[(ξ − α1)2] = ∫ −∞
(x − α1)2 f(x) dx

XX Desviación típica

Llamamos desviación típica a la raíz cuadrada de la varianza.

D[ ξ] = σ = µ2

XX Momentos

Se llama momento respecto al origen de orden r a:


+∞
αr = ∫ −∞
xr f(x) dx (Supuesta absolutamente convergente)

Del mismo modo, se define el momento central de orden r por:


+∞
µr = E[(x – α1)r] = ∫−∞
(x − α1)r f(x) dx (absolutamente convergente)

El momento respecto al origen de orden 1 es la media o esperanza matemática, y


el momento central de orden 2 es la varianza.
Relación entre momentos centrales y momentos respecto al origen
Igual que para variable aleatoria discreta, desarrollando el momento central de
orden n, se obtiene:

 n  n
µn = αn −   α1αn−1 +   α12 αn−2 − ... ± α1n
 1  2
Si desarrollamos el momento respecto al origen de orden n, obtenemos:

 n
αn = µn +   µn−1α1 + ... + α1n
 1

11
tema 66

matemáticas

Ambas expresiones nos permiten calcular los momentos centrales en función de


los momentos respecto al origen y viceversa.
En particular para n = 2.
µ2 = σ2 = α2 − α12

XX Mediana

Llamaremos mediana v de una variable aleatoria continua ξ, definida por la fun-


ción de distribución F(x), a la solución o soluciones de la ecuación:
1
F ( x) =
2
Cuartil de orden p es el valor xp de la variable solución de la ecuación
1
F(x) = p (0 < p < 1). La mediana es el cuartil de orden p =
2
Asociada a la mediana, se define la desviación media por el valor:
+∞
E(ξ − v) = ∫ −∞
x − v f(x) dx

XX Moda

La moda es el valor de la variable que corresponde al máximo de la función de


densidad f(x).
f(M0) = máx [f(x)]
Si f(x) es derivable dos veces, la moda M0 verifica:
f’(M0) = 0    f”(M0) < 0
Función característica y función generatriz de momentos
Llamaremos función característica de la variable aleatoria continua ξ, y la desig-
naremos por α(t), a la esperanza matemática de eitξ.
+∞
α(t) = E[eitξ] = ∫ −∞
eitx f(x) dx
La integral es absolutamente convergente, pues eitξ = 1, y
+∞ +∞
∫−∞
eitx ⋅ f ( x ) dx ≤ ∫
−∞
f ( x ) dx = 1

Definimos función generatriz de momentos de la variable continua ξ por


+∞
ϕ(t) = = E[etξ] = ∫
−∞
etx f(x) dx, cuando está definida en un entorno t = 0.
Se demuestra que ϕ(t) es infinitamente derivable en t = 0, y que ϕ(n(0) = αn, lo cual
nos permite calcular los momentos respecto al origen.

12
tema 66

matemáticas

3 La distribución normal:
características y tratamiento

3.1. Definición

La distribución normal fue considerada por primera vez por De Moivre en 1733
quien fue el primero en obtener dicha curva en respuesta a problemas que le plan-
tearon jugadores profesionales como el caballero De Méré. Pronto fue relegada
al olvido hasta que, a principios del siglo xix, Gauss y Laplace la pusieron
de actualidad y, por eso, es también conocida con el nombre de distribución de
Gauss-Laplace.
Quetelet es quien proporciona a la distribución el nombre por el que es más co-
nocida, distribución normal, después de haber recogido miles de datos sobre las
medidas corporales de soldados escoceses; observó una distribución de sus datos
muy parecida a la distribución de los errores de Gauss y Laplace, interpretando las
desviaciones de sus medidas respecto a la media, como errores de medida come-
tidos por la Naturaleza en su intento de crear un hombre «normal», en el sentido
de hombre medio.
El nombre de «normal» tiene solo carácter histórico, pues, hoy en día, esta distri-
bución es tan corriente como otra cualquiera de las que se utilizan en Estadística.
De Moivre la encontró como límite de la distribución binomial B(n, p) cuando
n → ∞ y Gauss y Laplace al estudiar la distribución de errores accidentales en
Astronomía y Geodesia.
La importancia de esta distribución se pone de manifiesto por su enorme cantidad
de aplicaciones y por los teoremas centrales del límite.
Pues bien:
Definición:
Diremos que una variable aleatoria continua ξ presenta una distribución normal de
parámetros µ, σ, y la designaremos por N(µ, σ), si su función de densidad es:

− ( x − µ )2
1
f ( x) = e 2σ2
∀x ∈ R , σ > 0
σ 2π
+∞
Desde luego, se demuestra que ∫−∞
f(x) dx = 1
Para calcular la integral basta hacer el cambio de variable (x − µ) / σ = t y hacer
uso del valor de la integral de las probabilidades de Gauss.
Veamos cuál es el significado de los parámetros µ y σ.

13
tema 66

matemáticas

3.2. Significado de los parámetros

3.2.1. Esperanza de la distribución

Hallemos, en primer lugar, la esperanza matemática de esta distribución.


− ( x − µ )2
+∞ 1 +∞
α1 = ∫ x f ( x ) dx = ∫ xe 2σ2
dx
−∞
σ 2 π −∞
x− µ
haciendo z = ⇒  x = σ z + µ ⇒ dx = σ dz. Como los límites de integración
σ
son los mismos:
−z −z
µ +∞ −2z
2 2 2
σ +∞ 1
α1 = ∫
σ 2 π −∞
( σ z + µ)e 2
dz =

σze 2 dz + ∫ e dz
2 π −∞
La primera integral es nula por ser una función impar y los límites de integración
simétricos respecto al origen. La segunda integral es la llamada de las probabili-
dades de Gauss, y viene dada por:
− z2
+∞
∫−∞
e 2
dz = 2π
por tanto, α1 = µ.
El parámetro µ es igual a la esperanza matemática o media de la distribución.

3.2.2. Varianza y desviación típica

Hallemos, ahora, la varianza µ2 = σ2 de la distribución:


− ( x − µ )2
1 +∞
µ2 =
σ 2π
∫−∞
( x − µ) 2e 2σ2
dx

x− µ
haciendo de nuevo z = ⇒ x − µ = σz ⇒ dx = σ dz, y teniendo en cuenta que
σ
los límites de integración son iguales, queda:
−z 2
σ 2 +∞
µ2 =

∫−∞
z ⋅ z e 2
dz

− z2
Integrando por partes u = z,  dµ = z e dz, se obtiene µ2 = σ2. Luego el paráme-
2

tro σ es igual a la desviación típica de la distribución.


Al mismo resultado se llega mediante la función generatriz de momentos:
− ( x − µ )2
1 +∞
ϕ(t ) =
σ 2π
∫−∞
e tx e 2σ2
dx

y con la función característica, como vemos en el siguiente apartado.

14
tema 66

matemáticas

3.2.3. Función característica

La función característica de la variable aleatoria: χ → N(µ, σ) es:


ϕ(t) = E[eitx]
Consideramos una variable aleatoria z que sigue una distribución N(0,1). Su fun-
ción de densidad tiene el valor:

1 −2z
2

f ( z) = e ,   −∞ < z < ∞



Calculamos su función característica:

1 −2z
2
+∞ +∞
ϕZ (t ) = E[e ] = continua = ∫ e f ( z ) dz = ∫ e
itz itz itz
e dz =
−∞ −∞

+∞ 1 −21( z 2 −2itz )
=∫ e dz =
−∞ 2π
+∞ 1 −21( z 2 −2itz +i2t 2 −i2t 2 ) +∞ 1 − ( z −it )2/2
=∫ dz = e i t /2 ∫ dz =
2 2
e e
−∞ 2π −∞ 2π
= e − t /2
2

pues la integral vale 1 por ser la integral de una función de densidad, si hiciéramos
z − it = u.
Mediante el proceso de tipificación, podemos poner χ = az + b, conviniéndonos
tomar a = σ, b = µ ⇒ χ = σz + µ
y aplicando la propiedad de linealidad de la función características que dice que
si y = ax + b, entonces
ϕy(t) = eitbϕx(at)
tendremos:
( σt ) 2 σ 2t 2
− it µ−
ϕ χ (t ) = e ϕ z ( at ) = e ⋅ e
itb it µ 2
=e 2

Por tanto:
σ 2t 2
it µ−
ϕ χ (t ) = e 2

que es la función característica de la N(µ, σ).

XX Momentos

„„ Media

it µ−
t 2σ2
 2t σ 2 
ϕ′ ( t ) ; ϕ′ ( t ) = e 2
⋅iµ −
α1 =  2  ⇒ ϕ′ ( 0 ) = i µ
i
t =0 t =0

Con lo que la media es α1 = µ, es decir, el primer parámetro de la distribución.

15
tema 66

matemáticas

„„ Momento de segundo orden respecto al origen


2 2 2 2
ϕ′′(t ) t σ t σ

( )
it µ− 2 it µ−
α2 = 2 ; ϕ′′(t ) = e 2
i µ − t σ 2 − σ 2e 2

i t =0
⇒ ϕ′′(0) = (i µ) 2 − σ 2 = − µ2 − σ 2 ⇒ α2 = µ2 + σ 2

„„ Varianza
V(χ) = α2 − α12 = µ2 + σ2 − µ2 = σ2
es decir, el cuadrado del segundo parámetro.
Teoremas
1. Teorema de adición
Sean χ1, χ2, ..., χn, n variables aleatorias independientes tales que todas siguen
distribuciones normales.
La variable aleatoria η = χ1 + χ2 + ... + χn puede demostrarse (construyen-
do la función característica de la variable aleatoria η) que sigue una distri-
bución también normal de media la suma de medias y de desviación típica
σ12 + σ 22 + ...

Si χ1 → N(µ1, σ1)
χ2 → N(µ2, σ2)
. (
⇒ η = χ1 + χ2 + ... + χn → N µ1 + ... + µn , σ12 + ... + σ 2n )
.
.
χn → N(µn, σn)
También se verifica el teorema recíproco.
2. Teorema de la transformación lineal
Si χ sigue una N(µ, σ), definimos otra v.a. en la forma Y = aχ + b tal que
Y → N(aµ + b, aσ)
(Es módulo porque la desviación típica ha de ser positiva.)

3.3. Representación gráfica de N(μ, σ)

La gráfica de la función de densidad de la distribución normal,


− ( x − µ )2
1
f ( x) = e 2σ2
σ 2π

se llama curva normal o de Gauss.


Para representarla vamos ha realizar un estudio de esta función:

16
tema 66

matemáticas

XX Dominio
− ( x − µ )2
1
f ( x) = e 2σ2
σ 2π

con σ>0, esta definida para todo x ∈  , es continua y f ( x) > 0 ∀x ∈ 

XX Simetría

f (x) es simétrica respecto a la recta, x = μ por lo que al variar este parámetro, la


gráfica se desplaza en sentido horizontal. En concreto, si μ = 0, la gráfica es simé-
trica respecto al eje y.

XX Asíntotas

El eje de abscisas es asíntota horizontal de la curva, pues:


− ( x − μ )2 − ( x − μ )2
1 1
lim e 2σ 2
= lim e 2σ 2
=0
x →−∞ σ 2π x →+∞ σ 2π

XX Crecimiento y decrecimiento. Máximos y mínimos

−( x − μ )
f '( x) = f ( x)
σ 2π

Si f ´( x) = 0 → x = μ . Como f ( x) > 0 ∀x ∈  tenemos que:


„„ Si x > μ → f´(x)<0 y por tanto f es decreciente.
„„ Si x < μ → f´(x)>0 y por tanto f es creciente.
La función presenta un máximo en:
 1 
 μ, 
 σ 2π 

XX Concavidad y convexidad. Puntos de inflexión

1   (x − μ)  
2

f ´´( x) = 2 1 −    ⋅ f ( x)
σ   σ  
 

Estudiando la segunda derivada se puede ver que:


„„ f es convexa si x < μ – σ y si x > μ + σ
„„ f es concava si x ∈ ( μ − σ , μ + σ )

17
tema 66

matemáticas

Luego presenta puntos de inflexión en:


 1   1 
 µ − σ ,  y  µ + σ , 
σ 2 πe σ 2 πe 

La representación gráfica es:

Como hemos indicado a lo largo del estudio de la función que hemos realizado,
los parámetros μ y σ influyen sobre la representación de la curva normal.

XX Influencia de los parámetros sobre la curva normal

Las gráficas de las funciones f(x) y f(x − µ) tienen igual forma, pero están despla-
zadas a derecha o izquierda, según los valores de µ. La variación de µ, esperanza
matemática, no altera la forma de la curva normal, pero da lugar a un desplaza-
miento hacia la derecha de tantas unidades como aumente µ, o un desplazamiento
hacia la izquierda de tantas unidades como disminuya µ.

18
tema 66

matemáticas

1
Si varía la desviación típica σ, como el máximo es , al aumentar σ la curva
se acorta y al disminuir σ, se alarga. σ 2 π

3.4. Distribución normal tipificada. Tipificación de una variable

Como caso particular de la distribución normal, cuando µ = 0 y σ = 1, la distribu-


ción se llama tipificada o normada, y la función de densidad es:

1 −2x
2

f ( x) = e

XX Tipificación de una variable aleatoria N (µ, σ)

Si la variable aleatoria ξ es N(µ, σ), y hacemos el cambio de variable:

ξ −μ
η=
σ
entonces η es N(0, 1). Diremos que hemos tipificado la variable aleatoria.
En efecto, aplicando las propiedades de la esperanza matemática y de la varianza,

 ξ − µ 1 µ µ µ
E [ η] = E   = E [ ξ] − = − = 0
 σ  σ σ σ σ

µ 2 σ2
σ 2η = ⋅σ = = 1, luego la variable η es N(0, 1).
σ2 ξ σ2
Esto nos permite estudiar cualquier distribución normal conocida la distribución
N(0, 1) que está tabulada.

19
tema 66

matemáticas

Propiedades
1. Sea ξ una variable aleatoria normal N(µ, σ). La probabilidad de que ξ tome un
valor del intervalo (α, β) se calcula por

 β − µ  α − µ
P( α < ξ < β) = φ   − φ
 σ   σ 

1 x −2z
2

siendo φ(x) la función de Laplace φ( x ) = ∫ e dz, que viene tabulada.


2π 0
Demostración:
En efecto:
− ( x − µ )2
1 β
P ( α < ξ < β) =
σ 2π
∫α
e 2σ2
dx

haciendo
x− µ
z= ⇒ x = σz + µ ⇒ dx = σdz
σ

Los límites de integración serán:


α− µ
Si x = α  ,  z =
σ
β− µ
y si x = β , z = ; por tanto,
σ
−z β− µ 2
1
P ( α < ξ < β) = ∫α− µ e 2 σ dz =
σ 2π σ
σ

β− µ
1 0 −2z −z
2 2
1
= ∫
2π σ
α − µ e dz + ∫
2π 0
σ
e 2
dz =

β− µ −z 2
−z α− µ 2
1 1
= ∫
2π 0
σ
e 2
dz − ∫
2π 0
σ
e 2
dz

1 x −2z
2

Si φ( x ) = ∫ e dz es la función de Laplace, queda


2π 0

 β − µ  α − µ
P( α < ξ < β) = φ   − φ
 σ   σ 

2. En algunos casos interesa determinar la probabilidad de que una variable alea-


toria ξ N(µ, σ) se desvíe, en valor absoluto, de su media µ un cierto valor que
pueda expresarse como un múltiplo de la desviación típica σ.
Interesa, pues, calcular P = P(ξ − µ > λ σ).

20
tema 66

matemáticas

ξ− µ
Haciendo de nuevo η =
σ
 ξ− µ 
P ( ξ − µ > λσ ) = P  > λ
 σ 

basta hacer este cálculo para variable η, que es N(0, 1).

2 ∞ −2z
2
 ξ− µ   ξ− µ 
P = P
 σ
< − λ + P 
  σ
> λ =
 ∫ e dz
2π λ

El valor de P viene tabulado para distintos valores de λ, y viceversa.


En la tabla adjunta están los valores de λ que corresponden a ciertos valores de
P y recíprocamente, que son particularmente importantes en las aplicaciones.

El 50% de las observaciones están comprendidas entre µ ± 0,68 σ


El 68,2% de las observaciones están comprendidas entre µ ± σ
El 95% de las observaciones están comprendidas entre µ ± 1,96 σ
El 95,4% de las observaciones están comprendidas entre µ ± 2 σ
El 99% de las observaciones están comprendidas entre µ ± 2,58 σ
El 99,7% de las observaciones están comprendidas entre µ ± 3 σ
El 99,9% de las observaciones están comprendidas entre µ ± 3,29 σ

El valor P = µ ± 0,68 σ µ ± 2/3 σ suele llamarse desviación o error probable y


representa un intervalo simétrico respecto de µ, tal que la probabilidad de que la
variable esté dentro o fuera de él es la misma.
En textos antiguos se utilizaba frecuentemente P, pero, modernamente es σ el
parámetro de dispersión más usado.
Es claro que se pueden aplicar a la distribución normal todas las propiedades cita-
das para variable aleatoria continua.

3.5. Uso de las tablas de áreas

La normal N(0,1), debido a su simetría, viene tabulada para valores no negativos,


que representan el área a la izquierda, es decir, la p(Z ≤ k)

A partir de 4 las probabilidades correspondientes son prácticamente 1 por lo que


las tablas generalmente solo incluyen un rango de probabilidades entre 0 y 4.
(Ver tabla anexo).

21
tema 66

matemáticas

Veamos, como ejemplo, los pasos a seguir para calcular p(Z ≤ 1,35):
1. En la primera columna buscamos la parte entera y las décimas, en nuestro
caso 1,3.
2. En la primera fila buscamos las centésimas, en este caso 5.
3. La probabilidad buscada se encuentra en la fila y la columna obtenidas, en este
caso 0,91149.
Por tanto p(Z ≤ 1,35) = 0,91149.
Vemos en la tabla que a partir de 4,18 las probabilidades son mayores que 0,99999
con lo que para valores superiores a esta cantidad podemos escribir ≈ 1 aunque no
aparezca en la tabla.
Por otra parte, fijémonos en que en este tipo de distribuciones no tiene sentido
plantearse probabilidades del tipo p(Z = k), ya que siempre valen 0, al no encerrar
ningún área. Este es un hecho característico de las distribuciones continuas. En la
práctica se calcula la probabilidad en un entorno de k.
Veamos cómo realizar el cálculo de otras probabilidades1:
1. Si k es positivo y queremos calcular p(Z ≥ k), es decir el área rayada:

Basta pasar al complementario, es decir:


p(Z ≥ k) = 1 – p(Z ≤ k)
y esta última probabilidad ya se encuentra tabulada.
2. Si k es positivo y queremos calcular p(Z ≤ – k), como las probabilidades de los
valores negativos no están tabulados, por simetría, p(Z ≤ – k) = p(Z ≥ k) y ésta
se calcula como en el caso anterior.
Se puede observar la igualdad de áreas en la figura:

-k k

3. Si k es positivo y queremos calcular p(Z ≥ – k), es decir el área rayada:

-k

1 Para el cálculo de probabilidades de cualquier otra distribución normal podemos utilizar esta tabla una vez realizada
la tipificación.

22
tema 66

matemáticas

entonces, por simetría p(Z ≥ – k) = p(Z ≤ k):

-k k
4. Probabilidades comprendidas entre dos valores, p(k1 ≤ Z ≤ k2) ,es decir el área
rayada:

k1 k2

La probabilidad comprendida entre dos valores se calcula restando las áreas:

k2 k1

Se quita la parte correspondiente a Z ≤ k1, p(Z ≤ k2) – p(Z ≤ k1).

3.6. Aproximación de una distribución binomial


por una normal

Es un hecho comprobado que cuando tenemos una distribución B(n,p), a medida


que n crece, es difícil hacer uso de las fórmulas de combinatoria.
Por ejemplo, tiramos un dado 2000 veces, calcular la probabilidad de obtener en-
tre 430 y 680 cincos(inclusive).
1 5
Entonces éxito es obtener cinco, p = , y fracaso es no obtener cinco, q =
6 6
1
Tenemos una binomial B(2000, ) y queremos calcular p(430 ≤ X ≤ 680).
6
Es inviable utilizar las fórmulas de combinatoria para calcular esta probabilidad,
puesto que repetimos el experimento 2000 veces. ¿Cómo resolvemos este proble-
ma? Con la primera versión del Teorema Central del Límite que dio De Moivre
(actualmente la versión conocida de dicho teorema es la que dio Laplace).

XX Teorema De Moivre

La distribución B(n,p), para valores grandes de n, se aproxima a una curva normal


de media np y desviación típica σ = n p q , es decir,

B(n,p) ∼ N (np, n pq )

23
tema 66

matemáticas

Por suerte, esta aproximación puede emplearse para valores de n > 30 siempre y
cuando se verifique que n p ≥ 5 y n q ≥ 5.
En caso de que podamos aproximar, debemos tener en cuenta que estamos pasan-
do de una variable discreta (binomial) a una continua (normal), y por tanto son
distribuciones diferentes. El «precio» que hay que pagar por pasar de una a otra se
denomina «corrección por continuidad» y consiste en hacer determinados ajustes
para que la aproximación realizada sea lo más precisa posible.
Así, si nos piden p(X = k) en una distribución binomial X, y aproximamos X
por una distribución normal Y, no podemos calcular directamente p(Y = k) por-
que, como ya se ha comentado anteriormente, en una distribución continua todas
estas probabilidades valen 0. La corrección por continuidad consiste en tomar
un pequeño intervalo de longitud 1 alrededor del punto k. Es decir, si nos piden
p(X = k) con X binomial, con la aproximación normal Y deberemos calcular
p(k – 0,5 ≤ Y ≤ k + 0,5).
Del mismo modo se razona en el caso de probabilidades acumuladas en la bi-
nomial. Por ejemplo, si nos piden p(X <k) con X binomial, aproximando por Y
normal calcularemos p(Y ≤ k – 0,5). La explicación de que haya que restar 0’5 y
no sumarlo es que queremos que X sea menor estrictamente que k, con lo cuál, si
sumase 0’5, el propio k aparecería en la probabilidad a calcular.
Por contra, si queremos calcular la p(X ≤ k), con X binomial, deberíamos calcular
p(Y ≤ k +0,5).
Comprender estos dos hechos es fundamental para realizar bien la corrección por
continuidad al aproximar una distribución binomial por una normal.

24
tema 66

matemáticas

4 Aplicaciones
Esta distribución es muy utilizada en las aplicaciones estadísticas. Su nombre,
distribución normal, se debe a la frecuencia o normalidad con la que la distri-
bución de muchos fenómenos tienden a parecerse en su comportamiento a esta
distribución. Pero su importancia va mas allá. La importancia es que en la mayoría
de sucesos que dependen de muchas variables aleatorias, por el Teorema Central
del Límite, tienden a un comportamiento normal. Por ejemplo, en la meteorología,
cuya predicción depende de muchas variables. Sería caótico intentar estudias las
complejidad de todas las variables por separado, pero en conjunto es una normal.
Como ejemplos de fenómenos naturales que siguen el modelo de la normal men-
cionamos:
„„ Fenómenos morfológicos de individuos de cierta población. De hecho, el estu-
dio de las medidas corporales de soldados escoceses llevado a cabo por Quetelet
dio el nombre a esta distribución como se explica en el apartado 3 del tema.
„„ Fenómenos fisiológicos (animales y vegetales), por ejemplo efecto de trata-
mientos aplicados a enfermedades de personas, animales, plantas....
„„ Fenómenos sociológicos, por ejemplo el impacto de un producto nuevo en el
mercado.
„„ Fenómenos psicológicos, como el cociente intelectual.
„„ Errores en medición.
Y como ya hemos mencionado, la normal como aproximación de distribuciones
como la binomial o la de Poisson, es otra de sus principales aplicaciones.

25
tema 66

matemáticas

BIBLIOGRAFÍA
GNEDENKO, B.: Teoría de las probabilidades. Ed. Rubiños 1860, S. A., 1996.
HOEL, P.: Introducción a la estadística matemática. Ed. Ariel, 1980.
LIPSHUTZ, S. y SCHILLER, J.: Introducción a la probabilidad y estadística. McGraw-Hill, 1999.
TUCKER, H.: Introducción a la Teoría de las Probabilidades y a la estadística. Ed. Vicens-Vives.
DEVORE, JAY L.: Probabilidad y Estadística para Ingenieria y Ciencias. Ed.Thomson Paraninfo, S.
A. 2006

26
tema 66

matemáticas

RESUMEN

Distribuciones de probabilidad de variable continua.


Características y tratamiento.
La distribución normal. Aplicaciones.

1.
1 Distribuciones de probabilidad de variable continua
Conceptos de:
„„ Variable aleatoria continua.
„„ Su función de distribución: propiedades y representación gráfica.
„„ Su función de densidad de una variable aleatoria continua: propiedades.

2.
2 Características y tratamiento
Conceptos de:
„„ Esperanza matemática.
„„ Varianza.
„„ Desviación típica.
„„ Momentos: relación entre momentos centrales y momentos respecto al origen.
„„ Mediana.
„„ Moda.
„„ Función característica y función generatriz de momentos.

3.
3 La distribuciones normal:
características y tratamiento

3.1. Definición
Una variable aleatoria continua presenta una distribución normal de parámetros μ, σ y la
designamos por N(μ, σ) si su función de densidad es:
− ( x − μ )2
1
f ( x) = e 2σ 2 ∀x ∈ , σ > 0
σ 2π

3.2. Significado de los parámetros


En este apartado se estudian los siguientes parámetros de una función de distribución
normal:

3.2.1. Esperanza de la distribución

3.2.2. Varianza y desviación típica

3.2.3. Función característica

27
tema 66

matemáticas

3.3. Representación gráfica de N(μ,σ)


„„ Dominio: esta definida para todo x ∈  , es continua y positiva.
„„ Simetría: la función es simétrica respecto a la recta, x = μ.
„„ Asíntotas: El eje de abscisas es asíntota horizontal de la curva.
„„ Crecimiento y decrecimiento. Máximos y mínimos: f es decreciente si x > μ y f es
creciente si x < μ.
La función presenta un máximo en:
 1 
 μ, 
 σ 2π 

„„ Concavidad y convexidad. Puntos de inflexión:


−− f es convexa si x < μ - σ y si x > μ + σ
−− f es concava si x ∈ (μ - σ , μ + σ)
Presenta puntos de inflexión en:
 1   1 
 μ −σ ,  y  μ +σ , 
 σ 2π e   σ 2π e 

3.4. Distribución normal tipificada. Tipificación de una variable


Como caso particular de la distribución normal, cuando µ = 0 y = 1, la distribución se
llama tipificada o normada, y la función de densidad es:
1 −2x
2

f ( x) = e

3.5. Uso de las tablas de áreas


La normal N(0,1) viene tabulada para valores no negativos, que representan el área a la
izquierda, la p(Z ≤ k). Por la simetría de la función se pueden calcular todas las probabili-
dades con los datos tabulados.

3.6. Aproximación de una distribución binomial por una normal


La distribución B(n,p), para valores grandes de n, se aproxima a una curva normal:
B(n,p) ∼ N (np, n p q )

4.
4 Aplicaciones
La ley de distribución normal es de suma importancia, fundamentalmente, por ser la dis-
tribución límite hacia la cual tienden las distribuciones de probabilidad de multitud de
fenómenos (fenómenos morfológicos, fisiológicos, sociológicos…) y a que en la mayoría
de sucesos que dependen de muchas variables aleatorias, por el Teorema Central del Lími-
te, tienden a un comportamiento normal. La normal como aproximación de distribuciones
como la binomial o la de Poisson, es otra de sus principales aplicaciones.

28
tema 66

matemáticas

ANEXO

Tabla de la distribución normal tipificada N(0,1)

z 0,00 0,01 0,02 0,03 0,04 0,05 0,06 0,07 0,08 0,09
0,0 0,50000 0,50399 0,50798 0,51197 0,51595 0,51994 0,52392 0,52790 0,53188 0,53586
0,1 0,53983 0,54380 0,54776 0,55172 0,55567 0,55962 0,56356 0,56749 0,57142 0,57535
0,2 0,57926 0,58317 0,58706 0,59095 0,59483 0,59871 0,60257 0,60642 0,61026 0,61409
0,3 0,61791 0,62172 0,62552 0,62930 0,63307 0,63683 0,64058 0,64431 0,64803 0,65173
0,4 0,65542 0,65910 0,66276 0,66640 0,67003 0,67364 0,67724 0,68082 0,68439 0,68793
0,5 0,69146 0,69497 0,69847 0,70194 0,70540 0,70884 0,71226 0,71566 0,71904 0,72240
0,6 0,72575 0,72907 0,73237 0,73565 0,73891 0,74215 0,74537 0,74857 0,75175 0,75490
0,7 0,75804 0,76115 0,76424 0,76730 0,77035 0,77337 0,77637 0,77935 0,78230 0,78524
0,8 0,78814 0,79103 0,79389 0,79673 0,79955 0,80234 0,80511 0,80785 0,81057 0,81327
0,9 0,81594 0,81859 0,82121 0,82381 0,82639 0,82894 0,83147 0,83398 0,83646 0,83891
1,0 0,84134 0,84375 0,84614 0,84849 0,85083 0,85314 0,85543 0,85769 0,85993 0,86214
1,1 0,86433 0,86650 0,86864 0,87076 0,87286 0,87493 0,87698 0,87900 0,88100 0,88298
1,2 0,88493 0,88686 0,88877 0,89065 0,89251 0,89435 0,89617 0,89796 0,89973 0,90147
1,3 0,90320 0,90490 0,90658 0,90824 0,90988 0,91149 0,91309 0,91466 0,91621 0,91774
1,4 0,91924 0,92073 0,92220 0,92364 0,92507 0,92647 0,92786 0,92922 0,93056 0,93189
1,5 0,93319 0,93448 0,93574 0,93699 0,93822 0,93943 0,94062 0,94179 0,94295 0,94408
1,6 0,94520 0,94630 0,94738 0,94845 0,94950 0,95053 0,95154 0,95254 0,95352 0,95449
1,7 0,95543 0,95637 0,95728 0,95818 0,95907 0,95994 0,96080 0,96164 0,96246 0,96327
1,8 0,96407 0,96485 0,96562 0,96637 0,96712 0,96784 0,96856 0,96926 0,96995 0,97062
1,9 0,97128 0,97193 0,97257 0,97320 0,97381 0,97441 0,97500 0,97558 0,97615 0,97670
2,0 0,97725 0,97778 0,97831 0,97882 0,97932 0,97982 0,98030 0,98077 0,98124 0,98169
2,1 0,98214 0,98257 0,98300 0,98341 0,98382 0,98422 0,98461 0,98500 0,98537 0,98574
2,2 0,98610 0,98645 0,98679 0,98713 0,98745 0,98778 0,98809 0,98840 0,98870 0,98899
2,3 0,98928 0,98956 0,98983 0,99010 0,99036 0,99061 0,99086 0,99111 0,99134 0,99158
2,4 0,99180 0,99202 0,99224 0,99245 0,99266 0,99286 0,99305 0,99324 0,99343 0,99361
2,5 0,99379 0,99396 0,99413 0,99430 0,99446 0,99461 0,99477 0,99492 0,99506 0,99520
2,6 0,99534 0,99547 0,99560 0,99573 0,99585 0,99598 0,99609 0,99621 0,99632 0,99643
2,7 0,99653 0,99664 0,99674 0,99683 0,99693 0,99702 0,99711 0,99720 0,99728 0,99736
2,8 0,99744 0,99752 0,99760 0,99767 0,99774 0,99781 0,99788 0,99795 0,99801 0,99807
2,9 0,99813 0,99819 0,99825 0,99831 0,99836 0,99841 0,99846 0,99851 0,99856 0,99861
3,0 0,99865 0,99869 0,99874 0,99878 0,99882 0,99886 0,99889 0,99893 0,99897 0,99900
3,1 0,99903 0,99906 0,99910 0,99913 0,99916 0,99918 0,99921 0,99924 0,99926 0,99929
3,2 0,99931 0,99934 0,99936 0,99938 0,99940 0,99942 0,99944 0,99946 0,99948 0,99950
3,3 0,99952 0,99953 0,99955 0,99957 0,99958 0,99960 0,99961 0,99962 0,99964 0,99965
3,4 0,99966 0,99968 0,99969 0,99970 0,99971 0,99972 0,99973 0,99974 0,99975 0,99976
3,5 0,99977 0,99978 0,99978 0,99979 0,99980 0,99981 0,99981 0,99982 0,99983 0,99983
3,6 0,99984 0,99985 0,99985 0,99986 0,99986 0,99987 0,99987 0,99988 0,99988 0,99989
3,7 0,99989 0,99990 0,99990 0,99990 0,99991 0,99991 0,99991 0,99992 0,99992 0,99992
3,8 0,99993 0,99993 0,99993 0,99994 0,99994 0,99994 0,99994 0,99995 0,99995 0,99995
3,9 0,99995 0,99995 0,99996 0,99996 0,99996 0,99996 0,99996 0,99996 0,99997 0,99997
4,0 0,99997 0,99997 0,99997 0,99997 0,99997 0,99997 0,99998 0,99998 0,99998 0,99998
4,1 0,99998 0,99998 0,99998 0,99998 0,99998 0,99998 0,99998 0,99998 0,99999 0,99999

29

You might also like