Professional Documents
Culture Documents
Estadstica Aplicada
I.
ESTIMACIN DE PARMETROS
observaciones muestrales
Ejemplos:
1
xi funcion lineal de las observacio nes X
n
1
2
S 2 xi X funcion cuadratica de las observacio nes S 2 2
n
X
El resultado numrico que se obtiene es la estimacin del parmetro, en tanto que la expresin
matemtica (o algebraica) es el estimador del parmetro. Puede haber varios estimadores del
mismo parmetro, de los cuales se pretende elegir el mejor, en base a las caractersticas o
propiedades que se requiera del mismo.
1.2. Propiedades de los estimadores
a) Insesgado o no viciado:
Un estimador se dice Insesgado si su esperanza es igual al parmetro. Es decir:
es insesgado E ()
Por el contrario, el estimador se dice viciado si su esperanza es distinta al parmetro.
E () es viciado
b) Consistente:
Un estimador se dice consistente si converge al parmetro, es decir, si su distribucin se
concentra alrededor del parmetro a medida que aumenta el tamao de la muestra, de forma tal
que el error de muestreo tiende a desaparecer. Es decir:
es un estimador consistente de si :
P 1 , para n , arbitrariamente pequeo
E () V ()0 es consistente
o bien :
c) Eficiente:
Estadstica Aplicada
Decimos que un estimador no viciado es eficiente si es de mnima variancia. O sea, el
estimador se dice eficiente si su variancia es menor que la de cualquier otro estimador del mismo
parmetro. Es decir:
*
V ( )
V ()V ( * ) , o sea,
1
V ( * )
Eficiencia relativa:
Dados dos estimadores no viciados del mismo parmetro, se dice que es ms eficiente aqul
que tiene menor variancia. Es decir:
1 y 2
Sean
dos estimadores de
, decimos que
V (1 )
V (2 )
d) Suficiente:
Un estimador se dice suficiente si contiene (o absorbe) toda la informacin proporcionada por la
muestra, en lo que respecta al parmetro.
e) Invariancia:
Un estimador se dice invariante cuando una funcin del mismo es un buen estimador de la
II.
g ( ) g
es invariante
estimar los
2.-Mtodo de los Mnimos Cuadrados: Consiste en encontrar estimadores de los parmetros de forma tal
que minimicen la suma de los cuadrados de los desvos. Con este mtodo se obtienen estimadores
no viciados y consistentes, pues el mismo garantiza mnima variancia y suma de desvos igual a
cero.
3.-Mtodo de Mxima Verosimilitud: Consiste en encontrar estimadores de los parmetros de forma tal
que maximicen la funcin de probabilidad de la muestra. Para ello, es imprescindible conocer la
distribucin de la variable en la poblacin. Este mtodo proporciona los mejores estimadores, que
gozan excelentes propiedades: Insesgado (o bien, asintticamente insesgado), Consistente,
Eficiente, Suficiente, Invariantes y de distribucin asintticamente Normal.
Pasos a seguir para obtener los estimadores de mxima verosimilitud
n
f x1 , x 2 ,.....x n f xi
i 1
Estadstica Aplicada
L X ,
observaciones. Comnmente se la simboliza con
X
, donde
L X ,
L X ,
que maximice a
logaritmo de la funcin : ln
, (ya que el logaritmo es una funcin montona creciente). Por lo
tanto, el segundo paso es aplicarle logaritmo a la funcin de probabilidad de la muestra ( o de
verosimilitud) con el fin de simplificar la derivada.
Se sabe que una funcin continua y derivable alcanza su valor mximo en un punto para el cual se
anula su derivada. Si la funcin de probabilidad de la muestra satisface este requisito, entonces el tercer
L X ,
(o la expresin de
L X ,
0
Inconvenientes:
El mtodo de mxima verosimilitud asegura que los estimadores obtenidos son los de mnima
variancia, pero no indica cual sea esta variancia.
El mtodo de mxima verosimilitud asegura que los estimadores obtenidos son los que asignan
mxima probabilidad a la muestra, pero obviamente se admite que dicha muestra sea posible de
obtener an con diferentes valores del parmetro.
Estas son razones por las cuales la estimacin puntual se torna impracticable (sin inters prctico), y se
prefiere la estimacin por intervalos, ya que provee de ms informacin.
III.
que representa la probabilidad de que dicho intervalo contenga al verdadero valor del parmetro
La construccin del intervalo de confianza consiste en hallar los lmites inferior y superior en funcin
de la muestra obtenida. Para su obtencin es necesario conocer la distribucin del estimador del
parmetro
recibe el nombre de estadstica de prueba y la simbolizamos g(
.). Generalmente se
, ).
Estadstica Aplicada
1
n
X ~ N(,
i
X1 , X2 , ... , Xn iid N( , ).
~ N 0,1
X
P z
z
2
2
siendo z/2: el valor de la variable normal standarizada que est superado con una probabilidad /2.
De dicha expresin se obtiene que:
X z
X z
2
con el (1 )% de confianza
X
s
X
P t n 1,
t n 1,
s
2
2
~ t n 1
siendo tn-1,/2 el valor de la variable t-student con n grados de libertad, superado con probabilidad /2
De dicha expresin se obtiene que :
X t n 1, .
2
s
n
X t n 1, .
2
s
n
con el (1 )% de confianza
Estadstica Aplicada
Para n suficientemente grande, la variable binomial se distribuye aproximadamente normal ,
1
pq
h X i ~ N p,
n
n
N np , npq
aproximadamente : X ~
y
pq
h
n
donde
es un valor desconocido puesto que no se conoce el valor del parmetro p, por lo
s h h
h (1 h )
n
h p
h (1 h )
~ N 0,1
aproximadamente normal:
Dicha aproximacin es buena para muestras de tamao suficientemente grandes, y el mnimo tamao de
muestra depende del valor de h. W.G. Cochran da una regla prctica para ser utilizada en la bsqueda de
intervalos de confianza del 95%, correspondientes a la proporcin poblacional p.
Proporcin emprica h
0.5
0.4 o 0.6
0.3 o 0.7
0.2 0 0.8
0.1 o 0.9
0.05 o 0.95
Para estos valores de n se obtiene una buena aproximacin Normal vlida para la construccin de
intervalos del 95% de confianza.
h(1 h)
h(1 h)
h z 2
p h z 2
n
n
con el (1-).100% de confianza
X1 , X2 , ... , Xn
Y1 , Y2 , ... , Ym
x
1
)
X i ~ N ( x ,
n
n
y
1
Y Yi ~ N ( y ,
)
m
m
iid N( x, x )
con X e Y independientes
Estadstica Aplicada
X Y ~ N x y ;
x
n
X Y x y
2
x
N 0,1
y
m
Entonces
2x y 2y
x y
a) Si
se obtiene de la siguiente
manera:
X Y z
2
2
2x y
2x y
x y X Y z
2
n
m
n
m
b) Si
2x 2y 2
son desconocidos pero iguales
2 S A2
n 1 S x2 m 1 S y2
Luego, como :
nm2
X Y x y
S A2
1 1
n m
2x y S A2
1 1
n m
~ t n m 2
x y
X Y t 2, g . S A
1 1
1 1
x y X Y t 2, g . S A
n m
n m
t n m 2 N 0,1
D
iid Bi(p1)
Y1 , Y2 , ... , Ym
iid Bi(p2)
h1
1
n
Xi
h2
1
m
con Xi independiente de Yj
Y j
Sean
7
i,j
Estadstica Aplicada
Luego, h1 y h2 son independientes y se distribuyen aproximadamente normal :
h1 ~ N p1 ,
p2 q 2
m
y h2 ~ N p 2 ,
p2 q2
n
p q
p q
h1 h2 ~ N p1 p 2 ; 1 1 2 2
n
m
p1q1
p1 q1
n
independientes
h1 h2
n
m
utiliza el estimador de este desvo:
donde
h1 h2 ( p1 p 2 )
h1 (1 h1 )
n
h2 (1 h2 )
~ N ( 0,1)
p1 p 2
sern de la forma:
h1 h2 z S
h h
2
Sean
X1 , X2 , ... , Xn
Xi
i 1
n
iid N( , ). Entonces
Xi X
i 1
n
~ n2
Xi
~ N (0,1)
i 1,.... n
~ n21
y
X X
i
i 1
n
Como
n 1 S x 2
( n 1). S ( x )
tenemos que:
~ n 1
(n 1).S (2x )
P 2n 1;1 2
2n 1; 2 1
2
Estadstica Aplicada
1
2
1
2
2
( n 1).S ( x ) n 1;1 2
2n 1; 2
(n 1).S (2x )
(n 1).S (2x )
2n 1; 2
2n 1;1 2
i,j
i 1
x x
i
j 1
2
x
y y
j
( n 1). S ( x )
~ n 1
( n 1). S ( y )
2
~ m1
( n 1) S ( x )
2
( m 1) S y
S( x) y
. 2 ~ Fn 1,m1
2
Sy x
x ( n 1)
y ( m 1)
S(2y ) 2
x
.
~ F m 1, n 1
S2x y2
( y) x
P F m1,n 1;1 2 2 . 2 F m1,n 1;
S x
P
F m1,n 1;
( y) x
2 . 2 F m1,n 1;
S x y
que equivale a:
2
de donde se obtienen los intervalos de confianza para los cocientes de las variancias
y
2
Estadstica Aplicada
2
S( x)
S
2
y
F m1,n 1;
S( x)
S
2
y
. F m1,n 1;
S( y )
2
S x
F m1,n 1;
S( y )
2
S x
. F m1,n 1;
10
Estadstica Aplicada
Aplicaciones del Teorema Central del Lmite
Intervalo de confianza para la media en poblaciones de distribucin desconocida
Si la distribucin de X no se conoce, pero se trata de una muestra suficientemente grande, se aplica el
Teorema Central del Lmite y as se obtienen los intervalos para
a)
con x
en poblacione s infinitas y x
N n
en poblacione s finitas
N 1
b)
con S x x
S x
n
en poblacione s infinitas y S x
S x
n
N n
en poblacione s finitas
N 1
X Y z
2.
x
n
y
m
x y
X Y z
2.
x
n
y
m
2 .S A
1
m
x y
X Y z
2 .S A
1
n
1
m
X Y z
2.
Sx
n
Sy
m
x y
X Y z
Sx
2
Sy
m
11
Estadstica Aplicada
PRUEBAS DE HIPTESIS
Definicin:
Hiptesis estadstica es un supuesto acerca de la distribucin de una variable aleatoria. Podemos
especificar una hiptesis dando el tipo de distribucin y el valor del parmetro (o valores de los
parmetros) que la definen.
Ejemplos:
100
y 10
$185
Estadstica Aplicada
con una de las acciones. Esta designacin, en principio, es arbitraria, pero tpicamente la hiptesis nula
corresponde a la ausencia de una modificacin en la variable investigada, pudiendo considerar que
nulifica el efecto de un tratamiento , y por lo tanto se especifica de una forma exacta : H0 : = 0 ; en
tanto que la hiptesis alternativa generalmente indica una variacin de valores que prevalecera si la
variable sufre alguna modificacin, pudiendo pensar que el tratamiento fue efectivo , por lo cual esta
hiptesis (alternativa) se especifica de manera ms general :
Ho es falsa
Correcto
error II - incorrecto
H0 : = 0 ; H1 : = 1
f ( x1 , x2 ,...., xn , )
en dos subconjuntos que son : R = regin de rechazo o regin crtica que contiene los resultados
13
Estadstica Aplicada
menos favorables a Ho , y A = regin de aceptacin o regin de no rechazo que contiene los resultados
P (eI ) P ( c / o )
P (eII ) P ( c / 1 )
P(eI ) P( c / o ) P(rech.H o / H o es verdadera) f o ( ).d
f1 ( ).d
f o ( ) y f1 ( )
donde
, segn sea = 0
= 1 respectivamente.
P ( rech. H o / H o es verdadera )
P ( R / H o es verdadera) P( R / o )
Dnde ubicamos esta regin crtica R ?
Dada nuestra preocupacin de cometer un error de tipo II , deberemos escoger para R una ubicacin
donde la probabilidad de este error sea mnima :
14
Estadstica Aplicada
H o : o
H 1 : o
para 1 o : P ( A / 1 ) P ( c / 1 ) f 1 ( / 1 ).d
Caso II
H o : o
H 1 : o
para 1 o : P ( A / 1 ) P ( c / 1 ) f 1 ( / 1 ).d
c
Caso III
H o : o
0 0
H 1 : o
c2
Estadstica Aplicada
3. Escoger el estimador del parmetro cuya distribucin por muestreo sea conocida en el supuesto de que
f o ; o sea f dado que o
la hiptesis nula sea verdadera, es decir, se conoce
.
4. Establecer la regla de decisin, que depende de la forma de la hiptesis alternativa y del nivel de
significacin. Esto se refiere a hallar los valores crticos.
5. En base a una muestra seleccionada al azar, calcular el valor del estadstico. Luego, comparar con el
valor crtico (o los valores crticos).
6. Decidir si rechazar o no la hiptesis nula.
Observaciones :
Slo se toma en cuenta el error de tipo I . Por lo tanto, el test es significativo si se rechaza la
hiptesis nula , pues en este caso se conoce la probabilidad de haber cometido un error. En
funcin de esto, se deber decidir cul de las hiptesis debe ser la nula y cul la alternativa, como
tambin cul debe ser el nivel de significacin.
16
Estadstica Aplicada
CASOS PARTICULARES DE PRUEBAS DE HIPTESIS
X Xi ~ N ( ,
)
n
n
H0 : = 0
vs
~ N (0 , 1)
H1 : 0
X 0
~ N (0 , 1)
zo
x obs 0
j = 1 .. m : Yj ~ N(y, y ).
1
X i ~ N ( x , x )
n
n
1
y
Y Yi ~ N ( y ,
)
m
m
X
con X eY independientes
Entonces
17
Estadstica Aplicada
X Y ~ N x y ;
H0 : x = y
vs
y2
n
m
x2
X Y ( x y )
2
x2 y
n
m
~ N 0 ; 1
H1 : x y
X Y
2
x2 y
n
m
~ N 0 ; 1
Como la prueba es bilateral, se rechazar la hiptesis nula cuando se tenga evidencia de que las medias
poblacionales difieren entre s. Luego, se calculan dos valores crticos ( zc1 y zc2) para la variable pivotal
o estadstico de prueba, que son los valores de la distribucin Normal que dejan una probabilidad de
por debajo y por encima respectivamente: zc1 es tal que (zc1) = y zc2 es tal que (zc2) = 1-
zo
x obs y obs
2
x2 y
n
m
No se rechaza
H0
X = Xi ~ B ( n , p ) .
npq
aproximadamente : X ~ N( n.p ,
).
h
X Xi
n
n
h p
1
pq
h X i ~ N p,
n
n
pq
n
,
H0 : p = p0
vs
H1 : p p0
~ N 0 , 1
h p0
p = p0
p 0 (1 p 0 )
n
y por lo tanto
~ N 0 , 1
Estadstica Aplicada
Como la prueba es bilateral, se rechazar la hiptesis nula tanto como cuando se tenga evidencia de que la
proporcin poblacional sea mayor que el valor postulado como cuando se tenga evidencia de que sea
menor que el valor postulado. Luego, se calculan dos valores crticos (zc1 y zc2) para la variable pivotal o
estadstico de prueba, que son los valores de la distribucin Normal que dejan una probabilidad de
por debajo y por encima respectivamente: zc1 es tal que (zc1) = y zc2 es tal que (zc2) = 1-
hobs p 0
zo
p 0 (1 p 0 )
n
Se estandariza el valor observado de la proporcin muestral
del cual depender
la decisin : si zo > zc2
zo < zc1
Se rechaza H0
si
zc1 < zo < zc2
No se rechaza H0
iid Bi(p1)
Y1 , Y2 , ... , Ym
iid Bi(p2)
h1
1
Xi
n
con Xi independiente de Yj i j
y
h2
1
Yj
m
Sean
Luego, h1 y h2 son independientes y se distribuyen aproximadamente :
h1 ~ N p1 ,
p1 q1
n
y h2 ~ N p 2 ,
p2 q2
m
pq
p q
h1 h2 ~ N p1 p 2 ; 1 1 2 2
n
m
h1 h2 p1 p 2
p1 q1 p 2 q 2
n
m
H0 : p1 = p2 vs
~ N 0 ; 1
H1 : p1 p2
p
donde
n.h1 m.h2
nm
p1 = p2
h1 h2
1 1
p (1 p )
n m
~ N 0 ; 1
Como la prueba es bilateral, se rechazar la hiptesis nula cuando se tenga evidencia de que las
proporciones poblacionales sean diferentes. Luego, se calculan dos valores crticos (zc1 y zc2) para la
variable pivotal o estadstico de prueba, que son los valores de la distribucin Normal que dejan una
19
Estadstica Aplicada
probabilidad de por debajo y por encima respectivamente: zc1 es tal que ( zc1) = y zc2 es tal
que ( zc2) = 1-
Se estandariza el valor observado de la diferencia entre las proporciones muestrales
h1obs h2obs
zo
1 1
n m
p (1 p )
Se rechaza H0
No se rechaza H0
X1 , X2 , ... , Xn
iid N( , )
Xi X
i 1
~ n21
Entonces :
n
S (2x )
( xi x ) 2
i 1
i 1
( n 1) S (2x )
~ n21
H0 : 2 = 20 vs
n 1
~ n21
H1 : 2 20
( n 1).S (2x )
2
~ n21
Como la prueba es bilateral, se rechazar la hiptesis nula tanto como cuando se tenga evidencia de que la
variancia poblacional sea mayor que el valor postulado como cuando se tenga evidencia de que sea menor
que el valor postulado. Luego, se calculan dos valores crticos (2c1 y 2c2) para la variable pivotal o
estadstico de prueba, que son los valores de la distribucin 2n-1 que dejan una probabilidad de
por debajo y por encima respectivamente : 2c1 es tal que P(2n-1 < 2c1) = y 2c2 es tal que
20
Estadstica Aplicada
Se calcula el valor observado de la estadstica de prueba o variable pivotal que relaciona la variancia
2
(n 1).S obs
o2
2
0
muestral con la poblacional
del cual depender la decisin :
2
2
2
2
si o > c2 o < c1
Se rechaza H0
2
2
2
si
c1 < o < c2
No se rechaza H0
Yi y
Xi x
~ N (0,1) i 1.....n y
~ N (0,1) j 1.....m
x
y
X1 x
X x
,......, n
x
x
iid N (0,1) y
(n 1).S (2x )
x2
Y1 y
2
n 1
,......,
Ym y
iid N 0,1
(n 1).S (2y )
y2
~ m2 1
( n 1) S (2x )
S (2x ) y2
2 . 2 ~ Fn1,m1
( m 1) S (2y )
S( y) x
x2 (n 1)
y2 (m 1)
H0 : 2x = 2y vs
H1 : 2x 2y
S2
( x)
~ Fn 1, m 1
S (2y )
muestrales
21
S (2x ) obs
S (2y ) obs
Se rechaza
H0
Estadstica Aplicada
Fc1 < Fo < Fc2
si
No se rechaza
H0
Xi ~ N( , ).
Por lo tanto tenemos que X1 , X2 , ... , Xn iid N( , ). de donde se deduce que:
X ~ N ,
n
que implica
X i X
i 1
2
n 1
X
~ N (0,1)
n
( n 1) S (2x )
~ n21
(n 1) S (2x )
Como
y S2(x) son independientes, lo son tambin
, de distribucin normal
y chi cuadrado respectivamente. Luego, realizando el cociente entre ellas, obtenemos :
X
S ( x)
t n 1
H0 : = 0
vs
H1 : 0
X 0
S ( x)
t n 1
Como la prueba es bilateral, se rechazar la hiptesis nula cuando se tenga evidencia de que la media
poblacional sea mayor que el valor postulado como cuando se tenga evidencia de que sea menor que el
valor postulado. Luego, se calculan dos valores crticos (tc1 y tc2) para la variable pivotal o estadstico de
prueba, que son los valores de la distribucin t-Student con n-1 grados de libertad que dejan una
probabilidad de por debajo y por encima respectivamente: tc1 es tal que P(tn-1 < tc1) = y tc2 es
tal que P(tn-1 > tc2) = .
x obs
to S ( x) 0
n
Se rechaza H0
si tc1 < to < tc2
No se rechaza H0
22
Estadstica Aplicada
Nota: Para tamaos grandes de muestra, esta distribucin tiende a la distribucin normal con parmetros
=0 y =1 .
X 0
~ N (0,1)
S ( x)
n
(Y1
2 2
X Y ~ N ;
y
x
n
m
, y porlo tanto
X Y ( x y )
1 1
n m
~ N (0,1)
como tambin
( n 1) S (2x )
~ n21
(m 1) S (2y )
~ m2 1
que por ser independientes:
(n 1) S (2x ) (m 1) S (2y )
resulta
~ n2 m 2
X Y (x y )
( n 1) S (2x ) ( m 1) S (2y )
( n m 2)
1 1
n m
~ t n m 2
( n 1) S (2x ) (m 1) S (2y )
( n m 2)
donde
H0 : x = y
23
vs
H1 : x y
Estadstica Aplicada
Si la hiptesis nula H0 es verdadera, entonces x = y
X Y
(n
1) S (2x )
( m 1) S (2y )
(n m 2)
1 1
n m
y por lo tanto
X Y
~ t n m 2
1 1
S A.
n m
~ t n m2
o bien
Como la prueba es bilateral, se rechazar la hiptesis nula cuando se tenga evidencia de que las medias
poblacionales sean diferentes. Luego, se calculan dos valores crticos (tc1 y tc2) para la variable pivotal
o estadstico de prueba, que son los valores de la distribucin t-Student con n+m-2 grados de libertad
que dejan una probabilidad de por debajo y por encima respectivamente :
tc1 es tal que P(tn+m-2 < tc1) = y tc2 es tal que P(tn+m-2 > tc2) = .
zo
x obs y obs
S A.
1 1
n m
Se rechaza H0
si
tc1 < to < tc2
No se rechaza H0
del
Nota: Para tamaos grandes de muestra, esta distribucin tiende a la distribucin normal con parmetros
=0 y =1 .
X Y
~ N (0,1) (n m )
1 1
S A.
n m
24