You are on page 1of 57

Universidad de Guanajuato

Divisi on de Ciencias e Ingenieras


Analisis Estadstico y
Numerico
Notas del curso
que presentan
Juan Carlos De Haro Santos
Azarael Adonay Yebra Perez
David Pavel Juarez Lopez
Manuel Alejandro Ramrez Delgado
en la materia de
Laboratorio de Partculas
Profesor: Dr. Julian Felix
Leon, Gto. A 05 de Julio de 2014
ii

Indice general
1. Introduccion 1
2. Analisis de Errores 5
2.1. Incertidumbres . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
2.2. Estimacion de las incertidumbres de las escalas de los instrumentos. 5
2.3. Escribir incertidumbres. . . . . . . . . . . . . . . . . . . . . . . . 6
2.4. Decimales signicativos. . . . . . . . . . . . . . . . . . . . . . . . 6
2.5. Comparacion de medidas. . . . . . . . . . . . . . . . . . . . . . . 7
2.6. Gracas de mediciones. . . . . . . . . . . . . . . . . . . . . . . . 7
2.7. Incertidumbres fraccionales. . . . . . . . . . . . . . . . . . . . . . 9
2.8.

Algebra de incertidumbres. . . . . . . . . . . . . . . . . . . . . . 10
3. Propagacion de Incertidumbres 11
3.1. Medidas directas. . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
3.2.

Algebra de propagacion de errores. . . . . . . . . . . . . . . . . . 11
3.3. Funciones de una variable. . . . . . . . . . . . . . . . . . . . . . . 12
3.4. Formulacion general de la propagacion de errores . . . . . . . . . 12
4. Incertidumbres al azar 15
4.1. Media y desviacion estandar . . . . . . . . . . . . . . . . . . . . . 15
4.2. Desviacion estandar como incertidumbre . . . . . . . . . . . . . . 16
4.3. Desviacion estandar de la media . . . . . . . . . . . . . . . . . . 16
4.4. Errores sistematicos . . . . . . . . . . . . . . . . . . . . . . . . . 17
5. La distribucion Normal 19
5.1. La distribucion normal . . . . . . . . . . . . . . . . . . . . . . . . 19
5.2. Funcion de una distribucion normal . . . . . . . . . . . . . . . . . 20
5.3. Desviacion estandar y lmite de conanza . . . . . . . . . . . . . 20
5.4. La media como la mejor estimacion de la medida . . . . . . . . . 21
5.5.

Algebra de mediciones . . . . . . . . . . . . . . . . . . . . . . . . 22
5.6. Desviacion estandar de la media . . . . . . . . . . . . . . . . . . 23
5.7. Aceptabilidad de una medida . . . . . . . . . . . . . . . . . . . . 23
iii
iv

INDICE GENERAL
6. Eliminacion de Datos 25
6.1. La eliminacion de datos . . . . . . . . . . . . . . . . . . . . . . . 25
6.2. Criterio de Chauvenet . . . . . . . . . . . . . . . . . . . . . . . . 25
7. Promedios Ponderados 27
8. Tecnica de Ajuste Polinomial por mnimos cuadrados 29
8.1. La lnea recta . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
8.2. Incertidumbres en la coordenada y . . . . . . . . . . . . . . . . . 31
8.3. Incertidumbres en los parametros de ajuste . . . . . . . . . . . . 32
8.4. Ajuste por mnimos cuadrados de un polinomio cualquiera . . . . 33
8.5. Ajuste por mnimos cuadrados de una exponencial . . . . . . . . 34
8.6. Ajuste por mnimos cuadrados de una Gaussiana . . . . . . . . . 35
9. Covarianza y Correlacion 37
9.1. Covarianza y la propagacion de errores . . . . . . . . . . . . . . . 37
9.2. Coecientes de Correlacion lineal . . . . . . . . . . . . . . . . . . 38
10.Distribucion Binomial 39
10.1. Introduciion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
10.2. La denicion de Distribucion binomial . . . . . . . . . . . . . . . 39
10.3.

Algebra de la aproximacion binomial . . . . . . . . . . . . . . . . 40
11.La Distribucion de Poisson 41
11.1. Introduccion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
11.2. Denicion de la distribucion de Poisson. . . . . . . . . . . . . . . 41
11.3. Aplicaciones. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
11.4. Substraccion de ruido. . . . . . . . . . . . . . . . . . . . . . . . . 42
12.Chi Cuadrada para evaluar una distribucion 45
12.1. Introduccion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
12.2. Chi cuadrada . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
12.3. Chi cuadrada reducida . . . . . . . . . . . . . . . . . . . . . . . . 46
12.4. Ejemplo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
12.5. Probabilidades para Chi cuadrada . . . . . . . . . . . . . . . . . 47
13.La maxima probabilidad estadstica 49
13.1. Introduccion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
13.2. La funcion de maxima probabilidad estadstica. . . . . . . . . . . 49
13.3. Ejemplos (caso discreto). . . . . . . . . . . . . . . . . . . . . . . . 50

Indice de guras
2.1. Mediciones consistentes . . . . . . . . . . . . . . . . . . . . . . . 7
2.2. Mediciones inconsistentes . . . . . . . . . . . . . . . . . . . . . . 8
2.3. Incertidumbre en las meciones . . . . . . . . . . . . . . . . . . . . 9
5.1. Funcion de distribucion y de propabilidad Normal . . . . . . . . 19
5.2. Aceptabilidad para
1
. . . . . . . . . . . . . . . . . . . . . . . . . 24
11.1. Substraccion de ruido . . . . . . . . . . . . . . . . . . . . . . . . 43
12.1. Distribucion Chi-Cuadrada. . . . . . . . . . . . . . . . . . . . . . 46
v
vi

INDICE DE FIGURAS
Captulo 1
Introducci on
El uso de modelos probabilisticos y metodos estadsticos para analizar datos
se ha convertido en en una practica com un en virtualmente todas las disciplinas
cientcas.
Estadstica de variable aleatoria continua
La distribucion de probabilidad de cualquier variable aleatoria (va) continua,
por lo com un no se puede derivar empleando simples argumentos probabilsticos.
En lugar de esto, se debe hacer una seleccion juiciosa de la distribucion basa-
da en conocimientos previos y datos disponibles. Se sugiere por ejemplo una
distribucion de probabilidad para el intervalo en la circulacion de transito
[1]. Estaturas, pesos y otras caractersticas fsicas, distribuciones que se pueden
ajustar mediante una curva normal, se analizaron en el artculo: On the Laws
of Inheritance in Man [2]. A su vez, para el tiempo de reaccion a una se nal de
frenado, se sugiere una distribuci on normal [3]. Por otro lado, para el caso del
tiempo de supervivencia de un raton macho expuesto a 240 rads de radiacion
gamma, se obtiene una distribuci on gamma [4].
Distribuciones de Probabilidad
Se dice que una variable aleatoria (va) es continua si su conjunto de
posibles valores es todo un intervalo de n umeros, esto es si para alg un A < B,
cualquier n umero x entre A y B es posible.
Si la escala de medicion de se puede subdividir en cualquier grado deseado,
entonces la variable es continua; si no se puede, la variable es discreta.
La desviacion estandar
=

n
i=1
( x
i
)
2
n 1
(1.1)
es la desviacion esperada o promedio al rededor de la media
=
1
n
n

i=1
x
i
(1.2)
1
2 CAP

ITULO 1. INTRODUCCI

ON
y mide cuanta dispersion hay en la distribucion o poblacion de x valores.
Sea una va continua. Entonces la distribucion de probabilidad de es una
funcion f(x) tal que para cualesquiera dos n umeros a y b siendo a b,
P(a b) =
_
b
a
f(x)dx (1.3)
Para que f(x) sea una distribucion de probabilidad legtima f(x) 0 para
todo valor de x y
_

f(x)dx = 1
.
Distribucion Uniforme
Se dice que una va continua tiene distribucion uniforme en el intervalo
[A,B] si su distribucion de probabilidad es
f(x; A, B) =
_
1
BA
, A B
0 , de otro modo
(1.4)
Distribucion Normal
La distribucion normal es lo mas importante en probabilidad y estadstica.
Se dice que una va continua tiene una funcion de distribucion normal con
parametros y , donde < < y > 0, si dicha funcion es
f(x; , ) =
1

2
e
(x)
2
/2
2
(1.5)
A un cuando la distribucion fundamental sea discreta, la normal da una apro-
ximacion excelente. Cuando las variables individuales no estan normalmente
distribuidas, en condiciones apropiadas las sumas y promedios de las variables
tendran esta distribucion, este es el contenido del Teorema del Lmite Central
(TLC).
Si la distribucion de una variable es (aproximadamente) normal, entonces:
1. Alrededor de 68 % de los valores estan dentro de alrededor de .
2. Alrededor de 95 % de los valores estan dentro de 2 alrededor de .
3. Alrededor de 99.7 % de los valores estan dentro de 3 alrededor de .
Percentil
El P
er
(i) avo percentil de una distribucion es aquel punto sobre el eje tal
que el area bajo la curva a la izquierda del punto sea i.
En principio, se desconoce que tipo de distribucion es la que mejor se ajusta
a una muestra. Una de las posibles formas de determinarla es a traves del calculo
de percentiles. La i-esima observaciion mas peque na de la lista se toma como el
P
er
(i) = 100
i 0,5
n
(1.6)
3
percentil de muestra. Esta funcion asigna mayor area de la curva a valores que
esten mas proximos que otros.
Suponiendo que la muestra cumple la distribucion de alguna familia en par-
ticular, es factible esperar que los percentiles de dicha distribucion correspondan
a los muestrales de una graca de los n pares
(x, y) (P
er
(i), i-esima observacion de la muestra) (1.7)
si la distribucion en que la graca se basa es correcta , los puntos de la graca
caeran cerca de una recta. Si la distribucion es diferente a la empleada para
construir la graca, los puntos se separan conciderablemente de un patron lineal.
El desarrollo de esta seccion se baso en [5].
4 CAP

ITULO 1. INTRODUCCI

ON
Captulo 2
Analisis de Errores
2.1. Incertidumbres
Una incertidumbre es un parametro asociado al resultado de una medicion,
que caracteriza la dispersion de los valores que razonablemente podran ser
atribuidos al objeto que se mide. Algunas mediciones pueden ser hechas de
manera exacta, por ejemplo, la suma de los hermanos de cierta persona, o el
n umero de huevos en una canasta. Sin embargo, todas las mediciones tienen un
grado de incertidumbre que puede provenir de una amplia variedad de fuentes.
Al proceso de evaluar estas incertidumbres asociadas con las mediciones, se le
conoce como Analisis de errores. As pues, cuando se realiza una medicion es
necesario incluir una estimacion del nivel de conanza asociado al valor medido.
2.2. Estimaci on de las incertidumbres de las es-
calas de los instrumentos.
Todos los instrumentos tienen una precision que limita la habilidad para re-
solver peque nas diferencias de medicion. En general, es posible distinguir entre
dos tipos de instrumentos: de escala continua y de escala discreta. Los prime-
ros permiten realizar una medicion interpolando entre dos divisiones de escala
mnimas y sucesivas, como es el caso de una regla, una balanza granataria o
un multimetro de aguja. Los instrumentos discretos, por otro lado, solo permi-
ten realizar lecturas de la medicion hasta una unidad de la mnuma division
de la escala, como un cronometro o los intrumentos digitales. Para el caso de
los instrumentos continuos, es posible asociar una incertidumbre por resolucion
del instrumento igual a un medio de la unidad de la mnima division en la es-
cala, mientras que en los instrumentos de escala discreta la incertidumbre por
resolucion sera igual a una unidad de la mnima division de la escala.
Por ejemplo, con una regla que tenga una longitud de un metro y la division
mnima de su escala sea un milmetro, no es posible establecer distancias con
5
6 CAP

ITULO 2. AN

ALISIS DE ERRORES
una presicion mucho mejor que la mitad de la escala de division mas peque na
con que cuente la regla, es decir que no se puede dar un valor con una presicion
mas alla de 0,5mm.
2.3. Escribir incertidumbres.
Cuando una mediacion se realiza, se asume que debe existir alg un valor real
basado en como denimos lo que se mide. A pesar de que no sea posible conocer
este valor de manera exacta, puede ser estimado de una manera razonable em-
pleando los recursos que se tengan disponibles para tal efecto. La manera mas
com un de mostrar el rango de valores en los cuales se encuentra el valor de la
medicion es la siguiente:
medicion = valor estimado incertidumbre. (2.1)
Supongase, por ejemplo, que se desea encontrar la masa de un anillo de
oro. Al colocarlo sobre una balanza se observa que, de acuerdo con esta, su
masa es de 17,43 gramos. Si la pantalla digital de la balanza esta limitada a
mostrar dos lugares decimales y el valor mnimo que puede medirse con ella
es de una milesima de gramo, entonces la masa que se podra reportar para el
anillo, empleando este instrumento de medicion, sera:
m = 17,43 0,01g. (2.2)
2.4. Decimales signicativos.
El n umero de cifras signicativas se puede denir como el n umero total de
dgitos que hay, contando de izquierda a derecha, desde el primero de ellos di-
ferente de cero y hasta el ultimo. Por ejemplo, el n umero 0,44 tiene dos cifras
signicativas, mientras que 66,770 tiene cinco. Los ceros se consideran signica-
tivos excepto cuando son colocados entre el punto decimal y el primer dgito, a
la izquieda de este, diferente de cero, como en el caso de 0,00030, el cual tiene
dos cifras signicativas.
Como ejemplo considerese la siguiente situacion. Se desea estimar el area
de una pista circular con radio de 9 m, usando la expresion A = r
2
. Si el
resultado deseado se obtiene realizando las operaciones involucradas, el valor
para el area sera 254,4690049 m
2
. Este resultado es enga noso, ya que sugiere
que se conoce el area con un grado de presicion absurdo. Como el radio solo se
conoce hasta una cifra signicativa, el area se debe reportar tambien hasta una
cifra signicativa. Un valor experimental siempre debe reportarse en un n umero
apropiado de cifras signicativas, que sean consistentes con su incertidumbre.
Esto signica que la ultima cifra signicativa en cualquier medicion reportada
deber estar en la misma posicion decimal que la incertidumbre.
Por ejemplo, el valor reportado como
= 8,93 0,4753g/cm
3
, (2.3)
2.5. COMPARACI

ON DE MEDIDAS. 7
Figura 2.1: Los rangos de incertidumbres de las mediciones A y B se superponen,
por lo tanto son consistentes entre s.
esta expresado de una forma incorrecta. La manera correcta de reportar una
medicion sera:
= 8,9 0,5g/cm
3
, (2.4)
donde el n umero de cifras signicativas en el valor estimado y la incertidumbre
es igual.
2.5. Comparaci on de medidas.
El resultado de una medicion esta de acuerdo con una prediccion teorica
si la prediccion cae dentro del rango dado por la incertidumbre experimental.
De manera similar, si dos mediciones tienen rangos de incertidumbre que se
superponen, entonces se dice que las mediciones son consistenten entre si. Si
por el contrario sus rangos no se superponen, se dice que las mediciones son
discrepantes.Ver guras 2.1 y 2.2.
2.6. Gracas de mediciones.
Una vez que se ha obtenido una serie de datos experimentales, es importante
conocer la manera correcta de represantarlos esquematicamente por medio de
8 CAP

ITULO 2. AN

ALISIS DE ERRORES
Figura 2.2: Los rangos de incetidumbres de las mediciones no se superponen,
por lo tanto resultan ser mediciones inconsistentes.
2.7. INCERTIDUMBRES FRACCIONALES. 9
una graca. Cada medicion que se coloque en la graca debera estar acompa nada
de su incertidumbre bien sea en la coordenada vertical o en la coordenada ver-
tical y horizontal. En la gura 2.3 se muestra la graca de un conjunto de datos
junto con sus barras de incertidumbre correspondientes.
En las guras 2.1 y 2.2 contituyen, cada una, un ejemplo para gracar me-
diciones. En ambas casos solo se considera la incertidumbre en la medicion del
parametro x.
Figura 2.3: En este ejemplo las barras de error verticales corresponde al error
que obtiene en y mientras que las barras horizontales corresponde al error en la
medicion del parametro x.
2.7. Incertidumbres fraccionales.
La exactitud es el grado de concordancia entre el valor medido y el valor real
o aceptado. El error de la medicion es la cantidad de impreicion. Por otro lado
la presicion es una medicion de lo bien que un resultado se puede determinar
(sin referencia a un valor teorico); es el grado de consistencia y de acuerdo
entre mediciones independientes de la misma cantidad, y tambien la ablilidad o
reproducibilidad del resultado. La presicion en una medicion puede ser reportada
cuantitativamente utilizanzo la incertidumbre fraccional, la cual se dene como:
Incertidumbre fraccional =

incertidumbre
cantidad medida

. (2.5)
10 CAP

ITULO 2. AN

ALISIS DE ERRORES
Por ejemplo, si m = 75,5 0,5 g tiene una incertidumbre fraccional de
0,5g
75,5g
= 0,0066 = 0,66 %. (2.6)
2.8.

Algebra de incertidumbres.
Cuando se realizan operaciones con cantidades que involucran una cierta
incertidumbre en su medicion, se debe de considerar que esas incertidumbres
siguen unas reglas algebraicas muy concretas:
Cuandos se suman o se restan dos mediciones, la incertidumbre absoluta, ya
sea de la suma o de la resta, es la raz cuadrada de las suma de los cuadrados
de las incertidumbres individuales. Ademas, sumar o restar una constante no
cambia la incertidumbre absoluta de la suma. Cuando se multiplica o se divide,
la incertidumbre relativa del producto o del cociente es la raz cuadrada de la
suma de los cuadrados de las incertidumbres relativas individuales. Multiplicar
o dividir por una constante no cambia la incertidumbre relativa del producto o
del cociente.
Captulo 3
Propagaci on de
Incertidumbres
3.1. Medidas directas.
A las cantidades que se obtienen utilizando un instrumento de medida se les
denomina mediciones directas, mientras que a las mediciones que se calculan a
partir de mediciones directas se les denomina indirectas.
Por ejemplo, el volumen que ocupa un lquido es una medicion directa si
se mide con una probeta graduada, y se considera una medicion indirecta si se
obtiene de la medicion de las dimensiones del recipiente que lo contiene.
3.2.

Algebra de propagaci on de errores.
Supongase que se realizan mediciones para los parametros x y y, con
x
y

y
, respectivamente. Para propagar el error en una suma se tiene
f (x, y) = x + y; con
f
=
_

2
x
+
2
y
. (3.1)
Para un producto
f (x, y) = xy; con
f
=
_
y
2

2
x
+ x
2

2
y
. (3.2)
Para un cociente,
f (x, y) =
x
y
; con
f
=

_
1
y
_
2

2
x
+
_
x
y
2
_
2

2
y
. (3.3)
11
12 CAP

ITULO 3. PROPAGACI

ON DE INCERTIDUMBRES
3.3. Funciones de una variable.
Para una funcion de una variable f(x), su desviacion esta dado en terminos
de su derivada como
f =
df
dx
x. (3.4)
Tomando el cuadrado y el valor promedio, se tiene

f
2
=
_
df
dx
_
2

x
2
, (3.5)
o equivalentemente,

f
=

df
dx

x
. (3.6)
Por ejemplo, si f() = cos , entonces
df
d
= sin ;

f
=

x
2

2
. (3.7)
3.4. Formulaci on general de la propagacion de
errores
Supongase que para encontra el valor de la funcion f(x, y) se miden las can-
tiades x y y varias veces, obteniendo N pares de datos, a saber (x
1
, y
1
) , (x
2
, y
2
) , ..., (x
N
, y
N
).
Para las N mediciones x
1
, x
2
, ..., x
N
es posible calcular el valor medio x y la des-
viacion estandar
x
; similarmente, para y
1
, y
2
, ..., y
N
se puede calcular y y
y
.
Posteriormente, usando los N pares de mediciones se pueden calcular los N
valores de las cantidades de interes:
f
i
= f (x
i
, y
i
) , (3.8)
con i = 1, 2, ..., N. Con esta informacion es posible calcular

f y
f
. Empleando
una expansion en series de Taylor alrededor de ( x, y) se puedo hacer la aproxi-
macion siguiente:
f
i
q ( x, y) +
f
x

x, y
(x
i
x) +
f
y

x, y
(y
i
y) . (3.9)
Se puede probar que

f = f ( x, y). Esto signica que para calcular

f solo basta
calcular la funcion f(x, y) evaluada en los puntos x = x y y = y. La desviacion
3.4. FORMULACI

ON GENERAL DE LA PROPAGACI

ON DE ERRORES13
estandar estara dada por

2
f
=
1
N
N

i=1
_
f
i


f
_
2
=
1
N
N

i=1
_
f
x

x, y
(x

x) +
f
y

x, y
(y
i
y)
_
2
=
_
f
x
_
2
x, y
1
N
N

i=1
(x
i
x)
2
+
_
f
y
_
2
x, y
1
N
N

i=1
(y
i
y)
2
+2
f
x

x, y
f
y

x, y
1
N
N

i=1
(x
i
x) (y
i
y) .
Los primero dos terminos son justamente
2
x
y
2
y
. Se dene la covariaza de x y
y como sigue:

xy
=
1
N
N

i=1
(x
i
x) (y
i
y) , (3.10)
de manera que la ecuacion 3.10 se puede escribir como

2
f
=
_
f
x
_
2

2
x
+
_
f
y
_
2

2
y
+ 2
_
f
x
__
f
y
_

xy
. (3.11)
Si x y y son independientes, entonces
xy
= 0. Por lo tanto tenemos:

2
f
=
_
f
x
_
2

2
x
+
_
f
y
_
2

2
y
(3.12)
o

f
=

_
f
x
_
2

2
x
+
_
f
y
_
2

2
y
. (3.13)
Si hay mas de dos variables, entonces de manera general se tiene:

f
=

_
f
x
_
2

2
x
+ .... +
_
f
y
_
2

2
y
. (3.14)
14 CAP

ITULO 3. PROPAGACI

ON DE INCERTIDUMBRES
Captulo 4
Incertidumbres al azar
4.1. Media y desviacion estandar
Con frecuencia interesa establecer conclusiones validas sobre un grupo es-
tadstico grande, ya sean individuos, ya sean objetos. En lugar de examinar al
grupo completo, llamado poblacion, lo cual puede ser muy complicado, costoso o
imposible, se examina solo una parte de esa poblacion, la cual se llama muestra.
A partir de esto se pretende inferir ciertos resultados sobre la poblacion a par-
tir de los resultados obtenidos en la muestra, proceso conocido como inferencia
estadstica. El proceso de obtenci on de muestras se denomina muestreo.
La conabilidad de las conclusiones obtenidas sobre una poblacion, dependen
de si cada miembro de la poblacion tiene la misma probabilidad de aparecer en
la muestra, es decir, que la muestra sea aleatoria.
Una estimacion de la desviacion estandar de la poblacion es la desviacion
estandar de una muestra de datos:
S =

n
i=1
_
X
i


X
_
2
n 1
(4.1)
donde n es el n umero de mediciones hechas y

X es la media de las mediciones
individuales X
i
dada por:

X =

n
i=1
X
i
n
(4.2)
Ejemplo: Si se desea saber la desviacion estandar al medir el largo del pie de
un millon de personas de 18 a nos, devido al gran costo que esto conlleva, se
toma una muestra de tan solo 500 personas, haciendo la sumatoria:
S =

500
i=1
(X
i
28,0cm)
2
499
(4.3)
15
16 CAP

ITULO 4. INCERTIDUMBRES AL AZAR


se obtiene una desviacion estandar de 1,31, mientras que la desviacion estandar
verdadera es igual a 1,33 lo cual es una aproximacion valida. Donde la media es
de 25cm.
4.2. Desviaci on estandar como incertidumbre
Para una distribucion de probabilidad de cierta poblacion dada y de la cual
se obtiene una muestra de tama no n, se tiene la distribucion de probabilidad
del estadstico muestral

X, al cual se llama distribucion muestral para la media
de la muestra o distribucion muestral de medias. Teorema. Si X
1
, X2, ..., X
n
constituyen una muestra aleatoria de una poblacion innita con media y
desviacion estandar (media y desviacion estandar de la poblacion), entonces:
E
_

X
_
=
X
= (4.4)
Es decir, el valor esperado de la media muestral es la media de la poblacion. Lo
cual se demuestra como:
E
_

X
_
=
n

i=1
1
n
= n
_
1
n

_
= (4.5)
Entonces:
var
_

X
_
=
n

i=1
1
n
2
= n
_
1
n
2

2
_
=

2
n
(4.6)
Esta ultima expresion se conoce tambien como el error estandar de la media.
Ejemplo: Usando el ejemplo de la seccion anterior, el error estandar de la
media es:
1,33
2
500
= 3,5 10
3
(4.7)
4.3. Desviaci on estandar de la media
Si una poblacion es innita y el muestreo es aleatorio, entonces la varianza
de la distribucion muestral de medias, denotada por:
E
_
_

X
_
2
_
=
2

X
=

2
n
(4.8)

X
=

n
Es decir, que la media de varias muestras es una mejor medida de la media de
la poblacion que la de una sola muestra.
4.4. ERRORES SISTEM

ATICOS 17
Ejemplo: Tomando de nueva cuenta el ejemplo de la seccion media y des-
viacion estandar, se toman dos desviaciones estandar para dos muestras con n
diferente.

X1
=
1,33

500
= 5,94 10
2
(4.9)

X2
=
1,33

3000
= 2,42 10
2
Con lo que se observa que tomando mayor n umero de datos, la desviacion
estandar de la media decrece, y de esta forma la media de la muestra se aproxima
mas a la media de la poblacion o media verdadera.
4.4. Errores sistematicos
Los errores sistematicos son sesgos en una medicion los cuales ocasionan que
la media de muchas mediciones independientes dieran signicativamente del
valor verdadero medido. Todo tipo de medicion esta expuesta a este tipo de
errores, los cuales son ocacionados por la falta de un control adecuado en los
procedimientos para llevar acabo la medicion, por no tomar en cuenta ciertos
fenomenos invlocrados en el mismo o por fallas en los instrumentos.
Ejemplos: detectores usados para detectar decaimientos pueden no ser com-
pletamente ecientes y pueden no rodear completamente a la fuente emisora y
de esta forma, la tasa de conteo puede estar por debajo de la verdadera tasa
de decaimiento; los contadores pueden ser sensibles a partculas provenientes
de otras fuentes (por ejemplo: rayos cosmicos) lo cual ocasionara una tasa de
conteo por arriba de la tasa de decaimiento verdadera; errores de calibracion en
el reloj y/o balanza usados para medir los intervalos de tiempo y la muestra de
masa.
18 CAP

ITULO 4. INCERTIDUMBRES AL AZAR


Captulo 5
La distribuci on Normal
5.1. La distribuci on normal
La distribucion normal se puede considerar como la piedra angularde la
teora estadstica moderna. Existe una asombrosa regularidad en los errores de
medicion de un gran n umero de fenomenos en la naturaleza. Las distribuciones
que se encuentran, se pueden aproximar por curvas continuas, a las que los
cientcos de la antig uedad se referan como curvas normalesde errores. Moivre,
Laplace y Gauss fueron los primeros en estudiar las propiedades matematicas
de estas curvas, las cuales se denen como:
Una variable aleatoria X tiene una distribucion normal y se conoce como
una variable aleatoria normal si y solo si su funcion de densidad esta dada por:
f (x) =
1

2
e
(x)
2
/2
2
< x < (5.1)
Donde y son la media y la desviacion estandar, respectivamente La graca
de una distribucion normal se muestra en la Figura 5.1.
Figura 5.1: Funcion de distribucion y de propabilidad Normal (las probabilidades
se explican en las siguientes secciones).
19
20 CAP

ITULO 5. LA DISTRIBUCI

ON NORMAL
Ejemplo: Como ejemplo de este tipo de distribuciones se puede tomar el
tiempo durante el cual se duerme en una noche. En este caso, la frecuencia de
las mediciones indican cual es el n umero de personas que duermen un tiempo
x. Claramente esta distribucion es continua pues entre 0 y 24 horas se pueden
tener innitos periodos de sue no diferentes.
5.2. Funcion de una distribuci on normal
La funcion de distribucion correspondiente esta dada por:
F (x) = P (X x) =
1

2
_
x

e
()
2
/2
2
d (5.2)
Si X tiene la funcion de distribucion anterior, se dice que la variable aleatoria
X esta distribuida normalmente, con media y desviacion estandar .
5.3. Desviaci on estandar y lmite de conanza
Es el par o varios pares de n umeros entre los cuales se estima que estara cierto
valor desconocido con una determinada probabilidad de acierto. Estos n umeros
determinan un intervalo, que se calcula a partir de datos de una muestra, y el
valor desconocido es un parametro poblacional. La probabilidad de exito en la
estimacion se representa con 1 y se denomina nivel de conanza. En estas
circunstancias, es el llamado error aleatorio, esto es, una medida de las posi-
bilidades de fallar en la estimacion mediante tal intervalo.
El nivel de conanza y la amplitud del intervalo varan conjuntamente, de forma
que un intervalo mas amplio tendra mas probabilidad de acierto (mayor nivel
de conanza), mientras que para un intervalo mas peque no, que ofrece una es-
timacion mas precisa, aumenta su probabilidad de error.
Para la construccion de un determinado intervalo de conanza es necesario co-
nocer la distribucion teorica que sigue el parametro a estimar, . Es habitual
que el parametro presente una distribucion normal. Un intervalo de conanza
al 1 por ciento para la estimacion de un parametro poblacional que sigue
una determinada distribucion de probabilidad, es una expresion del tipo [1, 2]
tal que P [1 2] = 1 , donde P es la funcion de distribucion de pro-
babilidad de .
Si el tama no de las muestras es lo sucientemente grande, la distribucion de
medias muestrales es, practicamente, una distribucion normal con media y
una desviacion estandar dada por la siguiente expresion:

x
=

n
(5.3)
Ejemplo: Una maquina llena tazas con lquido, y esta supuestamente ajustada
para verter la cantidad de 250g. Como la maquina no puede llenar cada taza
5.4. LA MEDIA COMO LA MEJOR ESTIMACI

ON DE LA MEDIDA 21
con exactamente 250 g, el contenido que se a nade a cada taza presenta cierta
variacion y se le asigna una variable aleatoria X. Se asume que esta variacion se
ajusta a una distribucion normal de alrededor del porcentaje promedio deseado
de 250g, con una desviacion estandar de 2,5g. Para determinar si la maquina
esta adecuadamente calibrada, se toma una muestra aleatoria de n = 25 tazas
para pesarlas. La medicion resultante de sustancia es X1, ..., X25, una muestra
aleatoria desde X. Los pesos efectivos de la muestra son:
x =
1
25
25

i=1
x
i
= 250g (5.4)
Al tomar otra muestra de 25 tazas, se espera que la masa presente valores de
250,4 o 251,1g. Hay un intervalo en torno al valor observado de 250,2g de la
media muestral por el que si la media de la poblacion completa efectivamente
toma un valor en este rango, los datos observados no podran ser considerados
particularmente inusuales. Tal intervalo se denomina intervalo de conanza pa-
ra el parametro . Los extremos del intervalo deben calcularse a partir de la
muestra para que resulten funciones estadsticas de la muestra X1, ..., X25 y de
este modo tambien son variables aleatorias. En este caso, se determinara los ex-
tremos considerando la media muestral X a partir de la muestra en distribucion
normal esta tambien normalmente distribuida con la misma expectativa , pero
con un error estandar de:

n
=
2,5g

25
= 0,5g (5.5)
5.4. La media como la mejor estimacion de la
medida
Suponiendo que se realiza la misma medicion varias veces, no se obtendra, en
general, el mismo resultado, no solo por causas imponderables como variaciones
imprevistas de las condiciones de medida: temperatura, presion, humedad, etc.,
sino tambien, por las variaciones en las condiciones de observacion del experi-
mento.
Si al tratar de determinar una magnitud por medida directa se realizan varias
medidas con el n de corregir los errores aleatorios, los resultados obtenidos son
x
1
, x
2
, ...x
n
, se escoje como mejor estimacion del valor verdadero, el valor medio
x, que viene dado por:
x =

n
i=1
x
i
n
(5.6)
El valor medio, se aproximara tanto mas al valor verdadero de la magnitud
cuanto mayor sea el n umero de medidas, ya que los errores aleatorios de cada
medida se va compensando unos con otros. Sin embargo, en la practica, no de-
be pasarse de un cierto n umero de medidas. En general, es suciente con 10, e
22 CAP

ITULO 5. LA DISTRIBUCI

ON NORMAL
incluso podra bastar 4 o 5.
Cuando la sensibilidad del metodo o de los aparatos utilizados es peque na com-
parada con la magnitud de los errores aleatorios, puede ocurrir que la repeticion
de la medida lleve siempre al mismo resultado; en este caso, esta claro que el
valor medio coincidir a con el valor medido en una sola medida, y no se obtiene
nada nuevo en la repeticion de la medida y del calculo del valor medio, por lo
que solamente sera necesario en este caso hacer una sola medida.
Ejemplo: Se supone que se mide un determinado tiempo, t, cuatro veces, y
se dispone de un cronometro que permite conocer hasta las decimas de segun-
do. Los resultados obtenidos son: 6,3s, 6,2s, 6,4s y 6,2s. De acuerdo a lo dicho
anteriormente, se toma como valor medido el valor medio:

t =
6,3s + 6,2s + 6,4s + 6,2s
4
= 6,275s (5.7)
5.5.

Algebra de mediciones
Es una rama del analisis real que investiga las -algebras, las medidas, fun-
ciones medibles e integrales.
Una medicion es una funcion que asigna un n umero real positivo o cero, inter-
pretable como un ntervalo, un area, un volumen, o una probabilidad,
a los subconjuntos de un conjunto dado. El concepto es importante para la
teora de la probabilidad. Usualmente, el objetivo de asignar una medida a todo
subconjunto del conjunto base parece inalcanzable. Solo sera posible, o intere-
sante en algunos casos, asignar medida a ciertas familias de subconjuntos, a los
que llamaremos medibles. Las condiciones de consistencia que deben cumplir
los miembros de estas familias quedan encapsuladas en el concepto auxiliar de
-algebra.
Formalmente, una medida es una funcion denida en una -algebra sobre
un conjunto X con valores en el intervalo real extendido [0,nf], que verica:
-La medida del conjunto vaco es cero: () = 0. -Si E
1
, E
2
, E
3
, ... una sucesion
contable de conjuntos disjuntos dos a dos de la -algebra y E es su union,
entonces (E) es igual a la suma de las medidas de los E
k
; esto es:

_
i=1
E
i
_
=

i=1
(E
i
). (5.8)
La terna (X, , ) se denomina espacio de medida, y los elementos de se de-
nominan conjuntos medibles.
Ejemplos: La medida de conteo se dene por (S) = n umero de elementos
en S, si S es nito; o en caso contrario; todo espacio de probabilidad da
lugar a una medida que toma el valor 1 sobre todo el espacio (y por tanto to-
ma todos sus valores en el intervalo unitario [0, 1]). Tal medida es denominada
medida de probabilidad; La medida cero es la denida mediante (S) = 0 para
todo S.
5.6. DESVIACI

ON EST

ANDAR DE LA MEDIA 23
5.6. Desviaci on estandar de la media
Para poder dar un tipo de descripcion de una distribucion Gaussiana, es
necesario proporcionar medidas del valor x en donde la distribucion esta cen-
trada y de que tan amplia es la distribucion. La media y la desviacion estandar
verdaderas ( y ) son adecuadas para estos dos propositos, respectivamente.
Sin embargo, los valores medidos de la media y de la desviacion estandar, son
respectivamente:
x =

n
i=1
x
i
n
(5.9)
s =

n
i=1
(x
i
)
2
n
Pero en general, la media verdadera no se conoce y no se puede usar la ecuacion
(5.9) para determinar la desviacion estandar. En su lugar se usa la expresion:
s =

_
1
n 1
n

i=1
(x
i
x)
2
(5.10)
Entonces, una medicion de una cantidad no permite estimar la desviacion de
los valores si el valor verdadero no se conoce.
Es importante entender que s es una medida de que tan dispersa es la distribu-
cion y que no es la presicion a la cual la media x es determinada. Esto se conoce
con una presicion mejor por un factor de

n. Entonces tomando cada vez mas
observaciones de x, la desviacion estandar no cambiara, ya que el numerador
y el denominador de la desviacion estandar s en la ecuacion (5.9) crecen pro-
porcionalmente. Esto tiene sentido ya que se supone que s es un estimado de la
desviacion estandar de toda la poblacion, la cual es claramente independiente
del tama no de la muestra n. Por otro lado, la desviacion estandar de la media
s

n
decrece cuando n crece, ya que un mayor n umero de datos ayudan a localizar
a la media con una mayor presici on.
Como ejemplo se puede tomar el de la seccion desviacion estandar de la
media para incertidumbres aleatorias.
5.7. Aceptabilidad de una medida
La prueba de una hipotesis estadstica es la aplicacion de un conjunto de
reglas para decidir si se acepta o rechaza la hipotesis. Para tomar una desicion,
se generan datos muestrales por medio de un experimento y despues se calcu-
la el valor de una estadstica de prueba, la cual dice que accion tomar para
cada resultado posible del espacio muestral. El procedimiento de prueba, por
consiguinete, divide los valores posibles de la estadstica de prueba en dos sub-
conjuntos: una region de aceptacion y una region de rechazo.
Este procedimiento puede llevar a dos clases de errores. Si el verdadero valor del
24 CAP

ITULO 5. LA DISTRIBUCI

ON NORMAL
parametro es
0
e incorrectamente se concluye que =
1
, se esta cometiendo
un error que se conoce como error de tipo I. Por otra parte, si el verdadero
valor del parametro theta es
1
y se concluye en forma incorrecta que =
0
,
se esta cometiendo una segunda clase de error que se conoce como error de tipo
II.
El rechazo de la hipotesis nula cuando es verdadera se llama un error de tipo
I; mientras que la aceptacion de la hipotesis nula cuando es falsa sellama error
de tipo II. La probabilidad de cometer un error de tipo I se denota por , y la
probabilidad de cometer un error de tipo II, con .
Es com un referirse a la region de rechazo para H
0
(hipotesis nula) como la region
crtica de la prueba y a la probabilidad de obtener un valor de la estadstica de
prueba dentro de la region crtica cuando H
0
es verdadera como el tama no de la
region crtica. As, el tama no de la region crtica es justamente la probabilidad
de cometer un error de tipo I.
Ejemplo: Se quiere probar al hipotesis nula de que la media de una pobla-
cion normal con
2
= 1 es
0
contra la hipotesis alternativa de que es
1
, donde

1
> mu
0
. Se quiere encontrar el valor de K tal que x > K provea una region
crtica de tama no = 0,05 para una muestra aleatoria de tama no n.
Reriendose a la gura 5.2, se encuentra que z = 1,645 (valor obtenido de
tablas), por lo tanto:
1,645 =
K
0
1/

n
(5.11)
de donde:
K =
0
+
1,645

n
(5.12)
Figura 5.2: Aceptabilidad para
1
.
Captulo 6
Eliminacion de Datos
6.1. La eliminaci on de datos
Todos los datos contienen cierto grado de incertidumbre, inexactitud y erro-
res asociados. Por consiguiente es necesario estimarlos de modo que se tomen
en cuenta o bien, si se cree que son inaceptables, los datos se puedan rechazar
para volver a hacer la medicion. Es aconsejable realizar la prueba varias veces,
si es posible, para dar certidumbre de que la prueba produzca resultados cier-
tos y validos, este es el metodo de mediciones replicadas. Si despues de repetir
la prueba aparece un dato dudoso, se aconseja tomar mas mediciones antes de
desechar tal dato.
La dispersion o intervalo de los datos es la diferencia aritmetica entre los datos
maximo y mnimo, para un conjunto de mediciones. La dispersion de los datos
puede determinar si datos atpicos se eliminan o no. Existen varios metodos o
criterios para eliminar datos dudosos como el criterio de Chauvenet, el criterio
de Peirce o el metodo de la prueba de Grubbs para valores atpicos.
Ejemplo: Si se toma la temperatura en

C de una habitacion grande, con
los resultados siguientes, se debe determinar la dispersion o intervalo de datos:
20,1, 19,5, 20,3, 19,7, 20,0, 19,4, 19,6
La dispersion de los datos describe la diferencia entre el dato maximo y el mni-
mo. Por consiguiente la dispersion es (20,3 19,4)

C = 0,9

C
6.2. Criterio de Chauvenet
Es un matodo para calcular si un dato dudoso de un conjunto de datos ex-
perimentales es probable que sea un valor atpico . Para aplicar este criterio,
primero se debe calcular la media y la desviacion estandar de la informacion
observada. Basandose en cuanto diere el valor dudoso de la media, se utiliza la
funcion de distribucion normal para evaluar la probabilidad de que un dato dado
sea del valor del dato dudoso. Se multiplica esta probabilidad por el n umero de
25
26 CAP

ITULO 6. ELIMINACI

ON DE DATOS
datos de la muestra escogida. Si el resultado es inferior a 0,5, el dato dudoso se
puede eliminar.
Ejemplo: Se mide la altura de un componente electronico y tras varias
pruebas se obtienen las mediciones: 9m, 10m, 10m, 10m, 11m, y50m La
media y la desviacion estandar obtenidas son respectivamente: 16,7 y 16,34.
50 diere de 16,7 por un valor de 33,3, el cual es ligeramente mayor a dos
desviaciones estandar. Como se puede ver de la gura 5.1, la probabilidad de
obtener informacion mayor a dos desviaciones estandar respecto de la media
es de apenas 0,05. Se toman seis datos, as el valor estadstico (el valor de la
informacion multiplicado por la probabilidad) es 0,05 3 = 0,3. Entonces de
acuerdo al criterio de Chauvenet, el valor obtenido de 50m debe descartarse,
dejando un nuevo promedio de 10 y una nueva desviacion estandar de 0,7
Captulo 7
Promedios Ponderados
En muchas ocasiones, las observaciones recolectadas no tienen la misma im-
portancia relativa. Para hacer presente este hecho en la b usqueda de una media
o promedio que represente a los datos, es necesario asignar a cada uno de estos,
una ponderacion (peso o coeciente) que represente su importancia dentro de
la muestra.
A modo de ejemplo, considerese un sistema de calicacion de un curso en
que las pruebas tienen distinto coeciente, seg un su importancia en el proceso
de evaluacion del trabajo del alumno. En este caso, no resulta apropiado el
promedio simple. Cada nota parcial debe ser multiplicada por su coeciente,
para luego sumar estos resultados y dividirlos por la suma de los coecientes
respectivos.
Formalizando lo anterior, se puede dar la siguiente denicion:
Denicion: Sean x
1
, x
2
, ..., x
n
, n datos y w
1
, w
2
, ..., w
n
, n n umeros reales
mayores o iguales a cero, con al menos uno positivo. Entonces el promedio
ponderado de los datos, esta dado por:
x
w
=
w
1
x
1
+ w
n
x
n
w
1
+ w
n
=

n
i=1
w
i
x
i

n
i=1
w
i
(7.1)
Si w
i
= k, con k una constante positiva, entonces x
w
coincide con x. Esto
equivale a decir que, si cada observacion tiene la misma ponderacion, entonces
el promedio y el promedio ponderado son iguales.
Ejemplo: Un alumno obtiene un 5.5 en una prueba de ponderacion 0.7 y un
4.9 en otra de ponderacion 0.3. Cual es nota promedio de estas dos pruebas?.
Al ser las ponderaciones diferentes, el promedio ponderado tiene la expresion:
x
w
=

2
i=1
w
i
x
i

2
i=1
w
i
=
0,7 5,5 + 0,3 4,9
0,7 + 0,3
= 5,32 (7.2)
27
28 CAP

ITULO 7. PROMEDIOS PONDERADOS


Captulo 8
Tecnica de Ajuste
Polinomial por mnimos
cuadrados
Una caracterstica inherente en el proceso de medicion de observables fsi-
cos, son los errores de medicion. En estas circunstancias nos interesa describir
la forma funcional de los datos recabados, por lo que se acude a metodos de
aproximacion de funciones.
Hay un n umero innito de curvas o formas funcionales f(x) que pueden
ajustarse a los errores de medicion. El criterio mas com un para determinar la
curva que describa de manera mas acertada los observables fsicos y(x
i
), consiste
en requerir que la suma de las distancias entre el valor de la medicion en el punto
x
i
(y(x
i
) y
i
) y la evaluacion de la funcion que aproxima en este punto f(x
i
),
sea un valor mnimo. La suma de estas distancias es denotada por :

n

i=1
|f(x
i
) y
i
|
y
i
= mn.
donde pesamos a cada distancia por el error en la medicion. En otras palabras,
nuestros datos consisten de pares de medicion (x
i
, y
i
). Probablemente el experi-
mento mas importante de este tipo es en el que nuestros datos proximan a una
funcion lineal f(x) = ax +b. Para encontrar los valores de a y b que minimizan
, derivamos respecto a a y b, pero el valor absoluto no es diferenciable en un
punto. Entonces la ecuacion anterior la escribimos en terminos de las distancias
al cuadrado pesados con los errores al cuadrado de las mediciones, y denotamos
a esta distancia como
2
:

i=1
(f(x
i
) y
i
)
2
(y
i
)
2
(8.1)
29
30CAP

ITULO8. T

ECNICADE AJUSTE POLINOMIAL POR M

INIMOS CUADRADOS
donde el cuadrado tambien asegura que no importa el signo de la resta entre
el dato y la funcion de aproximacion (de hecho pueden usarse potencias pares).
De la expresion anterior viene el nombre de ajuste por mnimos cuadrados.
La expresion (8.1) puede obtenerse de manera natural asumiendo que la me-
dicion de y
i
es gobernado por una distribucion normal (Gaussiana) centrada en
este valor, con anchura y
i
. Entonces, la probabilidad normalizada de obtener
el valor observado y
i
es:
P
a,b
(y
i
) =
1

2
yi
e

(y
i
(ax
i
+b))
2
2
2
y
i
donde se toma el ejemplo de la funcion lineal f(x) = ax + b que es el va-
lor esperado de la medicion. La probabilidad de obtener el conjunto completo
(x
1
, y
1
), , (x
n
, y
n
) es el producto:
P
a,b
(y
1
, , y
n
) = P
a,b
(y
1
) P
a,b
(y
2
)
=
1
(2)
n/2
1

y1

yn
e

1
2

n
i=1
(y
i
f(x
i
))
2

2
y
i
entonces la mejor estimacion para las constantes a y b, basada en las mediciones,
son tales que la probabilidad P
a,b
(y
1
, , y
n
) se maxima o para los que la suma
de los cuadrados:

2
=
n

i=1
(y
i
f(x
i
))
2

2
yi
(8.2)
sea mnima.
8.1. La lnea recta
Ajustaremos a la funcion lineal:
f(x) = ax + b (8.3)
El parametro
2
es en este caso:

i=1
(ax
i
+ b y
i
)
2
(y
i
)
2
(8.4)
Los parametros a y b que maximizan la probabilidad o bien, minimizan la dis-
tancia cuadratica
2
se encuentran derivando esta expresion respecto de a y
luego respecto de b, formando el sistema de acuaciones:
a
n

i=1
x
2
i
(y
i
)
2
+ b
n

i=1
x
i
(y
i
)
2
=
n

i=1
x
i
y
i
(y
i
)
2
(8.5)
a
n

i=1
x
i
(y
i
)
2
+ b
n

i=1
1
(y
i
)
2
=
n

i=1
y
i
(y
i
)
2
(8.6)
8.2. INCERTIDUMBRES EN LA COORDENADA Y 31
Usando el metodo de sustitucion (resolviendo primero para a en la primer ecua-
cion y sustituyendo en la segunda por ejemplo), se encuentra:
a =

n
i=1
1
(yi)
2

n
i=1
xiyi
(yi)
2

n
i=1
yi
(yi)
2

n
i=1
xi
(yi)
2

(8.7)
b =

n
i=1
yi
(yi)
2

n
i=1
x
2
i
(yi)
2

n
i=1
xiyi
(yi)
2

n
i=1
xi
(yi)
2

(8.8)
donde
=
n

i=1
1
(y
i
)
2
n

i=1
x
2
i
(y
i
)
2

_
n

i=1
x
i
(y
i
)
2
_
2
(8.9)
Note que en el caso en que los errores son iguales y
i
= k = cte, i = 1, ..., n
las expresiones para a y b coinciden exactamente con el caso en que no se reporta
error de medicion (o incertidumbre), a saber:
a =
n

n
i=1
x
i
y
i

n
i=1
y
i

n
i=1
x
i
n

n
i=1
x
2
i
(

n
i=1
x
i
)
2
(8.10)
b =

n
i=1
y
i

n
i=1
x
2
i

n
i=1
x
i
y
i

n
i=1
x
i
n

n
i=1
x
2
i
(

n
i=1
x
i
)
2
(8.11)
8.2. Incertidumbres en la coordenada y
Si cada medicion y
i
para un x
i
dado, es medido varias veces, la desviacion
estandar de este valor
yi
puede usarse en el ajuste de minimos cuadrados como
medida de y
i
. Pero si el par (x
i
, y
i
) solo es medido una vez, uno no puede cal-
cular
yi
de la propagaion de las mediciones, dado que, recordemos que y
1
, ..., y
n
no son n mediciones de una misma cantidad (mismo x
i
). Sin embargo, aunque
una
yi
individual no pueda calcularse, uno puede estimar una incertidumbre
com un
y
para el conjunto de mediciones y
1
, ..., y
n
, analizando los datos mismos.
Suponga que la medicion de cada y
i
se distribuye al rededor de su valor
real ax + b, con desviacion
y
. Entonces, estas desviaciones y
i
a bx
i
estan
normalmente distribuidas con valor central 0 y desviacion
y
. Esto siguiere
inmediatamente que una buena estimacion para
y
sera la suma del cuadrado
de las desviaciones de las mediciones alrededor de su valor real, dividido por
(n 2):

2
y
=
1
n 2
n

i=1
(y
i
a bx
i
)
2
(8.12)
donde (n 2) es reminiscente del factor (n 1) que ocurre en al calculo de
la desviacion estandar para N mediciones x
1
, ..., x
n
, de la cantidad x. En este
caso podamos encontrar la media x de los mismos datos lo que nos dejaba con
solo (n1) grados de libertad. Para la ecuacion anterior tenemos n mediciones,
pero antes de calcular
y
tenemos que estimar los parametros a y b. Hecho esto,
tenemos solo (n 2) grados de libertad.
32CAP

ITULO8. T

ECNICADE AJUSTE POLINOMIAL POR M

INIMOS CUADRADOS
8.3. Incertidumbres en los parametros de ajuste
Seg un lo visto en el captulo de Propagacion de incertidumbres, la incerti-
dumbre en el parametro q de alguna funcion de aproximacion, pueden calcularse
como:
q =

_
n

k=1
_
q
x
k
_
2
(x
k
)
2
+
n

k=1
_
q
y
k
_
2
(y
k
)
2
(8.13)
En nuestro caso suponemos que identicamos todas las fuentes de error sis-
tematico y las hemos reducido a un nivel despreciable, de forma que siempre
consideramos x
k
= 0, k = 1, ..., n.
Usando la ecuacion (8.7), tenemos para el parametro a lineal que:
(a)
2
=
n

k=1
(y
k
)
2
_
a
y
k
_
2
=
n

k=1
(y
k
)
2
_
n
i=1
1
(yi)
2

n
i=1
xi
ik
(yi)
2

n
i=1

ik
(yi)
2

n
i=1
xi
(yi)
2

_
2
=
1

2
n

k=1
1
(y
k
)
2
_
x
k
n

i=1
1
(y
i
)
2

n

i=1
x
i
(y
i
)
2
_
2
donde
ik
anula todos los terminos menos el k-esimo, mismo que factorizamos
de las sumatorias. A su vez en el parametro (ver ecuacion (8.9)) las sumas son
cerradas y entonces el ndice de estas es mudo, por lo que puede factorizarse.
Expandiendo el binomio:
(a)
2
=
1

2
_
_
n

k=1
x
2
k
(y
k
)
2
_
n

i=1
1
(y
i
)
2
_
2
+
n

k=1
1
(y
k
)
2
_
n

i=1
x
i
(y
i
)
2
_
2
2
n

k=1
x
k
(y
k
)
2
n

i=1
1
(y
i
)
2
n

i=1
x
i
(y
i
)
2
_
2
=
1

2
_
_
n

k=1
x
2
k
(y
k
)
2
_
n

i=1
1
(y
i
)
2
_
2

i=1
1
(y
i
)
2
_
n

k=1
x
k
(y
k
)
2
_
2
_
_
=
1

2
_
_
n

i=1
1
(y
i
)
2
_
_
n

k=1
x
2
k
(y
k
)
2
n

i=1
1
(y
i
)
2

_
n

k=1
x
k
(y
k
)
2
_
2
_
_
_
_
(8.14)
donde en la segunda igualdad se uso el hecho de que el segundo y tercer termino
en los corchetes son iguales dado que las sumas son cerradas y por tanto los
ndices son mudos. Usando el mismo argumento observamos que el termino en
8.4. AJUSTE POR M

INIMOS CUADRADOS DE UNPOLINOMIOCUALQUIERA33


parentesis de la tercer igualdad no es mas que y puede factorizarse de la
sumatoria, con lo que nalmente:
(a) =

_
1

i=1
1
(y
i
)
2
(8.15)
Usando ahora la ecuacion (8.8) con calculos y argumentos analogos a los de
(a), obtenemos:
(b)
2
=
1

2
n

k=1
1
(y
k
)
2
_
n

i=1
x
2
i
(y
i
)
2
x
k
n

i=1
x
i
(y
i
)
2
_
2
=
1

2
_
_
n

i=1
x
2
i
(y
i
)
2
_
_
n

k=1
1
(y
k
)
2
n

i=1
x
2
i
(y
i
)
2

_
n

k=1
x
k
(y
k
)
2
_
2
_
_
_
_
donde nuevamente el termino en parentesis es , con lo que nalmente:
(b) =

_
1

i=1
x
2
i
(y
i
)
2
(8.16)
8.4. Ajuste por mnimos cuadrados de un poli-
nomio cualquiera
El problema general de aproximar un conjunto de datos (x
i
, y
i
), i = 1, ..., n,
a un polinomio general:
P
m
(x) = a
m
x
m
+ a
m1
x
m1
+ + a
1
x + a
0
=
m

j=0
a
j
x
j
(8.17)
de grado m < n1 (con n el total de pares de medicion), usando el procedimiento
de mnimos cuadrados es tratado de forma similar. La distancia cuadrada
2
a
minimizar es en este caso:

2
=
n

i=1
(P
m
(x
i
) y
i
)
2
(y
i
)
2
=
n

i=1
y
2
i
(y
i
)
2
2
n

i=1
_
_
m

j=0
a
j
x
j
i
_
_
y
i
(y
i
)
2
+
n

i=1
_
_
m

j=0
a
j
x
j
i
_
_
2
1
(y
i
)
2
=
n

i=1
y
2
i
(y
i
)
2
2
m

j=0
a
j
_
n

i=1
y
i
x
j
i
(y
i
)
2
_
+
m

j=0
m

k=0
a
j
a
k
_
n

i=1
x
j+k
i
(y
i
)
2
_
(8.18)
34CAP

ITULO8. T

ECNICADE AJUSTE POLINOMIAL POR M

INIMOS CUADRADOS
Como en el caso lineal, para minimizar este parametro, es necesario calcular

2
/a
j
= 0, para cada j = 0, ..., m. Entonces:

2
a
j
= 2
n

i=1
y
i
x
j
i
(y
i
)
2
+ 2
m

k=0
a
k
n

i=1
x
j+k
i
(y
i
)
2
= 0 (8.19)
Lo que resulta en m + 1 ecuaciones con m + 1 incognitas a
j
:
m

k=0
a
k
n

i=1
x
j+k
i
(y
i
)
2
=
n

i=1
y
i
x
j
i
(y
i
)
2
, j = 0, ..., n. (8.20)
Este sistema de ecuaciones resulta en una matriz simetrica no singular y
entonces tiene soluci on unica. Esto del echo de que las variables x
1
, x
2
, ..., x
n
son diferentes entre s (con n < m1).
8.5. Ajuste por mnimos cuadrados de una ex-
ponencial
Ajustaremos ahora a la funcion exponencial:
f(x) = ae
bx
(8.21)
con parametro
2
:

i=1
(ae
bxi
y
i
)
2
(y
i
)
2
. (8.22)
En lugar de derivar esta expresion para encontrar los valores de a y b que la
minimizan, note que el logaritmo de la funcion de aproximacion:
ln f(x) = ln a bx (8.23)
es una funcion lineal, de forma que los parametros (ln a) y (b) que minimizan
la funcion:
n

i=1
(ln a bx
i
ln y
i
)
2
((ln y
i
))
2
(8.24)
son los parametros lineales b y a respectivamente, pero con el cambio y
i
ln y
i
,
dado que se aproxima al logaritmo de los datos (ln f(x)) y no a los datos mismos.
Aqu es facil mostrar usando la ecuacion (8.13) que:
(ln y
i
) =

_
n

k=1
_
(ln y
i
)
y
k
_
2
(y
k
)
2
=

_
n

k=1
_

ik
y
i
_
2
(y
k
)
2
=
y
i
y
i
(8.25)
8.6. AJUSTE POR M

INIMOS CUADRADOS DE UNA GAUSSIANA 35


Con lo anterior, los parametros buscados son:
a = exp
_
_

n
i=1
ln yi
(yi/yi)
2

n
i=1
x
2
i
(yi/yi)
2

n
i=1
xi ln yi
(yi/yi)
2

n
i=1
xi
(yi/yi)
2

ex
_
_
(8.26)
b =

n
i=1
1
(yi/yi)
2

n
i=1
xi ln yi
(yi/yi)
2

n
i=1
ln yi
(yi/yi)
2

n
i=1
xi
(yi/yi)
2

ex
(8.27)
donde ahora el parametro
ex
toma la forma:

ex
=
n

i=1
1
(y
i
/y
i
)
2
n

i=1
x
2
i
(y
i
/y
i
)
2

_
n

i=1
x
i
(y
i
/y
i
)
2
_
2
(8.28)
8.6. Ajuste por mnimos cuadrados de una Gaus-
siana
Sea ua funcion Gaussiana centrada en x
0
:
f(x) = ae
b(xx0)
2
(8.29)
Para ajustar los datos a esta funcion se usa el parametro
2
:

i=1
(ae
b(xx0)
2
y
i
)
2
(y
i
)
2
. (8.30)
Siguiendo un procedimiento analogo al de la funcion exponencial, note que
el logaritmo de la funcion de aproximacion es:
ln f(x) = ln a bz , z (x x
0
)
2
(8.31)
que es una funcion lineal exactamente igual a (8.23) pero con la sustitucion
x z = (xx
0
)
2
. Por lo tanto, los coecientes a y b buscados, no son mas que
(8.26) y (8.27), usando esta transformacion. Finalmente:
a = exp
_
_

n
i=1
ln yi
(yi/yi)
2

n
i=1
(xx0)
4
(yi/yi)
2

n
i=1
(xx0)
2
ln yi
(yi/yi)
2

n
i=1
(xx0)
2
(yi/yi)
2

g
_
_
(8.32)
b =

n
i=1
1
(yi/yi)
2

n
i=1
(xx0)
2
ln yi
(yi/yi)
2

n
i=1
ln yi
(yi/yi)
2

n
i=1
(xx0)
2
(yi/yi)
2

g
(8.33)
donde el parametro
g
es en este caso:

g
=
n

i=1
1
(y
i
/y
i
)
2
n

i=1
(x x
0
)
4
(y
i
/y
i
)
2

_
n

i=1
(x x
0
)
2
(y
i
/y
i
)
2
_
2
(8.34)
36CAP

ITULO8. T

ECNICADE AJUSTE POLINOMIAL POR M

INIMOS CUADRADOS
Captulo 9
Covarianza y Correlacion
9.1. Covarianza y la propagacion de errores
Sean x y y dos variables aleatorias continuas relacionadas con funcion de
densidad de probabilidad f(x, y) (que toma el papel de una funcion de peso),
la media o valor esperado de x y y son respectivamente:

x
= E(x) =
_

xf(x, y)dxdy

y
= E(y) =
_

yf(x, y)dxdy (9.1)


y las varianzas son:

2
x
= E[(x
x
)
2
] =
_

(x
x
)
2
f(x, y)dxdy

2
y
= E[(y
y
)
2
] =
_

(y
y
)
2
f(x, y)dxdy (9.2)
La covarianza entre estas dos variables aleatorias es denida por:

xy
= E[(x
x
)(y
y
)]
= E[xy x
y

x
y +
x

y
]
=
xy

y
+
x

y
=
xy

y
= E(xy) E(x)E(y) (9.3)
donde se uso la linealidad de la media. La covarianza es una medida de depen-
dencia lineal entre dos variables. Si su dependencia no es lineal, la covarianza
sera cero aunque esten claramente relacionadas.
37
38 CAP

ITULO 9. COVARIANZA Y CORRELACI

ON
Si las variables aleatroaias x y y son discretas, la media o valor esperado
coincide con el promedio ponderado:

x
= E(x) =

y
xf(x, y)

y
= E(y) =

y
yf(x, y) (9.4)
donde la suma de las probabilidades (o funciones de peso) esta normalizada a
la unidad.
9.2. Coecientes de Correlaci on lineal
Si dos variables x y y son independientes, entonces
xy
= 0. Por otro lado
si estan fuertemente correlacionadas y son completamente dependientes, por
ejemplo cuando x = y, entonces
xy
=
x

y
(varianza). Esto nos conduce a una
medida de la dependencia de las variables x y y, dado por el coeciente de
correlacion lineal:

xy
=

xy

y
(9.5)
que puede mostrarse que toma los valores:
1 <
xy
< 1 (9.6)
donde
xy
= 0 indica ausencia de dependencia lineal,
xy
> 0 indica dependencia
lineal directa (grandes valores de x corresponden a grandes valores de y) y
xy
<
0 indica dependencia inversa (grandes valores de x corresponden a peque nos
valores de y).
En el caso de una muestra de la poblacion, el coeciente r denotara el coe-
ciente de correlacion lineal muestral. Sustituyendo los estimados de las cova-
rianzas y varianzas para una muestra se obtiene:
r =

n
i=1
(x
i
x)(y
i
y)
_

n
i=1
(x
i
x)
2
_

n
i=1
(y
i
y)
2
(9.7)
Captulo 10
Distribuci on Binomial
10.1. Introducii on
Suponga un experimento como lanzar una moneda repetidamente o elegir
una canica de una urna repetidamente. Cada lanzamiento o seleccion es llamado
un ensayo, en el que habra una probabilidad asociada a ese unico evente, tal
como que la moneda caiga en cara, o la seleccion de una canica roja. En algunos
casos la probabilidad de un ensayo sera independiente de los demas, y en este
caso se denominan, ensayos (o eventos) de Bernoulli.
10.2. La denicion de Distribucion binomial
Sea p es la probabilidad de que un evento ocurrira en cualquier ensayo indi-
vidual (llamada la probabilidad de exito) y sea q = 1 p la probabilidad de que
el evento no sucedera en cualquier ensayo individual (llamada la probabilidad
de un fallo ). Entonces la probabilidad de que el evento va a ocurrir exactamente
x veces en los N ensayos (es decir, x exitos y fracasos N x ocurriran) viene
dada por:
p(X = x) =
_
N
x
_
p
x
q
Nx
=
N!
x!(n x)!
p
x
q
Nx
(10.1)
donde la variable aleatoria X denota el n umero de exitos en n ensayos y x =
0, 1, 2, ...N. Ademas N! = N(N 1)(N 2)..,1.
Ejemplo: La probabilidad de tener exactamente dos caras en seis volados de
una moneda es:
_
6
2
__
1
2
_
2
_
1
2
_
62
=
6
2!4!
_
1
2
_
6
=
15
64
(10.2)
donde se uso la ecuacion (10.1).
39
40 CAP

ITULO 10. DISTRIBUCI

ON BINOMIAL
10.3.

Algebra de la aproximaci on binomial
La funcion de probailidad discreta (10.1) es llamada comunmente distribu-
cion binomial ya que para x = 0, 1, 2..., n, corresponde a terminos sucesivos en
la expancion binomial:
(q + p)
n
= q
n
+
_
n
1
_
q
n1
p
_
n
2
_
q
n2
p
2
+ + p
n
=
n

x=0
_
n
x
_
p
x
q
nx
(10.3)
El caso especial de una distribucion Binomial con n = 1 es llamada distribucion
de Bernoulli.
El valor esperado o media de una variable con distribucion binomial es:
E(x) = np (10.4)
y varianza

2
= npq (10.5)
La distribucion binomial converge a la de Poisson para ensayos tendiendo
al innito mientras la media (np) se mantiene ja. Entonces la distribucion de
Poisson con parametro = np puede usarse como aproximacion a la distribucion
binomial si n 1 y p es sucientemente peque no. De acuerdo a dos reglas
empricas: la aproximacion es buena si p 0,05 o si n 100 y np 10.
Captulo 11
La Distribuci on de Poisson
11.1. Introducci on
La distribucion de Poisson, es una tambien conocida como una distribucion
de probablidad especial, como lo son, la Distribucion Binomial y la Distribucion
de Norma. Esto, ya que se tratan sucesos que pueden o no ocurrir (como el caso
de que caiga aguila o sol en una moneda), y por otro lado, la variable en X es
discreta (tomando valores enteros positivos). Otra forma como se les conocen a
estas distribuciones es por Procesos Aleatorios.
11.2. Denici on de la distribucion de Poisson.
Sea X una variable aleatoria discreta que puede tomar los valores 0, 1, 2, ...
de tal manera que la funcion de probabilidad de X este dada por:
f(x) = P(X = x) =

x
e

x!
, x = 0, 1, 2, ... (11.1)
donde es una constante positiva dada. (Esta distribucion lleva el nombre de
S.D. Poisson, quien la descubrio en la primera parte del siglo XIX). Algunas de
las propiedades mas importantes de esta distribucion se muestran en la Tabla
11.1.
Propiedades
Valor Medio =
Varianza
2
=
Desviacion Estandar =

Cuadro 11.1: Propiedades de la distribucion de Poisson.


41
42 CAP

ITULO 11. LA DISTRIBUCI

ON DE POISSON
11.3. Aplicaciones.
Ejercicio: Si la probabilidad de que un individuo sufra una mala reaccion a
partir de la inyeccion de un suero dado es de 0.001, determinar la probabilidad
de que de 2000 personas, (a) de que 3 personas, (b) mas de 2 personas,sufran
una mala reaccion.
Solucion: Sea X el n umero de personas que sufren una mala reaccion. X
se distribuye por medio de una distribucion de Bernoulli, pero como las malas
reacciones se supone que son eventos raros, podemos suponer que X se distribuye
bajo la distribucion Poisson, es decir:
f(x) = P(X = x) =

x
e

x!
,
= np = (2000)(0,001) = 2 (11.2)
(a)
P(X = 3) =
2
3
e
2
3!
= 0,180 (11.3)
(b)
P(X > 2) = 1 [P(X = 0) + P(X = 1) + P(X = 2)]
= 1
_
2
0
e
2
0!
+
2
1
e
2
1!
+
2
2
e
2
2!
_
= 1 5e
2
= 0,323 (11.4)
Una evaluacion exacta de las probabilidades utilizando el distribucion bino-
mial requerira mucho mas trabajo.
11.4. Substracci on de ruido.
La cuanticacion de ruido de una se nal en tiempo discreto y amplitud conti-
nua introducida por el proceso de cuanticacion (uno de los procesos que inter-
vienen en la conversion analogica-digital, que sigue al de muestreo y precede al
de codicacion), es conocida como ruido en la medicion. Y que resulta de igualar
los niveles de las muestras de amplitud continua a los niveles de cuanticacion
mas proximos. Una vez cuanticadas, las muestras podran ser codicadas ya
que siempre se podra establecer una correspondencia biunvoca entre cada nivel
de cuanticacion y un n umero entero. Para el caso del cuanticador ideal se
trata del unico error que introduce el proceso.
11.4. SUBSTRACCI

ON DE RUIDO. 43
Figura 11.1: La lnea roja corresponde con las muestras sin cuanticar (muestras
de entrada al cuanticador) de una se nal original sinusoidal sin dither, la verde
representa esas mismas muestras de entrada cuanticadas (salida del cuanti-
cador ideal) y la azul muestra el error de cuanticacion que resulta del proceso
de cuanticacion.
44 CAP

ITULO 11. LA DISTRIBUCI

ON DE POISSON
Captulo 12
Chi Cuadrada para evaluar
una distribuci on
12.1. Introducci on
En teora de la probabilidad una distribucion de probabilidad se llama con-
tinua si su funcion de distribucion es continua. Puesto que la funcion de dis-
tribucion de una variable aleatoria X viene dada por F
X
(x) = P(X x), la
denicion implica que en una distribucion de probabilidad continua X cumple
P[X = a] = 0 para todo n umero real a, esto es, la probabilidad de que X tome
el valor a es cero para cualquier valor de a. Si la distribucion de X es continua,
se llama a X variable aleatoria continua.
12.2. Chi cuadrada
En estadstica, la distribucion de Pearson, llamada tambien ji cuadrado o chi
cuadrado (
2
) es una distribucion de probabilidad continua con un parametro
k que representa los grados de libertad de la variable aleatoria.
Sean X1, X2, ..., X

variables aleatorias distribuidas normalmente indepen-


dientes con media cero y varianza uno. Considere la variable aleatoria:

2
=
2
1
+
2
1
+ ... +
2

(12.1)
donde
2
es llamda chi-cuadrada. Y se puede mostrar que para x 0
P(
2
x) =
1
2
/2
(/2)
_
x
0
u
/21
e
u/2
du (12.2)
y para P(
2
x) = 0 para x 0.
f(x) =
_
1
2
/2
(/2)
x
/21
e
x/2
: x > 0
0 : x 0
45
46CAP

ITULO12. CHI CUADRADAPARAEVALUAR UNADISTRIBUCI

ON
Se observa que la distribucion chi-cuadrada es un caso especial de la distri-
bucion gamma con = /2 y = 2. Por lo tanto,
= ,
2
= 2 (12.3)
Para grandes ( 30), se puede ver que
_
2
2

2 1 esta muy cerca


de la distribucion con valor medio 0 y varianza uno.
12.3. Chi cuadrada reducida
El distribucion chi-cuadrado reducida, es simplemente el chi-cuadrado divi-
dido por el n umero de grados de libertad:

2
red
=

2

=
1

_
1
2
/2
(/2)
x
/21
e
x/2
_
(12.4)
donde son los grados de libertad. La ventaja de la distribucion reducida de
chi-cuadrada, es que ya esta normalizada con el n umero de datos. A esto se le
conoce como la desviacion cuadratica media ponderada.
12.4. Ejemplo
El graco de la distribucion chi-cuadrada con cinco grados de libertad se
muestran en la gura:
Figura 12.1: Distribucion Chi-Cuadrada.
Encontrar los valores para
2
1
,
2
2
para el cual, las areas sombreadas de la derecha
es = 0,05 y de toda la area sombreada es = 0,05
Si el area sombreada de la derecha es 0,05, entonces el area a la izquierda
de
2
es (1 0, 05) = 0, 95, y
2
representa el 95
o
porciento,
2
0,95
. En segundo
lugar, ya que la distribucion no es simetrica, hay muchos valores para los que
el area sombreada Total = 0, 05. Por ejemplo, el area sombreada diestro podra
ser de 0,04, mientras que la zona de la mano izquierda es de 0,01. Es costumbre,
sin embargo, a menos que se especique lo contrario, para elegir las dos areas
12.5. PROBABILIDADES PARA CHI CUADRADA 47
iguales. En este caso, entonces, cada area = 0,025. Si el area sombreada de la
derecha es de 0,025, el area a la izquierda de
2
es 1 0, 025 = 0, 975 y
2
representa la
2
un porcentaje de 97, 5
o
, lo que
2
0,975
. Del mismo modo, si el
area sombreada de la izquierda es 0, 025, el area a la izquierda de
2
es 0,025
y
2
representa un porcentaje de
2
0,025
igual a 0,831. Por lo tanto, los valores
son 0, 831 y 12, 8.
12.5. Probabilidades para Chi cuadrada
La probabilidad de obtener un conjunto de N mediciones, {x
i
, y
i
}, es igual
al producto de las probabilidades para cada punto de la medicion:
P
{xi,yi}
=

N
P
G
=
_

N
1

2
_

1
2
N

i=0
_
y
i
f(x
i
)

i
_
2
_
(12.5)
48CAP

ITULO12. CHI CUADRADAPARAEVALUAR UNADISTRIBUCI

ON
Captulo 13
La maxima probabilidad
estadstica
13.1. Introducci on
La estimacion por maxima verosimilitud (conocida tambien como EMV y, en
ocasiones, MLE por sus siglas en ingles) es un metodo habitual para ajustar un
modelo y encontrar sus parametros. Fue recomendado, analizado y popularizado
por R. A. Fisher entre 1912 y 1922, aunque haba sido utilizado antes por Gauss,
Laplace, Thiele y F. Y. Edgeworth.
13.2. La funcion de maxima probabilidad estadsti-
ca.
Supongase que se tiene una muestra x
1
, x
2
, ..., x
n
de n observaciones inde-
pendientes extradas de una funcion de distribucion desconocida con funcion de
densidad (o funcion de probabilidad) f
0
(). Se sabe, sin embargo que f
0
pertene-
ce a una familia de dsitribuciones {f(|), }, llamada modelo parametrico,
de manera que f
0
corresponde a =
0
, que es el verdadero valor del parametro.
Se desea encontrar el valor

(o estimador) que este lo mas proximo posible al
verdadero valor
0
.
La idea de este metodo es el de encontrar primero la funcion de densidad con-
junta de todas las observaciones, que bajo condiciones de independencia, es:
f(x
1
, x
2
, x
3
, ....x
n
|) = f(x
1
|) f(x
2
|) f(x
n
|) (13.1)
Observando esta funcion bajo un angulo ligeramente distinto, se puede su-
poner que los valores observados x
1
, x
2
, ..., x
n
son jos mientras que puede
variar libremente. Esta es la funcion de verosimilitud:
49
50 CAP

ITULO 13. LA M

AXIMA PROBABILIDAD ESTAD

ISTICA
L(|x
1
, ..., x
n
) =
n

i=1
f(x
i
|) (13.2)
En la practica, se suele utilizar el logaritmo de esta funcion:

(|x
1
, ..., x
n
) = ln L =
n

i=1
f(x
i
|) (13.3)
El metodo de la maxima verosimilitud estima
0
buscando el valor de que
maximiza

(|x). Este es el llamado estimador de maxima verosimilitud (MLE)
de
0
:

mle
= argmax


(|x
1
, ..., x
n
). (13.4)
En ocasiones este estimador es una funcion explcita de los datos observados
x
1
, x
2
, ..., x
n
, pero muchas veces hay que recurrir a optimizaciones numericas.
Tambien puede ocurrir que el maximo no sea unico o no exista.
13.3. Ejemplos (caso discreto).
Supongase que se lanza una moneda sesgada al aire 80 veces. La muestra
resultante puede ser algo as como x
1
= H, x
2
= T, x
1
, ..., x
80
= T, y se cuenta
el n umero de caras, H. La probabilidad de que salga cara es p y la de que salga
cruz, 1 p (de modo que p es el parametro ). Supongase que se obtienen 49
caras y 31 cruces. Imagnese que la moneda se extrajo de una caja que contena
tres de ellas y que estas tienen probabilidades p iguales a 1/3, 1/2 y 2/3 aunque
no se sabe cual de ellas es cual.
A partir de los datos obtenidos del experimento se puede obtener saber cual
es la moneda con la maxima verosimilitud. Usando la funcion de probabilidad
de la distribucion binomial con una muestra de tama no 80, n umero de exitos
igual a 49 y distintos valores de p, la funcion de verosimilitud toma tres valores
siguientes:
Pr(H = 49|p) = 1/3) =
_
80
49
_
(1/3)
49
(1 1/3)
31
0,0000,
Pr(H = 49|p) = 1/2) =
_
80
49
_
(1/2)
49
(1 1/2)
31
0,0012,
Pr(H = 49|p) = 2/3) =
_
80
49
_
(2/3)
49
(1 2/3)
31
0,054, (13.5)
Bibliografa
[1] Leo Breiman, et. al.. The Statistical Properties of Freeway Trac. Trans-
portation Research. Vol. 11, pp.221-228, (1977).
[2] Karl Pearson, On the Laws of Inheritance in Man. Biometrika. Vol 3,
pp.131-190, (1903).
[3] M. Sivak y M. Flannagan, Fast-Rise Brake Lamp as a Collision-Prevention
Device Ergonomics. Vol 36, pp.391-395, (1993).
[4] A.J. Gross y V. Clark, Survival Distributions: Reliability Applications in
the Biomadical Services, John Wiley & Sons Inc, (1976).
[5] Jay L. Devore Probabilidad y Estadstica para Ingeniera y Ciencias, Inter-
national Thomson Editories, 4ta ed..
[6] R.L Burden, Numerical Analysis, Brooks/Cole, 9th ed.
[7] Schaums Outline of Probability and Statistics, Mc Graw Hill, Third Edi-
tion, (2009).
[8] C.C Chang, Error Analysis for Phys375, University of Maryland.
51

You might also like