Professional Documents
Culture Documents
Función de densidad de Probabilidad: Py(x) de una variable aleatoria discreta X representa la probabilidad
de que dicha variable tome el valor y. es decir: Py(x) = P(X=y).
Propiedades:
1. P(X=y) >= 0 para todo x
2. ∑ Pyi(x) = 1
Desigualdad de Chebyshev: La desigualdad de Chebyshev es un resultado estadístico que ofrece una cota
inferior a la probabilidad de que el valor de una variable aleatoria con varianza finita esté a una cierta
distancia de su esperanza matemática o de su media. Equivalentemente, el teorema proporciona una cota
superior a la probabilidad de que los valores caigan fuera de esa distancia respecto a la media.
Teorema: Sea X una variable aleatoria con E(X)= μ y sea K un número real cualquiera mayor o igual a uno,
entonces
Esperanza:
*Discreta:
Sea X una variable aleatoria discreta con función de probabilidades f(x). Entonces, el valor esperado de la
variable aleatoria X, el cual se representa por E(X), está definido por:
*Continua:
Varianza:
*Discreta:
*Continua:
ESTIMADORES
Estimador: un estimador es un estadístico (esto es, una función de la muestra) usado para estimar un
parámetro desconocido de la población.
Un ejemplo de estadístico es el estimador de media
Las variables aleatorias que corresponde a una población se denominan parámetros. Cuando las variables
aleatorias se refieren a una muestra o subconjunto de una población, se denominan estadísticos.
Parámetro: Un parámetro estadístico es aquel formado por una función establecida sobre los valores
numéricos de una comunidad.
Parámetro poblacional:Conjunto de datos que brindan información sobre una población. Por ejemplo: La
media poblacional, la varianza poblacional, etc. Generalmente tener certezas sobre los parámetros
poblaciones es complicado y costoso, sobre todo cuando las poblaciones son muy grandes, para este
problema se recurren a las inferencias muéstrales que se derivan del uso de estimadores.
Estimación Puntual: Es un método para estimar los parámetros de las distribuciones, a partir de los valores
obtenidos de un experimento. El resultado es el valor estimado.
Definición estimador: es una variable aleatoria que depende de la información de la muestra y se aproxima
al valor desconocido del parámetro. Se usa el valor estadístico para predecir el valor de un parámetro
poblacional de interés.
Propiedades de un buen estimador:
1. Ser insesgado: E(θθ ) = θ -> la esperanza del estimador es igual al valor estimado.
2. Ser consistente: un estimador es consistente, si se verifica que la probabilidad del estimador en valor
absoluto a estimar es menor que ε. P( |θθ − θ|< ε) = 1
3. Ser eficiente: Dado dos Estimadores θθ 1 Y θθ 2 diremos que es más eficiente el que tenga menos
varianza de ambos.Entonces la eficiencia Relativa será:
e(θθ 1,θθ 2)= V ¿ ¿
4. Ser suficiente: un estimador es suficiente cuando utiliza toda la información de la muestra. La media
muestral es un estimador suficiente porque utiliza todos los datos de la muestra
Estimadores Máximos Verosímiles: La idea fundamental de este método es tomar como estimación del
parámetro estudiado el valor que haga máxima la probabilidad de obtener la muestra observada.
La estimación por máxima verosimilitud es un método habitual para ajustar un modelo y encontrar sus
parámetros. Tomando una muestra aleatoria de n observaciones X1, X2,... Xn, de una VAD y si la función
de probabilidad P(Xi) es función de un solo parámetro (o) entonces la probabilidad de observar estos n
valores independientes de X es: P(X1, X2,...,Xn, o ) = P(x1).P(x2)...P(Xn) = L
Y si es VAC: L = f(X1,X2,...,Xn) = f(X1).f(X2)....f(Xn)
Ventajas:
*Produce estimadores suficientes
Tamaño de la muestra para un estimador proporción
z2a/ 2∗pq
n= d 2
Función de distribución Acumulada: Fx(x) de una variable aleatoria continúa X expresa la probabilidad de
que X tome un valor menor o igual que x, como función de x. Es decir:
Fx(x) = P(X <= x).
*Son estimadores asintóticamente insesgados de varianza mínima
Teorema del límite central:
Este teorema nos dice que si una muestra es lo bastante grande (generalmente cuando el tamaño de la
muestra n ≥ 30), sea cual sea la distribución de la media muestral, seguirá aproximadamente una distribución
normal.
Si �� es el promedio de una muestra de tamaño n de una población con media μy desvío estándar τ , entonces
la variable aleatoria z tiene una distribución aproximadamente normal estándar para n>=30:
Distribuciones de probabilidad:
Discretas:
-Distribución de Bernoulli: X~ Bernoulli (Éxito=Cte.) Esta distribución se utiliza para los casos en donde X
es una variable aleatoria discreta que mide el "número de éxitos", y se realiza un único experimento con dos
posibles resultados (éxito o fracaso), es decir su espacio muestral es S: {éxito=1, no éxito=0}
Formulas: F(X)= {P si X=1, q Si X=0) | E(X)= ∑ Xi * P(Xi) = P | V(X)= P*Q
-Poisson: Un experimento de Poisson consiste en contar el número de veces que ocurre un evento en un
intervalo de tiempo determinado o región. Este modelo se aplica cuando la frecuencia relativa del número de
eventos poco comunes que ocurren en una unidad de tiempo, área o volumen, la variable aleatoria representa
el número de eventos independientes que ocurren a una velocidad constante.
Características: • El experimento consiste en contar el número de eventos en una unidad de tiempo. • La
probabilidad de que ocurra un evento es la misma en todas las unidades. • El número de eventos que ocurren
en una unidad de medidas independiente es independiente del número que ocurren en otras unidades.
Continuas:
-Distribución uniforme:
Se dice que una variable aleatoria continua es uniforme entre a y b si el conjunto de sus valores
posibles es el intervalo [a;b] y todos esos valores tienen la misma probabilidad.
-Distribución normal:
El parámetro µ puede ser cualquier número real, y es, directamente, la media de la distribución. El parámetro
σ puede ser cualquier número real positivo, y es, directamente, el desvío estándar de la distribución.
Caracteristicas: -La distribución es simétrica alrededor de μ -La curva normal tiene forma de campana y un
solo pico en el centro de la distribución. - La curva normal desciende suavemente en ambas direcciones a
partir del valor central. Es asintótica, lo que quiere decir que la curva se acerca cada vez más al eje X pero
jamás llega a tocarlo
Distribucion normal estandar:
-Distribucion t de student:
Tiene características similares a la distribución normal, su diferencia principal radica en las áreas de los
extremos las cuales son más amplias, como consecuencia de que usualmente se trabaja con muestras
pequeñas. Esta distribución es recomendada cuando se requiere estimar la media poblacional y NO se
conoce la desviación estándar y por lo tanto, hay que estimarla, eso sí, siempre y cuando la distribución
original sea aproximadamente normal.
-Distribución F de Fisher:
Aplicaciones: La distribución F se usa para intervalos de confianza de la razón de 2 varianzas poblacionales
y para probar la igualdad de 2 varianzas , este es un paso previo para realizar la prueba t de diferencia de
medias poblacionales.
Supuestos: Para aplicar la prueba de F se requiere que las muestras sean independientes y provengan de
poblaciones normales o aprox. normales.
Es una distribución de probabilidad de gran aplicación en la inferencia estadística , fundamentalmente en la
contrastación de la igualdad de varianzas de dos poblaciones normales, y , fundamentalmente en el análisis
de la varianza , técnica que permite detectar la existencia o inexistencia de diferencias significativas entre
muestras diferentes y que es, por tanto esencial , en todos aquellos casos en los que se quiere investigar la
relevancia de un factor en el desarrollo y naturaleza de una característica.
Prueba de hipótesis:
El objetivo no es cuestionar el valor calculado del estadístico (muestral), sino hacer un
“juicio” con respecto a la diferencia entre estadístico de muestra y un valor planteado del parámetro.
Se lleva a cabo de la siguiente manera:
■ Escoger el nivel de significación (α), calculando los costos de cometer los errores I y II
■ Establecer la estadística de prueba, cuya distribución por muestreo es conocida.
■ Establecer la regla de decisión, supone determinar el o los valores críticos.
■ Calcular el estadístico de prueba y el desvío estándar del estimador.
■ Se decide si rechazar o no.
Las hipótesis pueden ser:
■ Simples: es aquella que contiene un estado o elemento del conjunto del parámetro.
■ Compuestas: es aquella que contiene dos o más estados o elementos del conjunto de parámetros.
○ Una forma cómoda de hacer una prueba es concentrar la atención en dos conjuntos de posibles valores del
parámetro:
■ Hipótesis Nula (H0): Se refiere a cualquier hipotesis que deseamos probar y se denota H0. El rechazo de
H0 conduce a la aceptacion de una hipotesis alternativa que se denota H1.
■ Hipótesis Alternativa (H1): Representa la pregunta que debe responderse, la teoria que debe probarse. La
hipotesis nula H0 anula o se opone a H1.
Ejemplos:
■ Prueba bilateral o a 2 colas: Supongamos que se produce una pieza que debe ser acoplada a otras para
armar una máquina. Su longitud debe ser de 2,5 cm. La pieza no debe ser ni corta ni larga.
● Entonces H0: μ0= 2,5 cm ● Entonces H1: μ1≠ 2,5 cm
■ Prueba unilateral (cola inferior): La cantidad de nicotina en los cigarrillos es de 25 miligramos o más. Una
nueva marca asegura que sus cigarrillos garantizan un contenido menor a 25 miligramos. Si se extrae una
muestra al azar de n cigarrillos de la nueva marca para comprobar su contenido de nicotina, las hipótesis
apropiadas serían:
● H0: μ0 >= 25 miligramos ● H1: μ1 < 25 miligramos
■ Prueba unilateral superior: Para construir un puente se necesitan cables de acero que tengan una
resistencia media a la rotura de más de 10000 libras. Se probarán n cables al azar de la marca a comprar y
serán apropiadas las hipótesis:
● H0: μ0<= 10000 libras a0= no compro ● H1: μ1> 10000 libras a1= compro
Conclusión del análisis. ■ Rechazo H0: A favor de H1 debido a evidencia suficiente en los datos. ■ No
rechazo H0: Debido a evidencia insuficiente en los datos.
Error tipo I: El error de tipo I también denominado error de tipo alfa (α) o falso positivo, es el error que se
comete cuando el investigador no acepta la hipótesis nula siendo ésta verdadera en la población.
Error tipo II: El error de tipo II también llamado error de tipo beta (β) o falso negativo, es el error que se
comete cuando el investigador no rechaza la hipótesis nula siendo ésta falsa en la población.Valor P:
P(aceptar H0|falsa)
Significancia: Es la probabilidad de que sea cierta la hipótesis alternativa (relación causaefecto). Se expresa
como 1-alfa : “se define como la probabilidad de tomar la decisión de rechazar la hipótesis nula cuando ésta
es verdadera”.P(rechazar H0|verdadera)
Potencia: Es la probabilidad de rechazar la hipótesis nula Ho cuando la hipótesis alternativa es verdadera (1
-error Beta). P(rechazar H0|falsa)= potencia
Se debe cumplir que n >= 30 y n.p >= 5. Cuando más cercano está p a 0.5 más próximas son las
probabilidades de ambos modelos.
B (x,n,p) ≃ Z: (X i - np) / (√n.p.q)