You are on page 1of 8

Espacio Muestral: Conjunto de todos los resultados posibles de un experimento estadístico, se representa

con la letra “S”-> S={1,2,3,n}


Evento: Es un subconjunto del espacio muestral.
-Eventos mutuamente excluyentes: Dos eventos A y B son mutuamente excluyentes si
A ∩ B=ø , es decir si A y B no tienen elementos en común.
-Evento independientes: Dos eventos A y B son independientes si y sólo si P( A ∩ B)=P( A) P (B) . Por lo
tanto la probabilidad de que ocurran dos eventos independientes se calcula como el producto de sus
probabilidades individuales.
La ocurrencia de un evento no afecta la probabilidad de ocurrencia de otro.
-Evento cierto: Es el espacio muestral.
-Evento imposible: Es el conjunto vacío.
-Evento complementario: No ocurre A, o sea, ¬A
-Eventos no excluyentes: Cuando dos eventos se pueden presentar juntos.
-Eventos colectivamente exhaustivos: A U B es todo el espacio muestral por lo que se consideran todos los
resultados posibles de una prueba.

Función de densidad de Probabilidad: Py(x) de una variable aleatoria discreta X representa la probabilidad
de que dicha variable tome el valor y. es decir: Py(x) = P(X=y).
Propiedades:
1. P(X=y) >= 0 para todo x
2. ∑ Pyi(x) = 1

Desigualdad de Chebyshev: La desigualdad de Chebyshev es un resultado estadístico que ofrece una cota
inferior a la probabilidad de que el valor de una variable aleatoria con varianza finita esté a una cierta
distancia de su esperanza matemática o de su media. Equivalentemente, el teorema proporciona una cota
superior a la probabilidad de que los valores caigan fuera de esa distancia respecto a la media.
Teorema: Sea X una variable aleatoria con E(X)= μ y sea K un número real cualquiera mayor o igual a uno,
entonces

Regla de adición de probabilidades para dos eventos:


Dados A y B dos sucesos, A ∪ B es el suceso que ocurre cuando ocurre A, B, o los dos
simultáneamente. P(A∪B) = P(A) + P(B) - P(A∩B)
A = {1, 2, 3}; B = {2, 6} A ∪ B = {1, 2, 3, 6}

-Probabilidad conjunta: Es la probabilidad de ocurrencia de dos o más eventos. P(A⋂B)


-Probabilidad condicional: Probabilidad de que ocurra un evento A después de que se dé un evento B
P(A/B) = P(A^B) / P(B)
-Probabilidad marginal: Es la probabilidad de un evento simple A, es decir un evento de una sola
característica. P(A) = P(A∩B1) + P(A∩B2) + … + P(A∩Bn)
Teorema de Bayes:
Sean A1, A2, …, An un conjunto de sucesos mutuamente excluyentes y exhaustivos, y tales que la
probabilidad de cada uno de ellos es distinta de cero (0). Sea B un suceso cualquiera del que se conocen las
probabilidades condicionales
Variable aleatoria:
Sea E un evento y S su espacio muestral asociado con elementos {s1; s2; s3…… Sn}. Una variable aleatoria
X es una función que relaciona a cada elemento Sn con un valor numérico real. Según los resultados que
pueden las variables aleatorias se pueden clasificar en dos:
1 Variables Aleatorias Discretas: Una variable aleatoria es discreta si y solo si puede tomar una cantidad
finita o por lo menos infinita numerable de valores.
2 Variable Aleatoria Continua: En este caso los valore que la v.a puede tomar son todos los valores dentro
de un intervalo numérico el cual se puede tornar infinito no numerable.
El recorrido de una variable aleatoria es el conjunto de valores posibles que puede tomar la variable, finito,
infinito numerable, infinito no numerable.

Esperanza:
*Discreta:
Sea X una variable aleatoria discreta con función de probabilidades f(x). Entonces, el valor esperado de la
variable aleatoria X, el cual se representa por E(X), está definido por:

*Continua:

Varianza:
*Discreta:

*Continua:

ESTIMADORES

Estimador: un estimador es un estadístico (esto es, una función de la muestra) usado para estimar un
parámetro desconocido de la población.
Un ejemplo de estadístico es el estimador de media
Las variables aleatorias que corresponde a una población se denominan parámetros. Cuando las variables
aleatorias se refieren a una muestra o subconjunto de una población, se denominan estadísticos.
Parámetro: Un parámetro estadístico es aquel formado por una función establecida sobre los valores
numéricos de una comunidad.
Parámetro poblacional:Conjunto de datos que brindan información sobre una población. Por ejemplo: La
media poblacional, la varianza poblacional, etc. Generalmente tener certezas sobre los parámetros
poblaciones es complicado y costoso, sobre todo cuando las poblaciones son muy grandes, para este
problema se recurren a las inferencias muéstrales que se derivan del uso de estimadores.
Estimación Puntual: Es un método para estimar los parámetros de las distribuciones, a partir de los valores
obtenidos de un experimento. El resultado es el valor estimado.
Definición estimador: es una variable aleatoria que depende de la información de la muestra y se aproxima
al valor desconocido del parámetro. Se usa el valor estadístico para predecir el valor de un parámetro
poblacional de interés.
Propiedades de un buen estimador:
1. Ser insesgado: E(θθ ) = θ -> la esperanza del estimador es igual al valor estimado.
2. Ser consistente: un estimador es consistente, si se verifica que la probabilidad del estimador en valor
absoluto a estimar es menor que ε. P( |θθ − θ|< ε) = 1
3. Ser eficiente: Dado dos Estimadores θθ 1 Y θθ 2 diremos que es más eficiente el que tenga menos
varianza de ambos.Entonces la eficiencia Relativa será:
e(θθ 1,θθ 2)= V ¿ ¿
4. Ser suficiente: un estimador es suficiente cuando utiliza toda la información de la muestra. La media
muestral es un estimador suficiente porque utiliza todos los datos de la muestra

Estimadores Máximos Verosímiles: La idea fundamental de este método es tomar como estimación del
parámetro estudiado el valor que haga máxima la probabilidad de obtener la muestra observada.
La estimación por máxima verosimilitud es un método habitual para ajustar un modelo y encontrar sus
parámetros. Tomando una muestra aleatoria de n observaciones X1, X2,... Xn, de una VAD y si la función
de probabilidad P(Xi) es función de un solo parámetro (o) entonces la probabilidad de observar estos n
valores independientes de X es: P(X1, X2,...,Xn, o ) = P(x1).P(x2)...P(Xn) = L
Y si es VAC: L = f(X1,X2,...,Xn) = f(X1).f(X2)....f(Xn)
Ventajas:
*Produce estimadores suficientes
Tamaño de la muestra para un estimador proporción
z2a/ 2∗pq
n= d 2

La media muestral es un estimador insesgado de la media de la población (y lo es sea cual fuere la


distribución de la población) ya que:
si el parámetro a estimar es

y establecemos como estimador de

tendremos que luego la media muestral es un estimador insegado de la media


poblacional.

Estimación por intervalos:


A veces es conveniente obtener unos límites entre los cuales se encuentre el parámetro con un cierto nivel
de confianza, en este caso hablamos de estimación por intervalos.
● El nivel de confianza, C, indica, en porcentaje, con qué proporción el intervalo de confianza contiene el
parámetro estimado.
Intervalo de confianza: Un intervalo de confianza es un rango de valores, derivado de los estadísticos de la
muestra, que posiblemente incluya el valor de un parámetro de población desconocido.

Función de distribución Acumulada: Fx(x) de una variable aleatoria continúa X expresa la probabilidad de
que X tome un valor menor o igual que x, como función de x. Es decir:
Fx(x) = P(X <= x).
*Son estimadores asintóticamente insesgados de varianza mínima
Teorema del límite central:
Este teorema nos dice que si una muestra es lo bastante grande (generalmente cuando el tamaño de la
muestra n ≥ 30), sea cual sea la distribución de la media muestral, seguirá aproximadamente una distribución
normal.
Si �� es el promedio de una muestra de tamaño n de una población con media μy desvío estándar τ , entonces
la variable aleatoria z tiene una distribución aproximadamente normal estándar para n>=30:

Otra def para no poner los dos la misma:


Establece que cualquiera sea la forma que tenga la distribución poblacional con tal que tenga media µ y
varianza finita, la distribución de medias se aproxima a una normal si el tamaño de la muestra es n ≥ 30. Ya
que un incrementando el tamaño de la muestra permitirá disminuir el error de la estimación”.

Distribuciones de probabilidad:
Discretas:
-Distribución de Bernoulli: X~ Bernoulli (Éxito=Cte.) Esta distribución se utiliza para los casos en donde X
es una variable aleatoria discreta que mide el "número de éxitos", y se realiza un único experimento con dos
posibles resultados (éxito o fracaso), es decir su espacio muestral es S: {éxito=1, no éxito=0}
Formulas: F(X)= {P si X=1, q Si X=0) | E(X)= ∑ Xi * P(Xi) = P | V(X)= P*Q

-Poisson: Un experimento de Poisson consiste en contar el número de veces que ocurre un evento en un
intervalo de tiempo determinado o región. Este modelo se aplica cuando la frecuencia relativa del número de
eventos poco comunes que ocurren en una unidad de tiempo, área o volumen, la variable aleatoria representa
el número de eventos independientes que ocurren a una velocidad constante.
Características: • El experimento consiste en contar el número de eventos en una unidad de tiempo. • La
probabilidad de que ocurra un evento es la misma en todas las unidades. • El número de eventos que ocurren
en una unidad de medidas independiente es independiente del número que ocurren en otras unidades.

• Τ : la longitud de un intervalo del continuo que va a estudiarse.


• k : la cantidad de eventos que hay en ese intervalo.
• λ : la cantidad esperada de eventos por unidad de tiempo (intensidad o tasa).
-Distribución Hipergeométrica:

N = Tamaño de la población n = Tamaño de la muestra extraída k = Elementos favorables N -k = Elementos


que NO poseen la característica estudiada x=Cantidad de exitos entre los n elementos que se extraen
Se puede usar esta distribución cuando el muestreo es SIN reposición, se conoce la composición de la
población y se cumple que n > 0.05 N
-Distribución Binomial:
X ~ B (N, P) Se utiliza cuando es un mismo experimento que se repite muchas veces y cuando uno
de ellos es independiente del otro.

p: la probabilidad de que un elemento cumpla con la condición


n: la cantidad de elementos que hay en total.
Condiciones para poder usar binomial:
1) Se realizan n pruebas o ensayos 2)En cada prueba se presentan dos resultados, éxito o fracaso
3) Las pruebas son independientes estadísticamente 4)La probabilidad de éxito se mantiene
constante luego de cada prueba. Si se dan esas cuatro condiciones ⇒ X se distribuye B(n,p).
Para aplicar el método binomial el tamaño de la población debe ser GRANDE y el tamaño de
muestra PEQUEÑO

Continuas:
-Distribución uniforme:
Se dice que una variable aleatoria continua es uniforme entre a y b si el conjunto de sus valores
posibles es el intervalo [a;b] y todos esos valores tienen la misma probabilidad.
-Distribución normal:

El parámetro µ puede ser cualquier número real, y es, directamente, la media de la distribución. El parámetro
σ puede ser cualquier número real positivo, y es, directamente, el desvío estándar de la distribución.
Caracteristicas: -La distribución es simétrica alrededor de μ -La curva normal tiene forma de campana y un
solo pico en el centro de la distribución. - La curva normal desciende suavemente en ambas direcciones a
partir del valor central. Es asintótica, lo que quiere decir que la curva se acerca cada vez más al eje X pero
jamás llega a tocarlo
Distribucion normal estandar:

-Distribucion t de student:
Tiene características similares a la distribución normal, su diferencia principal radica en las áreas de los
extremos las cuales son más amplias, como consecuencia de que usualmente se trabaja con muestras
pequeñas. Esta distribución es recomendada cuando se requiere estimar la media poblacional y NO se
conoce la desviación estándar y por lo tanto, hay que estimarla, eso sí, siempre y cuando la distribución
original sea aproximadamente normal.

El parámetro ν es un número natural, y se conoce con el nombre de "grados de libertad"

-Distribución F de Fisher:
Aplicaciones: La distribución F se usa para intervalos de confianza de la razón de 2 varianzas poblacionales
y para probar la igualdad de 2 varianzas , este es un paso previo para realizar la prueba t de diferencia de
medias poblacionales.
Supuestos: Para aplicar la prueba de F se requiere que las muestras sean independientes y provengan de
poblaciones normales o aprox. normales.
Es una distribución de probabilidad de gran aplicación en la inferencia estadística , fundamentalmente en la
contrastación de la igualdad de varianzas de dos poblaciones normales, y , fundamentalmente en el análisis
de la varianza , técnica que permite detectar la existencia o inexistencia de diferencias significativas entre
muestras diferentes y que es, por tanto esencial , en todos aquellos casos en los que se quiere investigar la
relevancia de un factor en el desarrollo y naturaleza de una característica.

Función de verosimilitud para la distribución de Poisson:


1. Presentar la función de verosimilitud f(x) (probabilidad conjunta) 2. Aplicar ley natural a la función de
verosimilitud 3. Derivar dicha función respecto al parámetro que se desea estimar (poner sombrero) 4. Igualar
la función a 0 5. Despejar el estimador

Prueba de hipótesis:
El objetivo no es cuestionar el valor calculado del estadístico (muestral), sino hacer un
“juicio” con respecto a la diferencia entre estadístico de muestra y un valor planteado del parámetro.
Se lleva a cabo de la siguiente manera:
■ Escoger el nivel de significación (α), calculando los costos de cometer los errores I y II
■ Establecer la estadística de prueba, cuya distribución por muestreo es conocida.
■ Establecer la regla de decisión, supone determinar el o los valores críticos.
■ Calcular el estadístico de prueba y el desvío estándar del estimador.
■ Se decide si rechazar o no.
Las hipótesis pueden ser:
■ Simples: es aquella que contiene un estado o elemento del conjunto del parámetro.
■ Compuestas: es aquella que contiene dos o más estados o elementos del conjunto de parámetros.
○ Una forma cómoda de hacer una prueba es concentrar la atención en dos conjuntos de posibles valores del
parámetro:
■ Hipótesis Nula (H0): Se refiere a cualquier hipotesis que deseamos probar y se denota H0. El rechazo de
H0 conduce a la aceptacion de una hipotesis alternativa que se denota H1.
■ Hipótesis Alternativa (H1): Representa la pregunta que debe responderse, la teoria que debe probarse. La
hipotesis nula H0 anula o se opone a H1.
Ejemplos:
■ Prueba bilateral o a 2 colas: Supongamos que se produce una pieza que debe ser acoplada a otras para
armar una máquina. Su longitud debe ser de 2,5 cm. La pieza no debe ser ni corta ni larga.
● Entonces H0: μ0= 2,5 cm ● Entonces H1: μ1≠ 2,5 cm
■ Prueba unilateral (cola inferior): La cantidad de nicotina en los cigarrillos es de 25 miligramos o más. Una
nueva marca asegura que sus cigarrillos garantizan un contenido menor a 25 miligramos. Si se extrae una
muestra al azar de n cigarrillos de la nueva marca para comprobar su contenido de nicotina, las hipótesis
apropiadas serían:
● H0: μ0 >= 25 miligramos ● H1: μ1 < 25 miligramos
■ Prueba unilateral superior: Para construir un puente se necesitan cables de acero que tengan una
resistencia media a la rotura de más de 10000 libras. Se probarán n cables al azar de la marca a comprar y
serán apropiadas las hipótesis:
● H0: μ0<= 10000 libras a0= no compro ● H1: μ1> 10000 libras a1= compro
Conclusión del análisis. ■ Rechazo H0: A favor de H1 debido a evidencia suficiente en los datos. ■ No
rechazo H0: Debido a evidencia insuficiente en los datos.

Error tipo I: El error de tipo I también denominado error de tipo alfa (α) o falso positivo, es el error que se
comete cuando el investigador no acepta la hipótesis nula siendo ésta verdadera en la población.
Error tipo II: El error de tipo II también llamado error de tipo beta (β) o falso negativo, es el error que se
comete cuando el investigador no rechaza la hipótesis nula siendo ésta falsa en la población.Valor P:
P(aceptar H0|falsa)
Significancia: Es la probabilidad de que sea cierta la hipótesis alternativa (relación causaefecto). Se expresa
como 1-alfa : “se define como la probabilidad de tomar la decisión de rechazar la hipótesis nula cuando ésta
es verdadera”.P(rechazar H0|verdadera)
Potencia: Es la probabilidad de rechazar la hipótesis nula Ho cuando la hipótesis alternativa es verdadera (1
-error Beta). P(rechazar H0|falsa)= potencia

Valor P: El valor P nos permite estimar la solidez de la prueba para rechazar H0


Se lo conoce como el mejor valor que puede tomar α para que la decisión sea rechazar la Hipótesis nula. De
forma general para cualquier tipo de distribución la podemos calcular como Pvalor= 1 – φ (θObservado)
siendo θ un estimador observado/calculado de una distribución en general.

Aproximar las probabilidades binomiales utilizando la distribución normal.

Se debe cumplir que n >= 30 y n.p >= 5. Cuando más cercano está p a 0.5 más próximas son las
probabilidades de ambos modelos.
B (x,n,p) ≃ Z: (X i - np) / (√n.p.q)

Aproximación normal a una distribución Poisson


Se puede aproximar siempre y cuando el parámetro ⋋ ≥ 10. Se utiliza también la corrección de 0.5 P(Xi,⋋
) = Z [(Xi - ⋋ ) / √⋋ )]

You might also like