You are on page 1of 23

INTRODUCCION

En el curso de estadística hemos visto diversos temas, en esta ocasión veremos los temas
como es las variables aleatorias, la definición de esta sus clasificaciones y los tipos, en el
segunda tema veremos lo que es distribución de probabilidad, en el cual también
analizaremos su definición, clasificaciones y uso, ya finalizando con el tercer tema
veremos estadística inferencial la cual será estudiada e investigada en el siguiente
documento
Variables aleatorias

una variable aleatoria es un valor numérico que corresponde a un resultado de un


experimento aleatorio. Algunos ejemplos son: número de caras obtenidas al lanzar seis
veces una moneda, número de llamadas que recibe un teléfono durante una hora, tiempo
de fallo de una componente eléctrica, etc.
Veamos un ejemplo. Partamos que estamos trabajando con un experimento que consiste
en lanzar una moneda dos veces. Los posibles resultados del experimento son:

(c,c) (c,+) (+,c) (+,+),

y por tanto el espacio muestral asociado vendrá dado por


W={(c,c),(c,+),(+,c),(+,+)}

Hasta ahora estamos trabajando con los resultados del experimento. Si ahora definimos
una variable como "n de caras que salen al lanzar una moneda al aire dos veces", que
denotaremos por X, podrán salir 0 caras, 1 cara ó 2 caras. Es una variable por que puede
tomar distintos valores y será aleatoria ya que los valores que toma los toma en función
del azar.
Obsérvese que en este momento podemos establecer una relación entre los posibles
resultados del experimento, los cuales definen W, y el conjunto de valores que puede
tomar la variable X. De esta manera establecemos la siguiente relación:
 Resultado (c,c) de W implica que X= 2
 Resultado (c,+) de W implica que X=1
 Resultado (+,c) de W implica que X=1
 Resultado (c,+) de W implica que X=1
 Resultado (+,+) de W implica que X=0
Es decir, que de estar trabajando en el espacio de los resultados del experimento ahora
estamos trabajando con los resultados {0,1,2}. A la función que te permite pasar de los
resultados del experimento al conjunto {0,1,2} se le denomina variable aleatoria. Es una
variable aleatoria porque puede salir {0,1,2} aleatoriamente dependiendo del resultado
del experimento.
función de probabilidad

Lógicamente, una vez tenemos un suceso, nos preocupa saber si hay muchas o pocas
posibilidades de que al realizar la experiencia se haya verificado. Por lo tanto, sería
interesante el tener alguna función que midiera el grado de confianza a depositar en que
se verifique el suceso. A esta función la denominaremos función de probabilidad.

La función de probabilidad será, pues, una aplicación entre el conjunto de resultados y el


conjunto de números reales, que asignará a cada suceso la probabilidad de que se
verifique.

La notación: P(A) significará: probabilidad de que se verifique el suceso A.

Pero claro, de funciones de probabilidad asociadas a priori a una experiencia aleatoria


podría haber muchas.

Lo que se hace para decir qué es y qué no es una función de probabilidad es construir una
serie de propiedades (denominadas axiomas) que se exigirán a una función para poder ser
catalogada como función de probabilidad. Y, ¿cuáles son estos axiomas? Pues los
siguientes:

Sea S el conjunto de sucesos:

Axioma 1: Para cualquier suceso A, la probabilidad debe ser mayor o igual que 0
Axioma 2: P(Ω) = 1
Axioma 3: Para sucesos Ai, de modo que cada par de sucesos no tengan ningún resultado
común, se verifica que:

De este modo, puede haber muchas funciones de probabilidad que se podrían asociar con
la experiencia.

El problema pasa entonces al investigador para decidir cual o cuales son las funciones de
probabilidad más razonables asociadas con la experiencia que está manejando.

Hay que advertir que el concepto de función de probabilidad solo tiene sentido para
variables aleatorias que toman un conjunto discreto de valores. Para variables aleatorias
continuas el concepto análogo es el de función de densidad.

Caracterización de una variable aleatoria.

Cuando se caracterizaron las variables estadísticas se definieron la función de distribución


y la función de cuantía para las variables estadísticas discretas y la función de distribución
y la función de densidad para las variables estadísticas continuas. Para la caracterización
de las variables aleatorias la estructura de trabajo es la misma. La diferencia que nos
encontraremos será básicamente dos: en primer lugar, en vez de trabajar con frecuencias
absolutas o relativas, trabajaremos con las probabilidades; y, en segundo lugar, para el
tratamiento de las variables aleatorias continuas, dejaremos de utilizar las marcas de clase
y operaremos con las integrales.

Función de distribución.

Sea X una variable aleatoria definida sobre el espacio {R,B,P'} asociado al espacio
probabilístico {W,b,P}, llamamos función de distribución de la variable aleatoria X a la
función:

x R - -- - F(x) = P[X x] F(x) : R -- -- R Î ® £ ®


Como se puede observar, a cada X o R se le hace corresponder un F(x) que por definición
es igual a la probabilidad de que la variable tome un valor menor o igual que el valor
observado. La definición coincide exactamente con la realizada para el caso de una
variable estadística sustituyendo la frecuencia relativa por la probabilidad. Gráficamente
la función de distribución para una variable aleatoria discreta tiene la forma escalonada
tal y como vimos cuando se estudió la variable estadística.

Volvamos al ejemplo del lanzamiento de las dos monedas. En base a los resultados ya
alcanzados podemos definir la función de distribución de la variable X “número de caras
al lanzar dos monedas como:

La grafica seria :

Existen dos tipos de variables aleatorias las cuales son:


Variables aleatorias discretas.
La variable aleatoria X se dice que es discreta si los números asignados a los sucesos
elementales de E son puntos aislados. Sus posibles valores constituyen un conjunto finito
o infinito numerable. Por ejemplo, supongamos el experimento consistente en lanzar tres
veces una moneda no trucada; si consideramos la variable aleatoria X=” número de caras
obtenidas en los tres lanzamientos”, los valores que puede tomar esta variable aleatoria
son finitos (0,1,2,3).

Distribución de probabilidad discreta

Lista de los resultados de un experimento con las probabilidades que se esperan, se


asociarán a esos resultados.
Si x es una variable aleatoria discreta, la función dada por f(x) para cada x contenida en
el intervalo de x se denomina función de probabilidad, o distribución de
probabilidad, de x.
Una función puede fungir como la distribución de probabilidad de una variable aleatoria
discreta x si y sólo si sus valores, f(x), cumple las condiciones siguientes:
a) f(x) ≥0 para cada valor contenido en su dominio
b) Σ f(x) = 1, donde la sumatoria se extiende sobre todos los valores contenido en su
dominio.

Función de distribución acumulativa

Es la distribución acumulada F(x) de una variable aleatoria discreta X, cuya distribución


de probabilidad
es f(x), es:

Esperanza Matemática
Sea X una variable aleatoria con distribución de probabilidad f(x). La media o valor
esperado de X es:

μ = E(X ) =Σxf (x)


Significado de la esperanza

Como valor medio teórico de todos los valores que puede tomar la variable. Representa
una medida de centralización.

Varianza
Medida del cuadrado de la distancia promedio entre la media y cada elemento de la
población. Si X es una variable aleatoria con una distribución de probabilidad, f(x), y
media μ. La varianza de X es calculada por medio de:

Desviación estándar

1. Es una medida de dispersión de la misma dimensión física de la variable y que


representa por medio de la letra σ.
2. Raíz cuadrada positiva de la varianza; una medida de la dispersión, expresada en las
mismas unidades que los datos originales y no en las unidades cuadradas de la varianza.

Distribución de Probabilidad Uniforme

Si la variable aleatoria X asume los valores x1, x2,…..xk, con iguales probabilidades,
entonces la distribución discreta uniforme es:

Distribución de Probabilidad Bernoulli

El Ensayo de Bernoulli consiste en realizar un solo experimento (ensayo) en el cual


existen únicamente dos posibles resultados:

S = {éxito, fracaso}
Definimos a la variable aleatoria de Bernoulli de la siguiente forma:

0; Si el resultado del ensayo es “fracaso”.


I=
1; Si el resultado del ensayo es “éxito”.

A ésta última se le conoce como “función indicadora”

El proceso de Bernoulli debe cumplir las siguientes propiedades:


 El experimento consiste en n intentos repetidos.
 Los resultados de cada uno de los intentos pueden clasificarse como un éxito o
como un fracaso.
 La probabilidad de éxito, representada por p permanece constante para todos los
intentos.
 Los intentos repetidos son independientes

La media o valor esperado de la variable aleatoria de Bernoulli es:

E[I] = 0q +1p = p μI = p

La varianza de la variable aleatoria de Bernoulli es:

V[I] = E[I2] - E[I] 2

V[I] = (02q +12 p) - p2 = p - p2 = p(1 - p) = pq

Ejemplo:

En la fabricación de neumáticos se seleccionan, de manera aleatoria, tres de ellos. Se hace


una inspección de los neumáticos y se clasifican en defectuosos y no defectuosos.
El proceso de fabricación produce en total el 20% de neumáticos defectuosos. Se
considera un éxito la obtención de un artículo defectuoso

El número de éxitos es una variable aleatoria que asume valores enteros de


cero a tres.
􀁠 Se obtienen las probabilidades para los posibles resultados.
Con:
p = 0.20
q = 0.80

Se calculan las probabilidades respectivas:

P[(ND)(ND)(ND)] = P(ND)P(ND)P(ND) = (0.80)(0.80)(0.80) = 0.512


P[(D)(ND)(ND)] = P(D)P(ND)P(ND) = (0.20)(0.80)(0.80) = 0.128
P[(ND)(D)(ND)] = P(ND)P(D)P(ND) = (0.80)(0.20)(0.80) = 0.128
P[(ND)(ND)(D)] = P(ND)P(ND)P(D) = (0.80)(0.80)(0.20) = 0.128
Σ = 0.384
P[(ND)(D)(D)] = P(ND)P(D)P(D) = (0.80)(0.20)(0.20) = 0.032
P[(D)(ND)(D)] = P(D)P(ND)P(D) = (0.20)(0.80)(0.20) = 0.032
P[(D)(D)(ND)] = P(D)P(D)P(ND) = (0.20)(0.20)(0.80) = 0.032
Σ = 0.096
P[(DDD)] = P(D)P(D)P(D) = (0.20)(0.20)(0.20) = 0.008

Distribución de probabilidad binomial

Consiste en realizar n veces el ensayo de Bernoulli, de manera independiente uno de otro


suponiendo que la probabilidad de éxito de p permanece constante en cada de uno de
ellos.

Definimos la variable binominal de la siguiente de forma:

Al realizar el ensayo binomial, la variable aleatoria puede adquirir los valores:

X = {0,1,2,...,n}

Supongamos que se realizan n ensayos de Bernoulli y la probabilidad de éxito es p, la


distribución de X para n =2, 3 ó 4 es:

Supongamos que se obtienen consecutivamente primero los X éxitos y luego


los n-x fracasos:
Para encontrar el número de formas en que se pueden obtener X éxitos y n-x
fracasos, recordemos la expresión para el cálculo de permutaciones con grupos de
objetos iguales:

Hagamos m1=x y m2=n-x:

Finalmente, tenemos que el término px qn-x se repite un numero de


veces igual a C(n,x):

En forma resumida la distribución de la variable binomial:


La distribución binomial aparece cuando estamos interesados en el número de veces que
un suceso A ocurre (éxitos) en n intentos independientes de un experimento.

P. ej.: # de caras en n lanzamientos de una moneda


.
Si A tiene probabilidad p (probabilidad de éxito) en un intento, entonces 1-p es la
probabilidad de que A no ocurra (probabilidad de fracaso).

Un ejemplo:

Experimento aleatorio: n = 3 lanzamientos de una moneda. Probabilidad de éxito en cada


lanzamiento (cara) = p. Probabilidad de fracaso en cada lanzamiento (cruz) = 1- p = q.

Distribución de probabilidad binomial negativa

Una variable aleatoria x tiene una distribución binomial negativa y se denomina variable
aleatoria binomial negativa, si y solo si su distribución de probabilidad está dada por:

Media ,varianza y desviacion tipica de una distribucion binomial negativa


Ejemplo: disponemos de una moneda trucada con probabilidad de cara igual a p=0.25. La
lanzamos hasta que obtenemos 2 caras. La distribución del número de lanzamientos x
será:

Distribución de probabilidad geométrica

Si repetidos intentos independientes pueden resultar en un éxito con una probabilidad p


y en un fracaso con una probabilidad de q = 1−p, entonces la distribución de probabilidad
de la variable aleatoria X, el número del intento en el cual ocurre el primer éxito es:

(x; p) = pqx−1 x = 1, 2, 3,..........

Equivalentemente, la probabilidad de que haya x fallos antes del primer éxito es:

g( x; q)= qxp = 1-P)xp


Se lanza al aire una moneda cargada 8 veces, de tal manera que la probabilidad de que
aparezca águila es de 2/3, mientras que la probabilidad de que aparezca sello es de
1/3.Determine la probabilidad de que en el último lanzamiento aparezca un águila.

Si nosotros trazamos un diagrama de árbol que nos represente los 8 lanzamientos de la


moneda, observaremos que la única rama de ese árbol que nos interesa es aquella en
donde aparecen 7 sellos seguidos y por último una águila; como se muestra a
continuación:

S S S S S S SA

Sí denotamos;

x = el número de repeticiones del experimento necesarias para que ocurra un éxito por
primera y única vez = 8 lanzamientos
p = probabilidad de que aparezca una águila = p( éxito) = 2/3
q = probabilidad de que aparezca un sello = p(fracaso) = 1/3

Entonces la probabilidad buscada sería:

 P (aparezca una águila en el último lanzamiento)

=p(S)*p(S)*p(S)*p(S)*p(S)*p(S)*p(S)*p(A)
= q*q*q*q*q*q*q*p
= pqx−1
La fórmula a utilizar cuando se desee calcular probabilidades con esta distribución sería:

g(x; p) = pqx−1
Donde:

p(x) = probabilidad de que ocurra un éxito en el ensayo x por primeray única vez
p = probabilidad de éxito
q = probabilidad de fracaso

Resolviendo el problema de ejemplo;


x = 8 lanzamientos necesarios para que aparezca por primera vez un águila
p = 2/3 probabilidad de que aparezca un águila
q = 1/3 probabilidad de que aparezca un sello
p(x=8) = (1/3)8-1(2/3) =0.0003048
Distribución de Probabilidad Poisson

 Los experimentos que resultan en valores numéricos de una variable aleatoria X,


misma que representa el número de resultados durante un intervalo de tiempo
dado o en una región específica, se llaman experimentos de Poisson.
 En intervalo de tiempo dado puede ser de cualquier duración.
 La región específica puede ser un segmento de línea, un área, un volumen, o tal
vez un pedazo de material.
Un experimento de Poisson surge del proceso de Poisson y tiene las siguientes
propiedades:
 El número de resultados que ocurren en un intervalo de tiempo o región
específicos es independiente del número que ocurre en cualquier otro intervalo
disjunto de tiempo o región del espacio disjunto. De esta manera se dice que el
proceso de Poisson no tiene memoria.
 La probabilidad de que un resultado sencillo ocurra en un intervalo de tiempo
muy corto o en una región pequeña es proporcional a la longitud del intervalo de
tiempo o al tamaño de la región y no depende del número de resultados que
ocurren fuera de este intervalo o región.
 La probabilidad de que más de un resultado ocurra en ese intervalo de tiempo tan
corto o en esa región tan pequeña es despreciable. El número X de resultados que
ocurren en un experimento de Poisson se llama variable aleatoria de Poisson y
su distribución de probabilidad recibe el nombre de distribución de Poisson.

La distribución de probabilidad de la variable aleatoria de Poisson X, que representa el


número de resultados que ocurren en un intervalo de tiempo dado o en una región
específica, es:

Donde:
e = 2.71828.....
λ = np que representa el número promedio de resultados por unidad de tiempo o
región.

El parámetro λ se puede obtener de tres maneras, que son las siguientes:

 Cuando se conocen n y p
 Como valor término medio de la variable. Cuando se dice promedio, valor
promedio, media o esperanza matemática.
 Estimado a partir de la media de una muestra de valores observados de la
variable.
 La media, esperanza matemática, es:

E(x) = μ = λ
 La varianza es:
σ2 = λ
 La desviación es:
σ=λ

flujo elemental de sucesos es aquel que posee las tres propiedades siguientes:

1. Calidad de estacionario. La propiedad de calidad de estacionario consiste en que la


probabilidad de que ocurran x sucesos en cada intervalo de tiempo depende solamente
del número x y de la duración t del intervalo de tiempo y no depende del comienzo de
su cuenta. En otras palabras, la probabilidad de aparición de x sucesos en un intervalo
de tiempo de duración t depende sólo de x y de t.
2. Propiedad de “ausencia de efecto posteriori”. La propiedad de "ausencia de
efecto posteriori" se caracteriza porque la probabilidad de que ocurran x sucesos en
cualquier intervalo de tiempo no depende de que hayan ocurrido o no los sucesos en
los instantes de tiempo que preceden al comienzo del intervalo considerado. En otras
palabras, la prehistoria del flujo no influye en la probabilidad de que los sucesos ocurran
en un futuro próximo.
3. Propiedad de ordinario se llama simple o elemental (de Poisson). La propiedad
de ordinario se caracteriza por que la aparición de dos o más sucesos en un intervalo
pequeño de tiempo es prácticamente imposible. En otras palabras, la probabilidad de
que ocurra más de un suceso en un pequeño intervalo de tiempo es despreciable en
comparación con la probabilidad de que ocurra solamente un suceso.

El promedio de sucesos que ocurren en una Unidad de tiempo se llama intensidad del
flujo λ. Si la intensidad constante del flujo λ es conocida, la probabilidad de que ocurran
k sucesos de un flujo elemental en el tiempo t se determina por la fórmula de Poisson:

Variables aleatorias continuas.

Una variable aleatoria X es continua si su función de distribución es una función


continua. En la práctica, se corresponden con variables asociadas con experimentos en
los cuales la variable medida puede tomar cualquier valor en un intervalo: mediciones
biométricas, intervalos de tiempo, áreas, etc.

Para determinar la ley de una variable aleatoria continua, hay que calcular su densidad.
De manera equivalente, la ley de una variable continua se determina dando la
probabilidad de que ella pertenezca a un intervalo cualquiera. Es lo que hemos hecho
para nuestro ejemplo de base, el llamado a Random, que es una variable aleatoria
continua, de densidad . Una variable aleatoria continua de densidad , cae
entre y con una probabilidad igual a:

mientras más grande sea la densidad en un segmento, mayores serán las


probabilidades de que caiga en ese segmento, lo cual justifica el término ``densidad''.

Como ya hemos observado para Random, la probabilidad de que una variable aleatoria
continua caiga en un punto cualquiera es nula.

En consecuencia:

Observemos también que el modificar una densidad en un número finito o numerable de


puntos, no cambia de las integrales sobre los segmentos y en consecuencia la ley de
probabilidad asociada tampoco cambia. El valor que toma la densidad en un punto

particular no es importante. Por ejemplo, Random tiene como densidad a pero da

lo mismo usar . Como en los casos discretos, debemos conocer algunos ejemplos
básicos. Las densidades se dan en un punto cualquiera de .

Ley uniforme.

La ley uniforme sobre un intervalo es la ley de ``sorteos al azar'' en un intervalo.

Si son dos números reales, la ley uniforme sobre el intervalo se denota

por . Ella tiene por densidad a la función:

Random es una variable aleatoria de ley uniforme .


Ley exponencial.

Las leyes exponenciales modelan intervalos de tiempo o duraciones aleatorias, como la

vida de una partícula en física. La ley exponencial de parámetro se denota

por . Ella tiene por densidad a la función:

Ley normal.

La ley normal, ley de Gauss o Laplace-Gauss es la más célebre de las leyes de


probabilidad. Su éxito y su omnipresencia en las ciencias de la vida vienen del Teorema
del Límite Centrado que estudiaremos más adelante. La ley normal de

parámetros y se denota por . Ella tiene por densidad a la


función:

Las leyes exponenciales y normales constituyen el núcleo de las familias de leyes clásicas
que se encuentran más frecuentemente en estadística.

Ley de Weibull.

La ley de Weibull de parámetros y , denotada por , tiene por


densidad:

Se la emplea como modelo de duración aleatoria, principalmente en fiabilidad (duración

de funcionamiento sin roturas, duración de reparación). La ley es la ley


.
Ley gamma.

La ley gamma de parámetros y , denotada por tiene por


densidad:

donde es la ``función gamma'', definida por .

Para entero, y , la ley es llamada ley de chi

cuadrado con grados de libertad y se denota por . Esta es la ley de la suma de

los cuadrados de variables aleatorias independientes de ley , se emplea para

las varianzas empíricas de muestras gaussianas. La ley es la ley

exponencial .

Ley beta.

La ley beta de parámetros y , denotada por tiene por densidad:

Esta familia de leyes nos provee de modelos no uniformes para variables aleatorias

acotadas. Si unas variables aleatorias independientes siguen la ley uniforme ,


sus estadígrafos de orden (valores reordenadas) siguen leyes beta.

Ley log-normal.

La ley log-normal es la ley de una variable aleatoria, de valores positivos,

cuyo logaritmo sigue la ley . Ella tiene por densidad a la función:


En medicina, numerosos parámetros fisiológicos son modelados empleando leyes log-
normales.

Ley de Student.

La ley de Student con grados de libertad, , es la ley de la relación

, donde las variables aleatorias e son independientes, de ley , de

ley . Ella tiene por densidad a la función:

Se la utiliza para estudiar la media empírica de una muestra gaussiana.

Ley de Fisher.

La ley de Fisher de parámetros y (enteros positivos) es la ley de la

relación , donde e son dos variables aleatorias independientes

de leyes y respectivamente. Ella tiene por densidad a la función:

Se la emplea para comparar las varianzas de muestras gaussianas.

Inferencia estadística

La inferencia estadística estudia cómo sacar conclusiones generales para toda


la población a partir del estudio de una muestra, y el grado de fiabilidad o
significación de los resultados obtenidos.
Muestra aleatoria simple. Estadísticos muestrales

Sea X la variable aleatoria de interés en la población, con función de probabilidad o


densidad f (x; θ), donde θ denota el parámetro o parámetros desconocidos. Una muestra
aleatoria simple (m.a.s.) de tamaño n es un conjunto de variables X1, ..., Xn tales que:
- X1, ..., Xn son independientes
- X1, ..., Xn son idénticamente distribuidas, con la misma distribución que la variable
poblacional X.

una vez observada la variable sobre los n individuos de la muestra, tendremos n valores
u observaciones x1, ..., xn. Un estadístico es una función de las variables aleatorias de la
muestra, en la cual no aparecen parámetros desconocidos. Un estadístico es por lo tanto
una variable aleatoria, y lo denotamos por T (X1, ..., Xn). El valor que toma el estadístico
una vez observada la muestra es T (x1, ..., xn). Al ser los estadísticos variable aleatorias,
presentarán distribuciones de probabilidad, a las que llamamos distribuciones de
muestreo. Si un estadístico lo usamos para estimar un parámetro desconocido de la
población (por ejemplo, la media μ, varianza σ2, etc.) lo llamaremos estimador de ese
parámetro. Al valor que toma una vez observada la muestra se le llama estimación puntual
del parámetro. Para cada parámetro habrá que encontrar "el mejor estimador", para
cometer en la estimación el menor error posible. El error de estimación depende
fundamentalmente de la variabilidad poblacional y del tamaño de la muestra.
Ejemplos de estadísticos son los siguientes:

Distribuciones de muestreo

 Media muestral
Sea X1, ..., Xn una m.a.s. de una población X con E(X) = μ y V ar(X) = σ2. El
estadístico medio muestral hemos visto que se define como:
 Varianza muestral
Sea X1, ..., Xn una m.a.s. de una población X con E(X) = μ y V ar(X) = σ2. El
estadístico varianza muestral se define como:

 Diferencia de medias muestrales

Sea X1, ..., Xn1 una m.a.s de una población X, e Y1, ..., Yn2 una m.a.s. de una
población Y. Suponemos que las poblaciones X e Y son independientes y con
distribuciones normales N (μ1, σ21) y N (μ2, σ22) respectivamente. Se pueden
presentar los siguientes casos:

Estimación de parámetros

 Estimación puntual

Las estimaciones puntuales de los parámetros se obtienen a partir de una muestra


aleatoria simple X1; : : : ; Xn de la variable X. Si calculamos el valor del estimador
a partir de distintas muestras, los resultados que obtendremosserán diferentes. Es
decir, los estimadores, al estar construidos a partir de muestras aleatorias, son
aleatorios y en consecuencia, tienen una distribución. La distribución de los
estimadores se denomina distribución en el muestreo.
Describimos a continuación los estimadores para la proporción (en distribución
Binomial) y para la media y la varianza (en distribución Normal) y sus respectivas
distribuciones en el muestreo, que serán tenidas en cuenta a la hora de construir los
intervalos de confianza.
 Estimación por intervalos de confianza
En algunas ocasiones, no sólo estamos interesados en dar una estimación puntual del valor
del parámetro desconocido, y el objetivo se centra en obtener un rango de valores entre los
que se encuentre el parámetro de la distribución con una cierta probabilidad, es decir, un
intervalo de confianza.
Construiremos intervalos de confianza para la proporción p en la distribución Binomial
para la media μ en la distribución Normal. Los estimadores que hemos introducido para la
proporción y la media (ˆp y X, respectivamente) son simétricos y podemos calcular o
aproximar su error típico. La fórmula general para el cálculo de intervalos de confianza
será:

Estimador + cuantil=(ESTIMADOR)

 Intervalos de confianza para la proporción p


Consideremos ˆp, proporción muestral, como estimador de p. A partir de la ecuación (4)
podemos construir un intervalo de confianza de nivel (cobertura) (1 − α) para p:
CONCLUSIONES

 Una distribución de probabilidad para una variable aleatoria discreta es un


listado mutuamente excluyente de todos los resultados posibles para esa variable
aleatoria, tal que una probabilidad particular de ocurrencia esté asociada con
cada resultado.

 Son las probabilidades que asocian cada uno de los valores que toman las
variables.
 La estadística inferencial es la rama de la estadística la cual se basa en la
probabilidad la cual este tipo de estadística permitirá al investigador recolectar
datos importantes para resolver situaciones y problemas presentados en un
campo laboral.
Bibliografía
barrios, a. (5 de junio de 2018). slideshare. Obtenido de
https://es.slideshare.net/thomas669/ensayo-de-estadstica-inferencial

torre, a. (2010). tablas estadisticas . callao: arcangel.

zuta, j. (5 de junio de 2018). scribd. Obtenido de


https://es.scribd.com/doc/90903142/Conclusion-de

You might also like