Professional Documents
Culture Documents
En el curso de estadística hemos visto diversos temas, en esta ocasión veremos los temas
como es las variables aleatorias, la definición de esta sus clasificaciones y los tipos, en el
segunda tema veremos lo que es distribución de probabilidad, en el cual también
analizaremos su definición, clasificaciones y uso, ya finalizando con el tercer tema
veremos estadística inferencial la cual será estudiada e investigada en el siguiente
documento
Variables aleatorias
Hasta ahora estamos trabajando con los resultados del experimento. Si ahora definimos
una variable como "n de caras que salen al lanzar una moneda al aire dos veces", que
denotaremos por X, podrán salir 0 caras, 1 cara ó 2 caras. Es una variable por que puede
tomar distintos valores y será aleatoria ya que los valores que toma los toma en función
del azar.
Obsérvese que en este momento podemos establecer una relación entre los posibles
resultados del experimento, los cuales definen W, y el conjunto de valores que puede
tomar la variable X. De esta manera establecemos la siguiente relación:
Resultado (c,c) de W implica que X= 2
Resultado (c,+) de W implica que X=1
Resultado (+,c) de W implica que X=1
Resultado (c,+) de W implica que X=1
Resultado (+,+) de W implica que X=0
Es decir, que de estar trabajando en el espacio de los resultados del experimento ahora
estamos trabajando con los resultados {0,1,2}. A la función que te permite pasar de los
resultados del experimento al conjunto {0,1,2} se le denomina variable aleatoria. Es una
variable aleatoria porque puede salir {0,1,2} aleatoriamente dependiendo del resultado
del experimento.
función de probabilidad
Lógicamente, una vez tenemos un suceso, nos preocupa saber si hay muchas o pocas
posibilidades de que al realizar la experiencia se haya verificado. Por lo tanto, sería
interesante el tener alguna función que midiera el grado de confianza a depositar en que
se verifique el suceso. A esta función la denominaremos función de probabilidad.
Lo que se hace para decir qué es y qué no es una función de probabilidad es construir una
serie de propiedades (denominadas axiomas) que se exigirán a una función para poder ser
catalogada como función de probabilidad. Y, ¿cuáles son estos axiomas? Pues los
siguientes:
Axioma 1: Para cualquier suceso A, la probabilidad debe ser mayor o igual que 0
Axioma 2: P(Ω) = 1
Axioma 3: Para sucesos Ai, de modo que cada par de sucesos no tengan ningún resultado
común, se verifica que:
De este modo, puede haber muchas funciones de probabilidad que se podrían asociar con
la experiencia.
El problema pasa entonces al investigador para decidir cual o cuales son las funciones de
probabilidad más razonables asociadas con la experiencia que está manejando.
Hay que advertir que el concepto de función de probabilidad solo tiene sentido para
variables aleatorias que toman un conjunto discreto de valores. Para variables aleatorias
continuas el concepto análogo es el de función de densidad.
Función de distribución.
Sea X una variable aleatoria definida sobre el espacio {R,B,P'} asociado al espacio
probabilístico {W,b,P}, llamamos función de distribución de la variable aleatoria X a la
función:
Volvamos al ejemplo del lanzamiento de las dos monedas. En base a los resultados ya
alcanzados podemos definir la función de distribución de la variable X “número de caras
al lanzar dos monedas como:
La grafica seria :
Esperanza Matemática
Sea X una variable aleatoria con distribución de probabilidad f(x). La media o valor
esperado de X es:
Como valor medio teórico de todos los valores que puede tomar la variable. Representa
una medida de centralización.
Varianza
Medida del cuadrado de la distancia promedio entre la media y cada elemento de la
población. Si X es una variable aleatoria con una distribución de probabilidad, f(x), y
media μ. La varianza de X es calculada por medio de:
Desviación estándar
Si la variable aleatoria X asume los valores x1, x2,…..xk, con iguales probabilidades,
entonces la distribución discreta uniforme es:
S = {éxito, fracaso}
Definimos a la variable aleatoria de Bernoulli de la siguiente forma:
E[I] = 0q +1p = p μI = p
Ejemplo:
X = {0,1,2,...,n}
Un ejemplo:
Una variable aleatoria x tiene una distribución binomial negativa y se denomina variable
aleatoria binomial negativa, si y solo si su distribución de probabilidad está dada por:
Equivalentemente, la probabilidad de que haya x fallos antes del primer éxito es:
S S S S S S SA
Sí denotamos;
x = el número de repeticiones del experimento necesarias para que ocurra un éxito por
primera y única vez = 8 lanzamientos
p = probabilidad de que aparezca una águila = p( éxito) = 2/3
q = probabilidad de que aparezca un sello = p(fracaso) = 1/3
=p(S)*p(S)*p(S)*p(S)*p(S)*p(S)*p(S)*p(A)
= q*q*q*q*q*q*q*p
= pqx−1
La fórmula a utilizar cuando se desee calcular probabilidades con esta distribución sería:
g(x; p) = pqx−1
Donde:
p(x) = probabilidad de que ocurra un éxito en el ensayo x por primeray única vez
p = probabilidad de éxito
q = probabilidad de fracaso
Donde:
e = 2.71828.....
λ = np que representa el número promedio de resultados por unidad de tiempo o
región.
Cuando se conocen n y p
Como valor término medio de la variable. Cuando se dice promedio, valor
promedio, media o esperanza matemática.
Estimado a partir de la media de una muestra de valores observados de la
variable.
La media, esperanza matemática, es:
E(x) = μ = λ
La varianza es:
σ2 = λ
La desviación es:
σ=λ
flujo elemental de sucesos es aquel que posee las tres propiedades siguientes:
El promedio de sucesos que ocurren en una Unidad de tiempo se llama intensidad del
flujo λ. Si la intensidad constante del flujo λ es conocida, la probabilidad de que ocurran
k sucesos de un flujo elemental en el tiempo t se determina por la fórmula de Poisson:
Para determinar la ley de una variable aleatoria continua, hay que calcular su densidad.
De manera equivalente, la ley de una variable continua se determina dando la
probabilidad de que ella pertenezca a un intervalo cualquiera. Es lo que hemos hecho
para nuestro ejemplo de base, el llamado a Random, que es una variable aleatoria
continua, de densidad . Una variable aleatoria continua de densidad , cae
entre y con una probabilidad igual a:
Como ya hemos observado para Random, la probabilidad de que una variable aleatoria
continua caiga en un punto cualquiera es nula.
En consecuencia:
lo mismo usar . Como en los casos discretos, debemos conocer algunos ejemplos
básicos. Las densidades se dan en un punto cualquiera de .
Ley uniforme.
Ley normal.
Las leyes exponenciales y normales constituyen el núcleo de las familias de leyes clásicas
que se encuentran más frecuentemente en estadística.
Ley de Weibull.
exponencial .
Ley beta.
Esta familia de leyes nos provee de modelos no uniformes para variables aleatorias
Ley log-normal.
Ley de Student.
Ley de Fisher.
Inferencia estadística
una vez observada la variable sobre los n individuos de la muestra, tendremos n valores
u observaciones x1, ..., xn. Un estadístico es una función de las variables aleatorias de la
muestra, en la cual no aparecen parámetros desconocidos. Un estadístico es por lo tanto
una variable aleatoria, y lo denotamos por T (X1, ..., Xn). El valor que toma el estadístico
una vez observada la muestra es T (x1, ..., xn). Al ser los estadísticos variable aleatorias,
presentarán distribuciones de probabilidad, a las que llamamos distribuciones de
muestreo. Si un estadístico lo usamos para estimar un parámetro desconocido de la
población (por ejemplo, la media μ, varianza σ2, etc.) lo llamaremos estimador de ese
parámetro. Al valor que toma una vez observada la muestra se le llama estimación puntual
del parámetro. Para cada parámetro habrá que encontrar "el mejor estimador", para
cometer en la estimación el menor error posible. El error de estimación depende
fundamentalmente de la variabilidad poblacional y del tamaño de la muestra.
Ejemplos de estadísticos son los siguientes:
Distribuciones de muestreo
Media muestral
Sea X1, ..., Xn una m.a.s. de una población X con E(X) = μ y V ar(X) = σ2. El
estadístico medio muestral hemos visto que se define como:
Varianza muestral
Sea X1, ..., Xn una m.a.s. de una población X con E(X) = μ y V ar(X) = σ2. El
estadístico varianza muestral se define como:
Sea X1, ..., Xn1 una m.a.s de una población X, e Y1, ..., Yn2 una m.a.s. de una
población Y. Suponemos que las poblaciones X e Y son independientes y con
distribuciones normales N (μ1, σ21) y N (μ2, σ22) respectivamente. Se pueden
presentar los siguientes casos:
Estimación de parámetros
Estimación puntual
Estimador + cuantil=(ESTIMADOR)
Son las probabilidades que asocian cada uno de los valores que toman las
variables.
La estadística inferencial es la rama de la estadística la cual se basa en la
probabilidad la cual este tipo de estadística permitirá al investigador recolectar
datos importantes para resolver situaciones y problemas presentados en un
campo laboral.
Bibliografía
barrios, a. (5 de junio de 2018). slideshare. Obtenido de
https://es.slideshare.net/thomas669/ensayo-de-estadstica-inferencial