You are on page 1of 9

RESUMEN FORMULAS METODOS ESTADISTICOS

Muy a menudo, cuando tenemos un conjunto finito de datos de observación (muestra), es


de interés estimar el promedio de la muestra (media muestral) y una medida de su
variabilidad o dispersión (varianza muestral) siendo la raíz cuadrada de esta ultima, la
incertidumbre aleatoria correspondiente al conjunto de datos (desviación estándar
muestral).
𝑛 𝑛
1 2 1
𝑥̅ = ∑ 𝑥𝑖 𝑆𝑥 = ∑(𝑥𝑖 − 𝑥̅ )2
𝑛 𝑛
𝑖=1 𝑖=1

Coeficiente de variación.
𝜎
𝐶. 𝑂. 𝑉 = 𝑥̅

Matemáticas de la Probabilidad
 Axioma 1: Para cada evento 𝐸 en un espacio de muestra 𝑆, hay una probabilidad, es
decir :
𝑃(𝐸) ≥ 0
 Axioma 2: La probabilidad de cierto evento 𝑆 es:
𝑃(𝑆) = 1.0
 Axioma 3: Finalmente, para dos eventos 𝐸1 y 𝐸2 que se excluyen mutuamente se
tiene lo siguiente:
𝑃(𝐸1 ∪ 𝐸2 ) = 𝑃(𝐸1 ) + P(𝐸2 )
• Como un evento 𝐸 y su complemento 𝐸̅ son mutuamente excluyentes, obtenemos
sobre la base de la ecuación 2.3:
𝑃(𝐸 ∪ 𝐸̅ ) = 𝑃(𝐸) + 𝑃(𝐸̅ )
• pero como 𝐸 ∪ 𝐸̅ = 𝑆, tenemos, sobre la base de la ecuación 2.2, 𝑃(𝐸 ∪ 𝐸̅ ) =
𝑃(𝑆) = 1.0. Por lo tanto, obtenemos la primera relación útil:
𝑃(𝐸̅ ) = 1 − 𝑃(𝐸)
• De manera más general, si dos eventos 𝐸1 y 𝐸2 no son mutuamente exclusivos, la
regla de adición es la siguiente:
𝑃(𝐸1 ∪ 𝐸2 ) = 𝑃(𝐸1 ) + P(𝐸2 ) − 𝑃(𝐸1 𝐸2 )

𝑃(𝐸1 |𝐸2 ) = 𝐿𝑎 𝑝𝑟𝑜𝑏𝑎𝑏𝑖𝑙𝑖𝑑𝑎𝑑 𝑑𝑒 𝐸1 𝑎𝑠𝑢𝑚𝑖𝑒𝑛𝑑𝑜 𝑙𝑎 𝑜𝑐𝑢𝑟𝑟𝑒𝑛𝑐𝑖𝑎


𝑑𝑒 𝐸2 , 𝑜 𝑠𝑖𝑚𝑝𝑙𝑒𝑚𝑒𝑛𝑡𝑒 𝑙𝑎 𝑝𝑟𝑜𝑏𝑎𝑏𝑖𝑙𝑖𝑑𝑎𝑑 𝑑𝑒 𝐸1 𝑑𝑎𝑑𝑜
𝐸2 .
• Finalmente, con la normalización apropiada, obtenemos la probabilidad
condicional:
𝑃(𝐸1 𝐸2 )
𝑃(𝐸1 |𝐸2 ) =
𝑃(𝐸2 )

• Si X es una variable aleatoria, su distribución de probabilidad siempre puede ser


descrita por su función de distribución acumulativa (CDF), que se denota como:
𝐹𝑥 ≡ 𝑃(𝑋 ≤ 𝑥), 𝑝𝑎𝑟𝑎 𝑡𝑜𝑑𝑜 𝑥
• Por lo tanto, para una variable aleatoria continua, la ley de probabilidad se describe
en términos de la función de densidad de probabilidad (PDF) denotada como 𝑓𝑥 (𝑥) de
manera que la probabilidad de 𝑋 en el intervalo [a, b] es:
𝑏
𝑃(𝑎 < 𝑋 ≤ 𝑏) = ∫ 𝑓𝑥 (𝑥) 𝑑𝑥
𝑎

• Por lo tanto, si 𝑋 es una variable aleatoria discreta con PMF, 𝑝𝑥 (𝑥𝑖 ), su valor
medio, denominado 𝐸(𝑋), es:

𝐸(𝑋) = ∑ 𝑥𝑖 𝑝𝑥 (𝑥𝑖 )
𝑥𝑖

• Mientras que, si 𝑋 es una variable aleatoria continua con PDF, 𝑓𝑥 (𝑥), su valor
medio es:

𝐸(𝑋) = ∫ 𝑥𝑓𝑥 (𝑥)𝑑𝑥
−∞

• Si se definen desviaciones relativas al valor medio, entonces una medida adecuada


de la dispersión es la desviación. Para una variable discreta 𝑋 aleatoria con PMF 𝑝𝑥 (𝑥𝑖 ), la
varianza de 𝑋 es:
𝑉𝑎𝑟(𝑋) = ∑(𝑥𝑖 − 𝜇𝑥 )2 𝑝𝑥 (𝑥𝑖 )
• En la que 𝜇𝑥 ≡ 𝐸(𝑋), podríamos observar que ésta es la media ponderada de las
desviaciones cuadradas de la media. Por lo tanto, para una 𝑋 continua con PDF 𝑓𝑥 (𝑥), la
varianza de 𝑋 es:

𝑉𝑎𝑟(𝑋) = ∫ (𝑥 − 𝜇𝑥 )2 𝑓𝑥 (𝑥)𝑑𝑥
−∞

Distribución Gaussiana o Normal


1 1 𝑥−𝜇 2
𝑓𝑥 (𝑥) = exp [− ( ) ] −∞<𝑥 <∞
𝜎√2𝜋 2 𝜎
donde, 𝜇 y 𝜎 son los parámetros de la distribución.
• Una distribución de probabilidad Gaussiana con los parámetros 𝜇 = 0 y 𝜎 = 1.0 se
conoce como Distribución Normal Estándar y se denomina apropiadamente 𝑁(0,1). Su
PDF es por lo tanto:
1 1⁄ )𝑥 2
𝑓𝑥 (𝑥) = 𝑒 −( 2
√2𝜋
𝑏−𝜇 𝑎−𝜇
𝑃(𝑎 < 𝑥 ≤ 𝑏) = 𝛷 ( )−𝛷( )
𝜎 𝜎
Distribución Lognormal
Si una variable aleatoria X tiene una distribución lognormal, su PDF es:

1 1 𝑙𝑛 𝑥 − 𝜆 2
𝑓𝑥 = exp [− ( ) ] 𝑥≥0
√2𝜋 (𝜁𝑥) 2 𝜁

donde 𝜆 = 𝐸(ln 𝑥) y 𝜁 = √𝑉𝑎𝑟(ln 𝑥) son los parámetros de la distribución, lo que


significa que estos parámetros son, respectivamente, la media y la desviación estándar de
𝑙𝑛 𝑥
• Para calcular 𝜆 y 𝜁 se utilizan las siguientes formulas:
1
𝜆 = ln 𝜇𝑥 − 𝜁 2
2
𝜎𝑥 2
𝜁 2 = 𝑙𝑛 [1 + ( ) ]
𝜇𝑥
• Además, por definición la mediana, en lugar de la media, se utiliza a menudo para
diseñar el valor central de una variable aleatoria Lognormal. Por definición la mediana 𝑥𝑚
es 𝑃(𝑋 ≤ 𝑥𝑚 ), por lo tanto, para la distribución Lognormal esto significa:

ln 𝑥𝑚 − 𝜆
𝛷( )
𝜁

La Secuencia Bernoulli y La Distribución Binomial


1. En cada prueba, solo hay dos posibilidades: la ocurrencia y la no ocurrencia de un
evento.
2. La probabilidad de ocurrencia del evento en cada prueba es constante.
3. Los ensayos son estadísticamente independientes.
4. En la secuencia de Bernoulli, si 𝑋 es el número aleatorio de ocurrencias de un
evento entre n ensayos, en el que la probabilidad de ocurrencia del evento en cada ensayo
es 𝑝 y la probabilidad correspondiente de no ocurrencia es (1 − 𝑝), entonces la
probabilidad de exactamente 𝑥 ocurrencias entre los 𝑛 ensayos se rige por el binomial PMF
de la siguiente manera:
𝑛
𝑃(𝑋 = 𝑥) = ( ) 𝑝 𝑥 (1 − 𝑝)𝑛−𝑥
𝑥
donde 𝑛 y 𝑝 son los parámetros.
• Además, se conoce como el coeficiente binomial:
𝑛 𝑛!
( )=
𝑥 𝑥! (𝑛 − 𝑥)!
• La correspondiente CDF es:
𝑛
𝐹𝑥 (𝑥) = ( ) 𝑝𝑘 (1 − 𝑝)𝑛−𝑘
𝑘
La Distribución Geométrica
• En una secuencia Bernoulli, el número de pruebas hasta que se produce un evento
específico por primera vez se rige por la distribución geométrica. Podríamos observar que
si el evento ocurre por primera vez en la prueba n-ésimo, no debe ocurrir este evento en
ninguna de las pruebas anteriores (n-1). Por lo tanto, si N es la variable aleatoria que
representa el número de ensayos hasta la ocurrencia del evento, entonces:
𝑃(𝑁 = 𝑛) = 𝑝𝑞 𝑛−1 𝑛 = 1,2, …
donde 𝑞 = (1 − 𝑝).
• El tiempo medio de recurrencia, que se conoce popularmente en la ingeniería como
el período de retorno (promedio) es:

𝑇̅ = 𝐸(𝑇) = ∑ 𝑡 ∗ 𝑝𝑞 𝑡−1 = 𝑝(1 + 2𝑞 + 3𝑞 2 + ⋯ )


𝑡=1

Distribución Binomial Negativa


• El PMF geométrico es la ley de probabilidad que rige el número de juicios, o
unidades de tiempo discretas, hasta la primera ocurrencia y evento en una escuadra de
Bernoulli. El número de unidades de tiempo (o pruebas) hasta que una ocurrencia posterior
del mismo evento se rige por la distribución binomial negativa. Es decir, si k es el número
de unidades de tiempo hasta la ocurrencia k del evento en una serie de pruebas Bernoulli,
entonces:
𝑛 − 1 𝑘 𝑛−𝑘
𝑃(𝑇𝑘 = 𝑛) = ( )𝑝 𝑞 𝑛 = 𝑘, 𝑘 + 1
𝑘−1
El proceso de Poisson y la Distribución de Poisson
1. Un evento puede ocurrir al azar y en cualquier momento del tiempo o en cualquier
punto del espacio.
2. La ocurrencia (s) de un evento en un intervalo de tiempo (o espacio) dado, es
estadísticamente independiente de la ocurrencia en cualquier otro intervalo no superpuesto.
3. 3. La probabilidad de ocurrencia de un evento en un intervalo ∆𝑡 es proporcional a
∆𝑡, y puede ser dada por v∆𝑡, donde v es la tasa media de ocurrencia del evento (asumida
como constante).
4. 4. La probabilidad de dos o más ocurrencias en ∆𝑡 es insignificante (de órdenes más
altas de ∆𝑡 ).
 Sobre la base de estos supuestos, el número de ocurrencias estadísticamente
independientes de un evento en 𝑡 (tiempo o espacio) se rige por el PMF de Poisson, es
decir, si 𝑋 es el número de ocurrencias en un intervalo de tiempo (o espacio) (0, 𝑡),
entonces:
(𝑣𝑡)𝑥 −𝑣𝑡
𝑃(𝑋𝑡 = 𝑥) = 𝑒 𝑥 = 0,1,2, …
𝑥!
donde 𝑣 es la tasa media de ocurrencia

Distribución Exponencial
• si las ocurrencias de un evento constituyen un Proceso de Poisson, el tiempo de
recurrencia sería descrito por la distribución exponencial.
• EL CDF de esta distribución es:
𝐹𝑇1 (𝑡) = 𝑃(𝑇1 ≤ 𝑡) = 1 − 𝑒 −𝑣𝑡

• Y su PDF:
𝑑𝐹
𝑓𝑇1 (𝑡) = = 𝑣𝑒 −𝑣𝑡
𝑑𝑡
• Por supuesto, la distribución exponencial también es útil como una función de
probabilidad de propósito general. Vimos esto como se ilustró anteriormente para describir
la vida útil de las máquinas de soldar. En general, el PDF de la distribución exponencial es:

𝑓𝑥 (𝑥) = 𝜆𝑒 −𝜆𝑥
donde 𝜆 es un parámetro constante. La CDF correspondiente sería:

𝐹𝑥 (𝑥) = 1 − 𝑒 −𝜆𝑥 𝑥≥0


𝐹𝑥 (𝑥) = 0 𝑥<0
La media y la varianza de 𝑋 son, respectivamente:
1 1
𝜇𝑥 = 𝜆 y 𝜎𝑥 2 = 𝜆2

Distribución Gamma
• En general, la Distribución Gamma para una variable aleatoria X tiene la siguiente
PDF:
𝑣(𝑣𝑥)𝑘−1 −𝑣𝑥
𝑓𝑋 (𝑥) = 𝑒 𝑥≥0
𝛤(𝑘)
=0 𝑥<0
• Donde v y k son los parámetros de la distribución, y 𝛤(𝑘) y es la función Gamma.

𝛤(𝑘) = ∫ 𝑥 𝑘−1 𝑒 −𝑥 𝑑𝑥 , 𝑘 > 1,0
0

• La media y varianza de la Distribución Gamma, ecuación 3.42, son


respectivamente:
𝑘 𝑘
𝜇𝑥 = 𝑦 𝜎𝑥 2 =
𝑣 𝑣2
• Por lo tanto, se tiene que el CDF de 𝑇𝑘 es:
∞ 𝑘−1
(𝑣𝑡)𝑥 −𝑣𝑡
𝐹𝑇𝑘 (𝑡) = ∑ 𝑃(𝑋𝑡 = 𝑥) = 1 − ∑ 𝑒
𝑥!
𝑥=𝑘 𝑥=0

• Tomando el derivado de la CDF anterior, se puede demostrar que el PDF de 𝑇𝑘 es el


siguiente:
𝑣(𝑣𝑡)𝑥
𝑓𝑇𝑘 (𝑡) = (𝑘−1)! 𝑒 −𝑣𝑡 , 𝑡≥0

• La distribución gamma antedicha con el número entero k-ésima se conoce también


como Distribución de Erlang. En este caso, el tiempo medio hasta que la ocurrencia k de un
evento es:
𝑘
𝐸(𝑇𝑘 ) =
𝑣
• y su variación es:
𝑘
𝑉𝑎𝑟(𝑇𝑘 ) =
𝑣2
• Podemos ver que para k=1, es decir, durante el tiempo hasta la primera ocurrencia
de un evento, la ecuación 3.44 se reduce a la distribución exponencial.

• Como una extensión de ecuación 3.42, el PDF de los tres parámetros para una
variable aleatoria X, se puede expresar como:
𝑣[𝑣(𝑥 − 𝛾)𝑘−1 [−𝑣(𝑥−𝑦)]
𝑓𝑋 (𝑥) = 𝑒 , 𝑥≥𝛾
𝛤(𝑘)
• en la que v, 𝑘 ≥ 1,0 y 𝛾 son los tres parámetros de la distribución. Observamos que
el ecuación 3.45 se reduce a la ecuación 3.42 si 𝛾 = 0.
• La media y la varianza de X son:
𝑘 𝑘
𝜇𝑋 = +𝛾 𝜎𝑋 2 =
𝑣 𝑣2
La Distribución Beta
• La mayoría de las distribuciones de probabilidad son para variables aleatorias cuyo
rango de valores es ilimitado en una o ambas direcciones.
• En algunas aplicaciones de Ingeniería, puede haber problemas en los que existan
valores límite inferior y superior finitos de las variables aleatorias. En estos casos, serían
apropiadas distribuciones de probabilidad con límites inferior y superior finitos.
• La Distribución Beta es una de las pocas distribuciones apropiadas para una variable
aleatoria cuyo rango de valores posibles está limitado, digamos entre 𝑎 y 𝑏. Su PDF está
dado por:
1 (𝑥 − 𝑎)𝑞−1 (𝑏 − 𝑥)𝑟−1
𝑓𝑥 (𝑥) = 𝑎≤𝑥≤𝑏
𝐵(𝑞, 𝑟) (𝑏 − 𝑎)𝑞+𝑟−1
𝑓𝑥 (𝑥) = 0 𝑒. 𝑜. 𝑐
• En el que 𝑞 y 𝑟 son los parámetros de la distribución, y 𝐵(𝑞, 𝑟) es la función Beta.
1
𝐵(𝑞, 𝑟) = ∫ 𝑥 𝑞−1 (1 − 𝑥)𝑟−1 𝑑𝑥
0

• que se relaciona con la función gamma de la ecuación 3.43 como sigue:


𝛤(𝑞)𝛤(𝑟)
𝐵(𝑞, 𝑟) =
𝛤(𝑞 + 𝑟)
• La probabilidad asociada a una Distribución Beta puede evaluarse en términos de la
función Beta incompleta, que se define como:
𝑥
𝐵𝑥 (𝑞, 𝑟) = ∫ 𝑦 𝑞−1 (1 − 𝑦)𝑟−1 𝑑𝑦 0 < 𝑥 < 1,0
0

• y los valores de la relación de función Beta incompleta 𝐵𝑥 (𝑞, 𝑟)/𝐵(𝑞, 𝑟) han sido
tabulados. En particular, la CDF de la Distribución Beta Estándar es la siguiente:
𝑥
1 𝐵𝑥 (𝑞, 𝑟)
𝐹𝑥 (𝑥) = ∫ 𝑥 𝑞−1 (1 − 𝑥)𝑟−1 𝑑𝑥 =
𝐵(𝑞, 𝑟) 0 𝐵(𝑞, 𝑟)
• Por lo tanto, la proporción de función Beta incompleta es la CDF de la Distribución
Beta Estándar, que denotamos como:
𝐵𝑥 (𝑞, 𝑟)
𝛽(𝑥|𝑞, 𝑟) =
𝐵(𝑞, 𝑟)

Covarianza y Correlación
• Cuando hay dos variables aleatorias X e Y, puede haber una relación entre las
variables. En particular, la presencia o ausencia de una relación estadística lineal se
determina de la siguiente manera:
• Primero, observamos el segundo momento conjunto de X e Y como:
∞ ∞

𝐸(𝑋𝑌) = ∫ ∫ 𝑥𝑦𝑓𝑋,𝑌 (𝑥, 𝑦)𝑑𝑥𝑑𝑦


−∞ −∞

• donde si x e Y son estadísticamente independientes, la ecuación 3.56 se convierte


en:
∞ ∞

𝐸(𝑋𝑌) = ∫ ∫ 𝑥𝑦𝑓𝑋 (𝑥)𝑓𝑌 (𝑦)𝑑𝑥𝑑𝑦


−∞ −∞
∞ ∞

= ∫ 𝑥𝑓𝑋 (𝑥)𝑑𝑥 ∫ 𝑦𝑓𝑌 (𝑦)𝑑𝑦 = 𝐸(𝑋)𝐸(𝑌)


−∞ −∞

• El segundo momento central conjunto es la covarianza de X e Y, es decir:


𝑐. 𝑜. 𝑣(𝑋, 𝑌) = 𝐸[(𝑋 − 𝜇𝑋 )(𝑌 − 𝜇𝑌 ) = 𝐸(𝑋𝑌) − 𝐸(𝑋)𝐸(𝑌)]
• Por lo tanto, a la luz de la ecuación 3.57, c.𝑜. 𝑣 (𝑋, 𝑌) = 0 si X e Y son
estadísticamente independientes.
• La 𝑐. 𝑜. 𝑣 (𝑋, 𝑌) es una medida del grado de relación lineal entre dos variables
aleatorias X e Y. Para fines prácticos, sin embargo, es preferible utilizar la covarianza
normalizada, o coeficiente de correlación, que se define como:
𝑐. 𝑜. 𝑣(𝑋, 𝑌)
𝜌=
𝜎𝑋 𝜎𝑌
• Ahora, si las variables aleatorias básicas X e y son continuas, la CDF de Z sería:
−1
∞ 𝑔

𝐹𝑍 (𝑧) = ∬ 𝑓𝑋,𝑌 (𝑥, 𝑦)𝑑𝑥𝑑𝑦 = ∫ ∫ 𝑓𝑋,𝑌 (𝑥, 𝑦)𝑑𝑥𝑑𝑦


𝑔(𝑥,𝑦)≤𝑧 −∞ −∞

• donde 𝑔−1 = 𝑔−1 (𝑧, 𝑦). Cambiando la variable de integración de x a z, la integral


antedicha se convierte en:
∞ 𝑧
𝑑𝑔−1
𝐹𝑍 (𝑧) = ∫ ∫ 𝑓𝑋,𝑌 (𝑔−1 , 𝑦) | | 𝑑𝑧𝑑𝑦
𝑑𝑧
−∞ −∞