You are on page 1of 4

Formulário de Estatística – Distribuições de Probabilidade

n
v.a discreta → E ( X ) = µ x = ∑ xi ⋅ p ( xi ) = µ
i =1
Expectância:
v.a. contínua → E ( X ) = µx = ∫ x ⋅ p( x)dx = µ
Rx

Variância: [ ]
V ( X ) = E ( X − E ( X ) ) = σ x2 ; Desvio Padrão: σ = V ( X ) = E[( X − E ( X ) ) 2 ]
2

V ( X ) σ x2 V (X ) σx
Variância Relativa: γ x2 = = ; Coeficiente de Variação: γ x = =
E ²( X ) µ x2 E( X ) µx

∞ t −1 1 p −1

Função Gama: Γ( p ) = ∫x
0
⋅ e −x dx ,x>0; Função Beta: β( p, q ) = ∫ x
0
⋅ (1 − x ) q −1 dx

Distribuições Discretas de Probabilidade

Distribuição de Bernoulli: v.a. X representa a probabilidade “p” de sucesso ou fracasso de um


experimento.
P ( X = x1 ) = p ( x1 ) = p
X ~ Bernoulli (p) → , onde x1 =1=sucesso e x2=0=fracasso.
P( X = x 2 ) = p( x 2 ) = 1 − p = q
Além disso: E ( X ) = µ x = p e V ( X ) = σ x2 = p ⋅ q

Distribuição Binomial: v.a. X representa o n° de vezes que ocorre o sucesso do evento em “n“
realizações do experimento.
n−x
X ~ Binomial (n,p) → P ( X = x ) = p ( x ) = C n ⋅ p ⋅ q , x=0,1,2,...,n.
x x

Além disso: E ( X ) = µ x = n ⋅ p e V ( X ) = σ x2 = n ⋅ p ⋅ q

Distribuição Hipergeométrica: v.a. X representa o n° eventual de elementos que possuem um


dado atributo “a” entre os “n” elementos selecionados numa dada amostra “N”.
C ax ⋅ C Nn −−xa
X ~ Hipergeométrica (N,a,n) → P( X = x) = p ( x) = , x=0,1,2,...,n.
C Nn
Distribuição Geométrica: v.a. X representa o n° de vezes que um experimento aleatório é
realizado até que ocorra o evento.
X ~ Geométrica (p) → P ( X = x ) = p ( x ) = p ⋅ q x −1 , onde x=1,2,3,... e 0<p<1 e q =1 − p .
Além disso: E ( X ) = µx = 1 p e V ( X ) = σ x2 = q p 2

Distribuição de Pascal (ou Binomial Negativa): v.a. X representa o n° eventual de vezes que um
experimento é realizado até que ocorra o evento pela última vez “r”.
r −1 x −r
X ~ Pascal (r,p) → P ( X = x ) = p ( x ) = C x −1 ⋅ p ⋅ q
r
, onde x = r,r+1,r+2,..., com r = 1,2,3,...
e 0<p<1.
Além disso: E ( X ) = µx = r p e V ( X ) = σ x2 = r ⋅ q p 2

1 de 4
Formulário de Estatística – Distribuições de Probabilidade
Distribuição de Poisson: v.a. X representa o n° de vezes que ocorre o sucesso do evento em
determinado experimento, porém sem determinar o n° de fracassos ou total de provas. É uma
aproximação de X ~ Binomial (n,p), quando “n” é muito grande e “p” muito pequeno.
e −α ⋅ α x
X ~ Poisson ( α ), onde α =λ ⋅t → P ( X = x) = p( x) = , x = 0,1,2,...
x!
Além disso: E ( X ) = µ x = α e V ( X ) = σ x2 = α

Distribuições Contínuas de Probabilidade

Distribuição Uniforme:
1 a +b
X ~ Uniforme (a,b) → f ( x ) = , a<x<b ; E ( X ) = µ x = e
b −a 2
(b − a ) 2
V ( X ) = σ x2 =
12
d
1 d −c
Além disso: P (c < x < d ) = ∫ dx =
c
b −a b −a

Distribuição Exponencial:
1 1
X ~ Exponencial ( α ) → f ( x) = α ⋅ e −α⋅x , x>0 e α >0; E ( X ) = µ x = e V (X ) = σ x = 2
2

α α

Além disso: P ( X > t + h | X > t ) = P ( X > h) = ∫ f ( x) dx


h

Distribuição Gama:
αp p
X ~ Gama(p, α )→ f ( x) = ⋅ x p −1 ⋅ e −α⋅x , x,p, α >0; E ( X ) = µ x = e
Γ( p ) α
p
V ( X ) = σ x2 =
α2
d

Além disso: P (c < X < d ) = ∫ f ( x)dx


c
Distribuição Beta:
Γ( p + q )
X ~ Beta (p,q) → f ( x) = ⋅ x p −1 ⋅ (1 − x ) q −1 , 0<x<1 e p,q>0;
Γ( p ) ⋅ Γ( q )
p p⋅q
E ( X ) = µx = e V (X ) = σ x =
2
. Além disso:
p +q ( p + q) 2 ⋅ ( p + q + 1)
d
P (c < X < d ) = ∫ f ( x)dx
c
Distribuição de Rayleigh:
2⋅x α ⋅π
X ~ Rayleigh ( α ) → f ( x ) = α
2
α
⋅ e −x , x, >0; E ( X ) = µ x = e
α 2

 π
V ( X ) = σ x2 = α ⋅ 1 −  . Além disso: P ( X < r ) = ∫ f ( x )dx
 4 r
Distribuição de Weibull:

2 de 4

X ~ Weibull ( α ,β) → f ( x ) = α ⋅ β ⋅ t β −1
⋅e −α⋅t β
, t, α , β>0 ; P ( X < r ) = ∫ f ( x)dx . Além
r

   1  
2
−2 β   2 
disso: E ( X ) = µ x = α
−1 β
⋅ Γ(1 β + 1) e V ( X ) = σ x = α
2
Γ + 1 − Γ + 1 
β   β
 
  

3 de 4
Formulário de Estatística – Distribuições de Probabilidade
Distribuição Normal:
1
X ~ N ( µ, σ ) → f ( x) = ⋅ e −( x −µ)² 2⋅σ , - ∞ <x<+ ∞ , - ∞ < μ <+ ∞ e σ>0;
2

2 ⋅ π ⋅σ
E ( X ) = µ , V ( X ) =σ2 e σ = V ( X ) .
Temos v.a. Z quando μ = 0 e σ = 1 → Z n ~ N (0,1) ⇒
b
1
P ( a ≤ X ≤ b) = ∫
2
⋅ e −Z 2
dz = FZ (b) − FZ ( a ) .
a 2 ⋅π

Teorema das Combinações Lineares Independentes

Sejam X e Y duas v.a’s normais independentes e seja W = aּX + bּY. Temos que:

W~N
( µ S , σ S ) , onde µW = a ⋅ µ X + b ⋅ µY e σ W = a ² ⋅ σ X2 + b ² ⋅ σ Y2 .
µi = µ σi = σ µW = n ⋅ a ⋅ µ σW = .n ⋅ a ² ⋅ σ 2
Se e , então: e .
n
→ Soma: S = ∑ xi ⇒ S ~ N ( µ S , σ S ) , onde µ S = n ⋅ µ e σ S = σ ⋅ n .
i =1

1 n σ
→ Média Aritmética: X = ⋅ ∑ xi ⇒ X ~ N ( µ X , σ X ) , onde µ X = µ e σ X = .
n i =1 n

4 de 4

You might also like