You are on page 1of 17

FORMULARIO DE PROBABILIDAD I Y II

AMAT®
Aprendizaje Matemático. Centro de Desarrollo Matemático.

Formulario de Probabilidad para Licenciatura.

Elaborado por:

Act. Erick Mier Moreno


Director General del Centro de Desarrollo Matemático
AMAT®

Lugar y Fecha de Elaboración:

AMAT. Armada de México (Cafetales) No. 1450


Loc. 11, Col. Residencial Cafetales, C. P. 04918, México D. F.
Tel: 56-73-33-34

1 Curso de Probabilidad- Prof. Erick Mier Moreno


FORMULARIO DE PROBABILIDAD I Y II
1.- Conjuntos

1.1) A ∪ B = B ∪ A; A ∩ B = B ∩ A; A ∪ A = A; A ∩ A = A
1.2) A ∪ ∅ = A; A ∩ ∅ = ∅; A − ∅ = A
⎛n ⎞ n
1.3) A ∩ ⎜ ∪ Bi ⎟ = ∪ ( A ∩ Bi )
⎝ i =1 ⎠ i =1
⎛n ⎞ n
1.4) A ∪ ⎜ ∩ Bi ⎟ = ∩ ( A ∪ Bi )
⎝ i =1 ⎠ i =1
1.5) Si A ⊂ B, entonces A ∪ B = B y A ∩ B = A
1.6) ( A ∩ B ) ⊂ A ⊂ ( A ∪ B ) y ( A ∩ B ) ⊂ B ⊂ ( A ∪ B )
1.7) Leyes de DeMorgan:
c c
⎛n ⎞ n
⎛n ⎞ n
1.7.1) ⎜ ∪ Ai ⎟ = ∩ Aic ; ⎜ i∩=1 Ai ⎟ = i∪=1 Ai
c

⎝ i =1 ⎠ i =1 ⎝ ⎠
1.8) Para dos conjuntos A y B se cumple que A = ( A ∩ B ) ∪ ( A ∩ B C )

2.- Medida de probabilidad P(A). Propiedades.

2.1) P ( Ω ) = 1; P ( ∅ ) = 0
2.2) 0 ≤ P ( A ) ≤ 1 para todo evento A
2.3) Si A1 ,… , An son eventos tales que Ai ∩ Aj = ∅ para toda i ≠ j , entonces
⎛n ⎞
n
P ⎜ ∪ Ai ⎟ = ∑ P( Ai )
⎝ i =1 ⎠ i =1
2.4) Si A ⊂ B entonces P ( A) ≤ P( B)
2.5) Para cualesquiera eventos A, B y C :
2.5.1) P ( A ∪ B ) = P ( A ) + P ( B ) − P ( A ∩ B )
2.5.2) P ( A ∪ B ) = P ( A ∩ B c ) + P ( A ∩ B ) + P ( Ac ∩ B )
2.5.3) P ( A ) = P ( A ∩ B c ) + P ( A ∩ B )
2.5.4) P ( A ∪ B ∪ C ) = P ( A ) + P ( B ) + P ( C ) − P ( A ∩ B ) − P ( A ∩ C ) − P ( B ∩ C ) + P ( A ∩ B ∩ C )
2.6) P ( A ) = 1 − P ( AC )
⎛n ⎞
n
2.7) Para cualesquiera eventos A1 ,… , An , P ⎜ ∪ Ai ⎟ ≤ ∑ P ( Ai ). La igualdad se da
⎝ i =1 ⎠ i =1
cuando los eventos son mutuamente excluyentes.
2.8) Probabilidad Clasica: Si Ω es un conjunto de atomos muestrales equiprobables,
#( A)
entonces para cualquier evento A ⊂ Ω, P ( A ) = .
#(Ω)

2 Curso de Probabilidad- Prof. Erick Mier Moreno


FORMULARIO DE PROBABILIDAD I Y II
3.- Probabilidad condicional

3.1) Para cualesquiera dos eventos A y B tales que P ( B ) > 0. Se define la probabilidad
P ( A ∩ B)
condicional de A dado B, denotada por P ( A B ) como: P ( A B ) = .
P ( B)
P ( B A) P ( A)
3.2) P ( A ∩ B ) = P ( A B ) P ( B ) = P ( B A ) P ( A ) ⇒ P ( A B ) =
P ( B)
3.3) Ya que P ( i B ) es una medida de probabilidad, esta cumple:
3.3.1) P ( Ω B ) = 1; P ( ∅ B ) = 0
3.3.2) 0 ≤ P ( A B ) ≤ 1 para todo evento A
3.3.3) Si A1 ,… , An son eventos tales que Ai ∩ Aj = ∅ para toda i ≠ j , entonces
⎛n ⎞
n
P ⎜ ∪ Ai B ⎟ = ∑ P( Ai B)
⎝ i =1 ⎠ i =1
3.3.4) Si A ⊂ C entonces P ( A B ) ≤ P (C B )
3.4) Para cualesquiera eventos A, B y C :
3.4.1) P ( A ∪ C B ) = P ( A B ) + P ( C B ) − P ( A ∩ C B )
3.4.2) P ( A ∪ C B ) = P ( A ∩ C c B ) + P ( A ∩ C B ) + P ( Ac ∩ C B )
3.4.3) P ( A B ) = P ( A ∩ C c B ) + P ( A ∩ C B )
3.4.4) P ( A B ) = 1 − P ( AC B )
⎛n ⎞
n
3.5) Para cualesquiera eventos A1 ,… , An , P ⎜ ∪ Ai B ⎟ ≤ ∑ P ( Ai B )
⎝ i =1 ⎠ i =1

4.- Probabilidad total

( )
4.1) Para A y B eventos: P ( A ) = P ( A B ) P ( B ) + P A B c P ( B c )
4.2) Si B1 ,… , Bn forman una particion de Ω, es decir Bi ∩ B j = ∅ para i ≠ j
n n
y ademas, ∪ Bi = Ω, entonces: P ( A ) = ∑ P ( A ∩ Bi ) =∑ P ( A Bi )P ( Bi )
n

i =1 i =1 i =1

5.- Teorema de Bayes

P ( A B) P ( B)
5.1) Para A y B eventos: P ( B A ) =
(
P ( A B ) P ( B ) + P A Bc P ( Bc ))

3 Curso de Probabilidad- Prof. Erick Mier Moreno


FORMULARIO DE PROBABILIDAD I Y II
5.2) Si B1 ,… , Bn forman una particion de Ω, es decir Bi ∩ B j = ∅ para i ≠ j

( )
P A Bj P ( Bj )
( )
n
y ademas, ∪ Bi = Ω, entonces: P B j A = n

∑ P ( A B )P ( B )
i =1
i i
i =1

6.- Regla de la multiplicación


Para A1 ,… , An eventos tales que P ( A1 ∩…∩ An ) > 0, entonces
P ( A1 ∩…∩ An ) = P ( A1 ) P ( A2 A1 ) P ( A3 A1 ∩ A2 ) P ( An A1 ∩ A2 ∩…∩ An −1 )

7.- Independencia

7.1) Se dice que A y B son independientes si y solo si P ( A ∩ B ) = P ( A ) P ( B )


7.2) A1 ,… , An son mutuamente independientes si y solo si:
(
P Ai1 ∩…∩ Aik = P Ai1 ) ( ) ( )
P AiK para toda k = 2,3,..., n.
7.3) Si A y B son independientes, entonces A y B c , Ac y B, Ac y B c son independientes
7.4) Ω y ∅ son eventos independientes a cualquier evento A.

8.- Variables Aleatorias. Función de densidad f X ( x ) , f ( x ) o p ( x )

8.1) Caso Discreto. La variable aleatoria toma valores en un conjunto a lo mas


numerable de numeros reales { x1 ,… , xn ,…}
8.1.1) Se define f ( x ) = P [ X = x ] y cumple que:
8.1.2) f ( x ) ≥ 0 para toda x ∈
8.1.3) ∑ f ( x ) =∑ P ( X = x ) = 1
x x

8.1.4) La probabilidad del evento A, es P ( A ) = P [ X ∈ A] = ∑ f ( x )


x∈ A

8.2) Caso Continuo. La variable aleatoria toma valores en intervalo(s)


de los reales o sobre todo el conjunto = ( −∞, +∞ ) .
8.2.1) En este caso f ( x ) ≠ P [ X = x ] , ya que P [ X = x ] =0 para toda x ∈ . Cumple:
8.2.2) f ( x ) ≥ 0 para toda x ∈

8.2.3) ∫ f ( x ) dx = 1
-∞

8.2.4) La probabilidad del evento A = (a, b) es P [ a < X < b ] = ∫ f ( x ) dx


b

8.2.5) En caso continuo P [ a < X < b ] = P [ a ≤ X < b ] = P [ a < X ≤ b ] = P [ a ≤ X ≤ b ]

4 Curso de Probabilidad- Prof. Erick Mier Moreno


FORMULARIO DE PROBABILIDAD I Y II
9.- Función de distribución FX ( x ) o F ( x ) y supervivencia S ( x ) o S X ( x )

9.1) Por definicion: F ( x ) = P [ X ≤ x ] y S ( x ) = P [ X > x ] = 1 − P [ X ≤ x ] = 1 − F ( x )


9.2) Caso Discreto (C. D.),
F ( x) = ∑ P[ X = t]
t≤x

⇒ f ( x ) = P [ X = x ] = F ( x ) − lim+ F ( x − h )
h →0

9.3) Caso Continuo (C. C.),


x
F ( x) = ∫ f ( u )du;
−∞

d
⇒ f ( x) = F ( x) = F '( x)
dx
9.4) Propiedades de F ( x ) (C. D. y C. C.)
9.4.1) F ( x ) es una funcion monotona no decreciente
9.4.2) lim F ( x ) = 1 y lim F ( x ) = 0
x →∞ x →−∞

9.4.3) F ( x ) es una funcion continua por la derecha


9.4.4) P [ a < X ≤ b ] = F ( b ) − F ( a )
f ( x) f ( x) d
9.5) Funcion de riesgo o falla h( x ) = = = − ln ⎡⎣1 − F ( x ) ⎤⎦ (C. C.)
S ( x) 1− F ( x) dx

10.- Esperanza de una variable aleatoria, valor esperado, 1er momento, media,
promedio, E ( X ) o µ .

10.1) E ( X ) = ∑ xf ( x ) = ∑ xP [ X = x ] (C. D.)


x x

10.2) E ( X ) = ∫ xf ( x )dx (C. C.)
−∞

10.3) Propiedades de E ( X ) para ambos casos


10.3.1) E ( c ) = c para toda c ∈
10.3.2) E ( aX + b ) = aE ( X ) + b para toda a, b ∈
10.3.3) Si X es una v. a. no negativa, entonces E ( X ) ≥ 0
10.3.4) Si g1 ( X ) ≥ g 2 ( X ) , entonces E ⎡⎣ g1 ( X ) ⎤⎦ ≥ E ⎡⎣ g1 ( X ) ⎤⎦
∞ 0
10.4) E ( X ) = ∫ (1 − F ( x ) ) dx − ∫ F ( x ) dx
0 −∞

5 Curso de Probabilidad- Prof. Erick Mier Moreno


FORMULARIO DE PROBABILIDAD I Y II

10.5) Si X esta definida en el intervalo [ a, ∞ ) ⇒ E ( X ) = a + ∫ (1 − F ( x ) ) dx
a
b
Si X esta definida en el intervalo [ a, b ) ⇒ E ( X ) = a + ∫ (1 − F ( x ) ) dx
a

11.- Esperanza de una función g ( X ) de una variable aleatoria X.

11.1) E ⎡⎣ g ( X ) ⎤⎦ = ∑ g ( x ) f ( x ) = ∑ g ( x ) P [ X = x ] (C. D.)


x x

11.2) E ⎡⎣ g ( X ) ⎤⎦ = ∫ g ( x ) f ( x )dx (C. C.)
−∞

12.- Momentos de orden r,



E ⎡⎣ X r ⎤⎦ = ∑ x r f ( x ) (C. D.) y E ⎡⎣ X r ⎤⎦ = ∫ x r f ( x ) dx (C. C.)
−∞
x

13.- Momentos centrales (alrededor de la media E ( X ) = µ )


E ⎡⎣( X − µ ) ⎤⎦ = ∑ ( x − µ ) f ( x ) (C. D.) y E ⎡⎣( X − µ ) ⎤⎦ = ∫ ( x − µ ) f ( x ) dx (C. C.)
r r r r ∞

−∞
x

14.- Varianza de una variable aleatoria, Var ( X ) o σ 2 , desviación estándar σ y


coeficiente de variación.

14.1) La varianza de X es: σ 2 = Var ( X ) = E ⎡( X − E ( X ) ) ⎤ = E ⎡( X − µ ) ⎤ ,


2 2

⎣ ⎦ ⎣ ⎦
la desviacion estandar es: σ = Var ( X ) y el coeficiente de variacion es σ /µ .
14.2) Propiedades de Var ( X )
14.2.1) Var ( X ) = E ( X 2 ) − E 2 ( X )
14.2.2) Var ( X ) ≥ 0 y Var ( X ) = 0 si y solo si X = c
14.2.3) Var ( aX + b ) = a 2Var ( X )

15.- Función generadora de momentos, M ( t ) , M X ( t ) , m ( t ) o mX ( t )

15.1) M ( t ) = E ( etX ) = ∑ etx f ( x ) o



∫ etx f ( x ) dx (C. D. y C. C.)
−∞
x

tk t2 t3
15.2) M ( t ) = ∑ E ( X ) = 1 + tE ( X ) + E ( X ) + E ( X 3 ) + …
k 2

k =0 k ! 2 6

6 Curso de Probabilidad- Prof. Erick Mier Moreno


FORMULARIO DE PROBABILIDAD I Y II
15.3) Propiedades de M ( t )
15.3.1) M ( 0 ) = 1; M ' ( 0 ) = E ( X ) ; M '' ( 0 ) = E ( X 2 ) ; … M ( r ) ( 0 ) = E ( X r )
d d2
15.3.2) ln ⎡ M ( 0 ) ⎤⎦ = E ( X ) ; ln ⎡ M ( 0 ) ⎤⎦ = Var ( X )
dt ⎣ dt 2 ⎣

16.- Mediana, Moda, Percentiles y Sesgo de una distribución de probabilidad.

16.1) Para 0 < p < 1 el 100 p % percentil de la distribucion de X es el numero c p


que satisface: P ⎡⎣ X ≤ c p ⎤⎦ ≥ p y P ⎡⎣ X ≥ c p ⎤⎦ ≤ 1 − p.
16.2) La mediana es el numero Me tal que P [ X ≤ Me] = P [ X ≥ Me] = 0.5.
En caso discreto no siempre es unico; en caso continuo es unico.
16.3) La moda es aquel numero (o conjunto de numeros) para los cuales f ( x ) es maxima
E ⎡( X − µ ) ⎤
3

16.4) El coeficiente de asimetria de una v. a. es ⎣ ⎦


3
σ

17.- Desigualdades

17.1) Jensen. Sea X v. a. y g ( X ) una funcion de X , entonces


17.1.1) Si g '' ( X ) ≥ 0 ⇒ E ⎡⎣ g ( X ) ⎤⎦ ≥ g ⎡⎣ E ( X ) ⎤⎦
17.1.2) Si g '' ( X ) ≤ 0 ⇒ E ⎡⎣ g ( X ) ⎤⎦ ≤ g ⎡⎣ E ( X ) ⎤⎦
17.2) Markov. Para una v. a. no negativa X y t positivo,
E(X ) E(X )
P[ X ≥ t] ≤ ; P[ X ≤ t] ≥ 1−
t t
17.3) Chebyshev. Si X es una v. a. con E ( X ) = µ y σ = Var ( X ) y t > 0,
1 1
P ⎡⎣ X − µ ≥ σ t ⎤⎦ ≤ 2
; P ⎡⎣ X − µ ≤ σ t ⎤⎦ ≥ 1 − 2
t t

18.- Familias paramétricas discretas.

18.1) Uniforme discreta. Modelacion de espacios con un numero, N, de resultados


finitos y equiprobables (Urnas, dados, muestreo aleatorio). X ∼ U ( N )

f ( x) =
1
I{1,2,..., N} ( x); E(X ) =
N +1
; Var ( X ) =
N 2 −1
; M (t ) =
(
et e Nt − 1 )
N 2 12 N (e t
− 1)

7 Curso de Probabilidad- Prof. Erick Mier Moreno


FORMULARIO DE PROBABILIDAD I Y II

18.2) Bernoulli. Experimentos con dos posibles resultados: exito (1) con probabilidad
p y fracaso (0) con probabilidad q = 1 − p; 0 < p < 1. (Sol o aguila, fallecimiento
o supervivencia, asegurado o no asegurado). X ∼ Blli ( p )
f ( x) = p x (1 − p ) E ( X ) = p;
1− x
I{0,1} ( x); Var ( X ) = pq; M ( t ) = q + pet

18.3) Binomial. Contabiliza el numero de exitos en n ensayos Bernoulli independientes.


(Numero de fallecimientos en un grupo de n personas, articulos defectuosos en n
pruebas, numero de siniestros de un conjunto de n asegurados) X ∼ Bin(n, p )
⎛n⎞
f ( x) = ⎜ ⎟ p x (1 − p ) I{0,1,..., n} ( x);
n− x
E ( X ) = np; Var ( X ) = npq; (
M ( t ) = q + pet )
n

⎝ x⎠

18.4) Poisson. Cuenta el numero de eventos de cierto tipo que ocurren en un periodo de
tiempo determinado con una tasa de ocurrencia λ > 0. (Numero de accidentes en un
mes, clientes que llegan a una ventanilla de un banco, llamadas recibidas en un
conmutador) X ∼ Poisson(λ )
e− λ λ x
f ( x) = ; E ( X ) = Var ( X ) = λ ; M (t ) = exp ⎡⎣λ ( et − 1) ⎤⎦
x!
18.5) Geometrica. Contabiliza en numero de fracasos antes del primer exito en
ensayos Bernoulli independientes que tienen probabilidad p de exito y q = 1 − p
de fracaso. (Numero de meses que pasan antes del primer siniestro, numero de
volados antes del primer sol) X ∼ Geo( p )
q q p
f ( x) = q x pI{0,1,2,...} ( x); E(X ) = ; Var ( X ) = 2 ; M (t ) =
p p 1 − qet

18.6) Binomial Negativa. Cuenta el numero de fracasos obtenidos antes del r-esimo
exito en ensayos Bernoulli independientes. (Numero de aguilas antes del quinto
sol, numero de dias que pasan sin llover antes de la tercer lluvia, numero de
cheques cobrados antes del septimo cheque sin fondos) X ∼ BinNeg ( p, r )
r
⎛ x + r − 1⎞ x r rq rq ⎛ p ⎞
f ( x) = ⎜ ⎟ q p I{0,1,2,...} ( x ) ; E(X ) = ; Var ( X ) = ; M (t ) = ⎜ t ⎟
⎝ x ⎠ p p2 ⎝ 1 − qe ⎠

8 Curso de Probabilidad- Prof. Erick Mier Moreno


FORMULARIO DE PROBABILIDAD I Y II
18.7) Hipergeometrica. De una poblacion con M elementos, de los cuales K son del
tipo I y los restantes M − K del tipo II se sellecciona una muestra aleatoria de
tamaño n. Esta variable aleatoria contabiliza el numero de elementos del tipo
I en la muestra. (Numero de tornillos defectuosos dentro de una m. a. de tamaño
15 tomada de una caja con 100 tornillos de los cuales 20 son defectuosos,
numero de mujeres seleecionadas en una muestra de tamaño 40 tomada de un
grupo con 120 hombres y 215 mujeres) X ∼ Hiper ( M , K , n )
⎛ K ⎞⎛ M − K ⎞
⎜ ⎟⎜ ⎟
⎝ x ⎠⎝ n − x ⎠ K M −K M −n
E(X ) = n Var ( X ) = n
K
f ( x) = I{0,1,...,min[n , K ]} ( x); ;
⎛M ⎞ M M M M −1
⎜ ⎟
⎝n⎠

18.8) Multinomial. En un experimento con k resultados distintos A1 , A2 ,..., Ak con


probabilidad de ocurrencia p1 , p2 ,..., pk respectivamente tales que p1 + p2 + ... + pk
= 1 se realiza n veces. La distirbucion multinomial cuenta el numero de veces, X i ,
que ocurre el evento Ai , para i = 1, 2,..., k , tales que X 1 + X 2 + ... + X k = n. (Numero
de veces que aparece el 1, 2, 3, 4, 5, 6 al lanzar 30 veces un dado, el numero de
asegurados de bajo, moderado y alto riesgo que aparecen en una muestra de tamaño
10) X ∼ Multinomial ( p1 , p2 ,..., pk , n)
n!
f ( x1 ,… , xk ) = P [ X 1 = x1 , X 2 = x2 ,… , X k = xk ] = p1x1 p2x2 … pkxk
x1 ! x2 ! xk !
E ( X i ) = npi ; Var ( X i ) = npi (1 − pi ) ; Cov( X i , X j ) = − npi p j

19.- Familias paramétricas continuas.

19.1) Uniforme continua. Modelacion de eventos aquiprobables sobre un intervalo


de medida finita de , ( a, b ) , [ a, b ) , ( a, b ] , [ a, b ] , a, b ∈ , a < b. X ∼ Unif (a, b).
1 x−a a+b
f ( x) = I ( a ,b ) ( x); F ( x) = I ( a ,b ) ( x); E(X ) =
b−a b−a 2
(b − a )
2
ebt − e at b r −1 − a r −1
Var ( X ) = ; M (t ) = E(X ) =
r

12 (b − a)t ( n + 1)( b − a )

9 Curso de Probabilidad- Prof. Erick Mier Moreno


FORMULARIO DE PROBABILIDAD I Y II
19.2) Exponencial. Modelacion para tiempos de espera o falla. Relacionada con la
la funcion de densidad Poisson. Para λ > 0, X ∼ exp ( λ )

F ( x) = (1 − e− λ x ) I ( 0,∞ ) ( x);
1
f ( x) = λ e − λ x I ( 0,∞ ) ( x); E(X ) =
λ
λ
E(Xr ) =
1 r!
Var ( X ) = ; M (t ) = λ > t;
λ 2
λ −t λr

19.3) Normal. Se dice que X tiene una distribucion normal con parametros µ y σ 2
− ∞ < µ < ∞, σ 2 > 0, si su f. d. p. es, X ∼ N ( µ , σ 2 )


( x − µ )2 σ 2t 2
1 µt +
f ( x) = e 2σ 2
I ( −∞ ,∞ ) ( x); E ( X ) = µ; Var ( X ) = σ ; 2
M (t ) = e 2

2πσ 2

19.3.1) Normal estandar. Si X cumple las condiciones del inciso anterior, entonces
X −µ
Z= ∼ N ( 0,1) , y
σ
2
t2
1 − x2
f ( x) = e I ( −∞ ,∞ ) ( x ) ; E ( X ) = 0; Var ( X ) = 1; M (t ) = e 2

19.4) Gama. Se dice que una variable aleatoria continua tiene una funcion de
densidad gama con parametros r > 0 y λ > 0 si su f. d. p. es: X ∼ Gama (r , λ )

λr
f ( x) = x r −1e − λ x I ( 0,∞ ) ( x ) ; Donde Γ ( r ) = ∫ t r −1e −t dt
Γ (r ) 0

⎛ λ ⎞
r
r r
E(X ) = ; Var ( X ) = ; M (t ) = ⎜ ⎟ λ > t.
λ λ2 ⎝ λ −t ⎠
19.4.1) Propiedades de Γ ( r ) .
19.4.1.1) Γ ( r + 1) = rΓ ( r ) Para r ∈ +

19.4.1.2) Γ ( r ) = ( r − 1) ! Para r ∈ +

19.4.1.3) Γ (1/ 2 ) = π

19.5) Beta. Una variable aleatoria continua tiene distribucion Beta con parametros
α > 0 y β > 0 si su f. d. p es: X ∼ Beta (α , β )
1
1
Γ (α ) Γ ( β )
x (1 − x ) I (0,1) ( x); Donde B(α , β ) = ∫ t α −1 (1 − t ) dt =
α −1 β −1 β −1
f ( x) =
B(α , β ) 0
Γ (α + β )
α αβ Γ ( r + α ) Γ (α + β )
E(X ) = ; Var ( X ) = ; E(Xr) =
α +β (α + β ) (α + β + 1)
2
Γ (α ) Γ ( r + α + β )

10 Curso de Probabilidad- Prof. Erick Mier Moreno


FORMULARIO DE PROBABILIDAD I Y II
19.6) Pareto. La f. d. p. Pareto con parametros α > 0 y θ > 0 es: X ∼ Pareto(α ,θ )
α
αθ α ⎛θ ⎞ αθ r
f ( x) = I (θ ,∞ ) ( x); F ( x) = 1− ⎜ ⎟ ; E(Xr ) =
xα +1 ⎝x⎠ α −r
αθ αθ 2
E(X ) = ; Var ( X ) =
α −1 (α − 2 )(α − 1)
2

19.7) Ji Cuadrada. Se dice que una variable aleatoria tiene una distribucion Ji
cuadrada con k grados de libertad, k ∈ +
, X ∼ χ (2k ) si:
k
( 2)
k 2
⎛ 1 ⎞2
1 k 1
−1 − x
f ( x) = x e 2 I ( 0,∞ ) ( x);
2
E ( X ) = k; Var ( X ) = 2k ; M (t ) = ⎜ ⎟
Γ ( 12 ) ⎝ 1 − 2t ⎠
⎛k 1⎞
Nota: La Ji Cuadrada es un caso particular de una Gamma ⎜ , ⎟
⎝ 2 2⎠

19.8) Lognormal. Si U ∼ N ( µ , σ 2 ), entonces la v. a. X = eU se dice que se distibuye


LogN ( µ , σ 2 ) si:
( ln x − µ )2
( )
1
1 − µ+ σ 2
f ( x) = E(X ) = e Var ( X ) = eσ − 1 e 2 µ +σ
2 2
2σ 2 2
e I (0,∞ ) ( x); ;
x 2πσ 2

20.- Vectores aleatorios. Función de densidad conjunta f X ,Y ( x, y ) o f ( x, y )

20.1) Caso Discreto. f X ,Y ( x, y ) = P [ X = x; Y = y ] , cumple:


f X ,Y ( x, y ) ≥ 0; ∀ ( x, y ) ∈ 2
; ∑∑ f ( x, y ) = 1
∀y ∀x
X ,Y

20.2) Caso Continuo. f X ,Y ( x, y ) ≠ P [ X = x; Y = y ] , cumple:


∞ ∞
f X ,Y ( x, y ) ≥ 0; ∀ ( x, y ) ∈ 2
; ∫∫ f X ,Y ( x, y ) dxdy = 1
−∞ −∞

21.- Función de distribución conjunta. FX ,Y ( x, y ) o F ( x, y )

Se define en ambos casos como FX ,Y ( x, y ) = P [ X ≤ x; Y ≤ y ]


21.1) C. D.: FX ,Y ( x, y ) = ∑∑ f X ,Y ( s, t )
s≤ y t ≤ x

21.2) C. C.: FX ,Y ( x, y ) = ∫ f X ,Y ( u , v ) dudv


y x

−∞ −∞ ∫
21.3) Para calcular probabilidades
P [ a < X ≤ b; c < Y ≤ d ] = ∫ f X ,Y ( x, y ) dxdy =F ( b, d ) − F ( b, c ) − F ( a, d ) + F ( a, c )
d b

c ∫ a

11 Curso de Probabilidad- Prof. Erick Mier Moreno


FORMULARIO DE PROBABILIDAD I Y II
21.4) Propiedades de FX ,Y ( x, y )
i ) Monotona no decreciente en cada componente.
ii ) Continua por la derecha en cada componente.
iii ) lim FX ,Y ( x, y ) = 1; lim FX ,Y ( x, y ) = 0; lim FX ,Y ( x, y ) = 0;
x →∞ x →−∞ y →−∞
y →∞

∂2
iv) (C. C): f X ,Y ( x, y ) = FX ,Y ( x, y )
∂x∂y
(C. D): f X ,Y ( x, y ) = F ( x, y ) − lim+ F ( x − h, y ) − lim+ F ( x, y − h ) + lim+ F ( x − h, y − k )
h→0 h→0 h →0
k → 0+

22.- Funciones de densidades marginales.

22.1) f X ( x ) = ∑ f X ,Y ( x, y ); fY ( x ) = ∑ f X ,Y ( x, y ) ( C. D.)
∀y ∀x
∞ ∞
22.2) f X ( x ) = ∫ f X ,Y ( x, y ) dy; fY ( x ) = ∫ f X ,Y ( x, y ) dx ( C. C.)
−∞ −∞

22.3) FX ( x ) = lim FX ,Y ( x, y ) ; FY ( x ) = lim FX ,Y ( x, y ) ( C. C. y C. D.)


y →∞ x →∞

23.- Esperanza de una función g ( X , Y )

⎧∑∑ g ( x, y ) f X ,Y ( x, y ) (C. D.)


⎪ ∀y ∀x
E ⎡⎣ g ( X , Y ) ⎤⎦ = ⎨
∞ ∞

⎩ ∫−∞ ∫−∞ (
⎪ g x, y ) f X ,Y ( x, y ) dxdy (C. C.)

24. Independencia de variables aleatorios.

Se dice que dos variables aleatorias X y Y son independientes si y solo si:


i ) f X ,Y ( x, y ) = f X ( x ) fY ( y )
ii ) FX ,Y ( x, y ) = FX ( x ) FY ( y )
iii ) Si X y Y son independientes, entonces: E ⎡⎣ g ( X ) h (Y ) ⎤⎦ = E ⎡⎣ g ( X ) ⎤⎦ E ⎡⎣ h (Y ) ⎤⎦

25.- Covarianza y coeficiente de correlación.

25.1) Cov ( X , Y ) = E ⎡⎣( X − E ( X ) ) (Y − E (Y ) ) ⎤⎦ = E ( XY ) − E ( X ) E (Y )


25.2) Si X y Y son v. a. independientes, entonces Cov ( X , Y ) = 0
25.3) Cov ( X , X ) = Var ( X )
25.4) Cov ( aX + b, cY + d ) = acCov ( X , Y )
25.5) Var ( aX ± bY + c ) = a 2Var ( X ) + b 2Var (Y ) ± 2abCov ( X , Y )

12 Curso de Probabilidad- Prof. Erick Mier Moreno


FORMULARIO DE PROBABILIDAD I Y II
25.6) Cov ( aX + bY + c, dW + eZ + f ) = adCov ( X ,W ) + aeCov ( X , Z )
+ bdCov (Y ,W ) + beCov (Y , Z )
Cov ( X , Y )
25.7) Coeficiente de correlacion. ρ XY =
Var ( X ) Var (Y )
25.8) − 1 ≤ ρ XY ≤ 1. Si X y Y son independientes, entonces ρ XY = 0.
25.9) Si U = aX + b y V = cY + d , entonces ρUV = ρ XY .

26.- Función Generadora de Momentos Conjunta. M XY ( t1 , t2 )

26.1) M XY ( t1 , t2 ) = E ( et1 X +t2Y )


26.2) M XY ( 0, t2 ) =M Y ( t2 ) ; M XY ( t1 , 0 ) =M X ( t1 )
26.3) X y Y son independientes ⇔ M XY ( t1 , t2 ) = M X ( t1 ) M Y ( t2 )
∂ n+m
26.4) M XY ( t1 , t2 ) = E ( X nY m )
∂t1n ∂t2m t =t 1 2 =0

∂2
26.5) M XY ( t1 , t2 ) = E ( XY )
∂t1∂t2 t =t 1 2 =0

∂ ∂
26.6) M XY ( t1 , t2 ) = E ( X ); M XY ( t1 , t2 ) = E (Y )
∂t1 t =t
∂t2
1 2 =0 t =t
1 2 =0

27.- Función de densidad, esperanza y varianza condicional. f X Y ( x y )

f X ,Y ( x, y )
27.1) f X Y ( x y ) = ⇒ f X ,Y ( x, y ) = f X Y ( x y ) fY ( y ) = fY X ( y x ) f X ( x )
fY ( y )
⎧∑ g ( x ) f X Y ( x y0 ) = ∑ g ( x ) P ⎡⎣ X = x Y = y0 ⎤⎦

(
27.2) E g ( X ) Y = y0 = ⎨ ∀x ) ∀x

⎪ ∫ g ( x) f X Y ( x y0 ) dx

⎩ −∞
⎧∑ xf X Y ( x y ) = ∑ xP ⎡⎣ X = x Y = y0 ⎤⎦

27.3) E ( X Y = y0 ) = ⎨ ∀x ∀x

⎪ ∫ xf X Y ( x y0 ) dx

⎩ −∞
(
27.4) Var ( X Y = y0 ) = E X 2 Y = y0 − E 2 ( X Y = y0 ) )
( )
27.5) E ⎡ E g ( X ) Y ⎤ = E ( g ( X ) )
⎣ ⎦
⇒ E ⎡⎣ E ( X Y ) ⎤⎦ = E ( X )

27.6) Var ( X ) = E ⎡⎣Var ( X Y ) ⎤⎦ + Var E ( X Y ) ( )

13 Curso de Probabilidad- Prof. Erick Mier Moreno


FORMULARIO DE PROBABILIDAD I Y II
28.- Transformaciones de variables aleatorias.

Sea X variable aleatoria continua con funcion de densidad f X ( x ) y Y = g ( X ) una


funcion inyectiva con inversa X = g −1 (Y ) con derivada distinta de cero. Entonces
Y tiene una funcion de densidad dada por

28.1) fY ( y ) =
d −1
dy
(
g ( y ) f X g −1 ( y ) )
(
28.2) FY ( y ) = FX g −1 ( y ) )
En caso de que X sea una variable aleatoria discreta
28.3) P [Y = y ] = P ⎡⎣ X = g −1 ( y ) ⎤⎦ ; (
f Y ( y ) = f X g −1 ( y ) )
29.- Transformaciones de vectores aleatorios.

Sea ( X , Y ) vector aleatorio con funcion de desidad conjunta f X ,Y ( x, y ) . Sea


⎧⎪U = g1 ( X , Y ) −1 ⎪⎧ X = g1 (U , V )
−1
T =⎨ una transformacion inyectiva con inversa T = ⎨
⎩⎪V = g 2 ( X , Y ) ⎪⎩Y = g 2 (U ,V )
−1

tal que la matriz Jacobiana de la inversa, J , existe y es distinta de cero. Entonces


(U ,V ) tienen una funcion de densidad conjunta:
fU ,V ( u, v ) = J f X ,Y ( g1−1 ( u, v ) , g 2−1 ( u , v ) )
∂ −1 ∂ −1
g1 ( u, v ) g1 ( u, v )
∂u ∂v
Donde J =
∂ −2 ∂ −2
g1 ( u, v ) g1 ( u, v )
∂u ∂v

30.- Sumas de variables aleatorias

30.1) Convoluciones. Sean X y Y variables aleatorias con funcion de densidad


conjunta f X ,Y ( x, y ) . Entonces Z = X + Y tiene funcion de densidad conjunta
⎧∑ f X ,Y ( x, z − x ) = ∑ P [ X = x; Y = z − x ] (C. D.)

f Z ( z ) = ⎨ ∀x ∀x

⎩ ∫−∞ X ,Y (
⎪ f x, z − x ) dx (C. C.)
Si son independientes
⎧∑ f X ( x ) fY ( z − x ) = ∑ P [ X = x ]P [Y = z − x ] (C. D.)

f Z ( z ) = ⎨ ∀x ∀x

⎩ ∫−∞ X ( ) Y (
⎪ f x f z − x ) dx (C. C.)

14 Curso de Probabilidad- Prof. Erick Mier Moreno


FORMULARIO DE PROBABILIDAD I Y II
n
30.2) Suma de variables aleatorias independientes X 1 ,… , X n . Sea Y = ∑ X i
i =1
n
Entonces, M Y ( t ) = ∏ M X i ( t ).
i =1

Si son indenticamente distribuidas M Y ( t ) = ( M X ( t ) ) .


n

⎛ n ⎞ n
30.3) E ⎜ ∑ X i ⎟ = ∑ E ( X i )
⎝ i =1 ⎠ i =1
30.4) La varianza de la suma de variables aleatorias X 1 ,… , X n .
⎛ n ⎞ n n n
Var ⎜ ∑ X i ⎟ = ∑ Var ( X i ) + 2∑∑ Cov X i , X j ( )
⎝ i =1 ⎠ i =1 i =1 j >i

y si las variables aleatorias son independientes


⎛ n ⎞ n
Var ⎜ ∑ X i ⎟ = ∑ Var ( X i )
⎝ i =1 ⎠ i =1
⎛ n m ⎞ n m
30.5) Cov ⎜ ∑ ai X i + b, ∑ cY j + d ⎟ = ∑∑ ai c j Cov X i , Y j
⎜ i =1 ⎟ i =1 j =1 ( )
⎝ j =1 ⎠
30.6) Sumas de variables aleatorias independientes de familias parametricas
X i ∼ Brnlli ( p ) ∑ i=1 X i ∼ Bin ( n, p )
n

X i ∼ Bin ( ni , p ) ∑ i =1 X i ∼ Bin ( ∑ i=1 ni , p )


r r

X i ∼ Geo ( p ) ∑ i=1 X i ∼ BinNeg ( r , p )


r

X i ∼ BinNeg ( ni , p ) ∑ i=1 X i ∼ BinNeg ( ∑ i =1 ni , p )


r r

X i ∼ Poisson ( λi ) ∑ i=1 X i ∼ Poisson ( ∑ i =1 λi )


n n

(
X i ∼ Normal µi , σ i2 ) ∑ i =1 X i ∼ Normal ( ∑ i =1 µi , ∑ i=1σ i2 )
n n n

Xi ∼ Normal ( µ , σ )i i
2
⇒ (
X i ± X j ∼ Normal µi ± µ j , σ i2 + σ 2j )
∼ Normal ( µ , σ ) ∑ i =1 X i ∼ Normal ( nµ , nσ 2 )
n
Xi 2

∼ Normal ( µ , σ ) ( )
1 n
Xi 2
⇒ X= ∑ X i ∼ Normal µ ,σ 2 / n
n i =1
X i ∼ Exp ( λ ) ∑ i=1 X i ∼ Gamma ( r , λ )
r

X i ∼ Gamma ( ri , λ ) ∑ i =1 X i ∼ Gamma ( ∑ i =1 ri , λ )
n n

Xi ∼ χ( ki ) ⇒ ∑ i =1 X i ∼ χ⎛⎜ ∑ n
n
k ⎞
⎝ i =1 i ⎟⎠

15 Curso de Probabilidad- Prof. Erick Mier Moreno


FORMULARIO DE PROBABILIDAD I Y II
31.- Teorema de Límite Central.
Sean X 1 ,… , X n variables aleatorias independientes e identicamente distribuidas
n
tales que: E ( X i ) = µ , Var ( X i ) = σ . Sea Y = ∑ X i . Entonces, para n grande:
2

i =1
Y − nµ
31.1) Y ∼ Normal nµ , nσ 2 ( ) ⇒ Z=

∼ N ( 0,1)

1 n ⎛ σ2 ⎞ X −µ n (X − µ)
31.2) X = ∑ i X ∼ Normal ⎜ µ, ⎟ ⇒ Z=
σ/ n
=
σ
∼ N ( 0,1)
n i =1 ⎝ n ⎠

32.- Estadísticas de orden.


Sean X 1 ,… , X n variables aleatorias independientes con funcion de densidad de
probabilidades f X i ( x ) y funcion de distribucion FX i ( x ) . Sea Y1 = min { X 1 ,… , X n }
la estadistica de orden minima y Yn = max { X 1 ,… , X n } la estadistica de orden
maxima. Entonces las funciones de distribucion de Y1 y Yn son:

( )(
32.1) FY1 ( y ) = 1 − ⎡ 1 − FX1 ( y ) 1 − FX 2 ( y )
⎣ ) ( 1 − FX n ( y ) ⎤
⎦ )
32.2) FYn ( y ) = ⎡⎣ FX1 ( y ) ⎤⎦ ⎡⎣ FX 2 ( y ) ⎤⎦ ⎡⎣ FX n ( y ) ⎤⎦
Si las variables aleatorias son identicamente distribuidas
n −1
32.3) FY1 ( y ) = 1 − ⎡⎣1 − FX ( y ) ⎤⎦ fY1 ( y ) = n ⎡⎣1 − FX ( y ) ⎤⎦ fX ( y)
n

n −1
32.4) FYn ( y ) = ⎡⎣ FX ( y ) ⎤⎦ ⇒ fYn ( y ) = n ⎡⎣ FX ( y ) ⎤⎦ fX ( y)
n

Sea Yk la k -esima estadistica de orden, entonces:


n
n− j
32.5) FYk ( y ) = ∑ ⎡⎣ FX ( y ) ⎤⎦ ⎡⎣1 − FX ( y ) ⎤⎦
j

j =k

n! k −1 n−k
32.6) fYk ( y ) = ⎡⎣ FX ( y ) ⎤⎦ ⎡⎣1 − FX ( y ) ⎤⎦ fX ( y)
( k − 1)!( n − k )!
Las funciones de distribucion y de densidad conjunta de Y1 y Yn , son
32.7) FY1 ,Yn ( y1 , yn ) = ⎡⎣ FX ( yn ) ⎤⎦ − ⎡⎣ FX ( yn ) − FX ( y1 ) ⎤⎦
n n

n−2
32.8) fY1 ,Yn ( y1 , yn ) = n ( n − 1) ⎡⎣ FX ( yn ) − FX ( y1 ) ⎤⎦ f X ( yn ) f X ( y1 )
La funcion de densidad del rango, R =Yn − Y1

n−2
32.9) f R ( r ) = n ( n − 1) ∫ f X ( r ) f X ( r + x ) ⎡⎣ FX ( r + x ) − FX ( x ) ⎤⎦ dx
−∞

16 Curso de Probabilidad- Prof. Erick Mier Moreno


FORMULARIO DE PROBABILIDAD I Y II
COMPLEMENTO.

C1) Para la probabilidad de la union de n eventos


⎛ n ⎞ n
( )
P ⎜ ∪ Ai ⎟ = ∑ P ( Ai ) − ∑ P Ai1 ∩ Ai2 + ∑ P Ai1 ∩ Ai2 ∩ Ai3 ( )
⎝ i =1 ⎠ i =1 1≤i1 <i2 ≤ n 1≤i1 <i2 <i3 ≤ n

+ ( −1) P ( A1 ∩ A2 ∩ A3 ∩ ∩ An )
n −1
+

C 2) Relacion entre la distribucion Exponencial y la Poisson.


Si T es una variable aleatoria exponencial con media µ =1/λ , es decir, T ∼ exp ( λ ) ,
que mide el tiempo de ocurrencia entre eventos sucesivos de cierto tipo, donde el
tiempo es medido en unidades apropiadas (segundos, minutos, dias, meses, etc...).
Entonces N representa el numero de veces que ocurre dicho evento, y se puede
probar que es una variable aleatoria Poisson con parametro λ .

⎛ X −µ ⎞
2

(
C3) Si X ∼ Normal µ , σ 2
) , entonces Z = ⎜
2

⎝ σ ⎠
⎟ ∼ χ (1)

C4) Si una poliza de seguro que tenga un deducible, D, el pago por parte de la
aseguradora, en caso de un siniestro con valor X , es:
⎧0 si X ≤ D
PAseguradora = ⎨ = Max { X − D, 0}
⎩X − D si X > D
Mientras que el pago realizado por el asegurado es:
⎧X si X ≤ D
PAsegurado = ⎨ = Min { X , D}
⎩D si X > D
En caso de existir un pago maximo, M, por parte de la aseguradora, el pago por
parte de la aseguradora es:
⎧0 si X ≤D

PAseguradora = ⎨X − D si D < X ≤ M + D
⎪M si X > M + D

17 Curso de Probabilidad- Prof. Erick Mier Moreno

You might also like