Professional Documents
Culture Documents
AMAT®
Aprendizaje Matemático. Centro de Desarrollo Matemático.
Elaborado por:
1.1) A ∪ B = B ∪ A; A ∩ B = B ∩ A; A ∪ A = A; A ∩ A = A
1.2) A ∪ ∅ = A; A ∩ ∅ = ∅; A − ∅ = A
⎛n ⎞ n
1.3) A ∩ ⎜ ∪ Bi ⎟ = ∪ ( A ∩ Bi )
⎝ i =1 ⎠ i =1
⎛n ⎞ n
1.4) A ∪ ⎜ ∩ Bi ⎟ = ∩ ( A ∪ Bi )
⎝ i =1 ⎠ i =1
1.5) Si A ⊂ B, entonces A ∪ B = B y A ∩ B = A
1.6) ( A ∩ B ) ⊂ A ⊂ ( A ∪ B ) y ( A ∩ B ) ⊂ B ⊂ ( A ∪ B )
1.7) Leyes de DeMorgan:
c c
⎛n ⎞ n
⎛n ⎞ n
1.7.1) ⎜ ∪ Ai ⎟ = ∩ Aic ; ⎜ i∩=1 Ai ⎟ = i∪=1 Ai
c
⎝ i =1 ⎠ i =1 ⎝ ⎠
1.8) Para dos conjuntos A y B se cumple que A = ( A ∩ B ) ∪ ( A ∩ B C )
2.1) P ( Ω ) = 1; P ( ∅ ) = 0
2.2) 0 ≤ P ( A ) ≤ 1 para todo evento A
2.3) Si A1 ,… , An son eventos tales que Ai ∩ Aj = ∅ para toda i ≠ j , entonces
⎛n ⎞
n
P ⎜ ∪ Ai ⎟ = ∑ P( Ai )
⎝ i =1 ⎠ i =1
2.4) Si A ⊂ B entonces P ( A) ≤ P( B)
2.5) Para cualesquiera eventos A, B y C :
2.5.1) P ( A ∪ B ) = P ( A ) + P ( B ) − P ( A ∩ B )
2.5.2) P ( A ∪ B ) = P ( A ∩ B c ) + P ( A ∩ B ) + P ( Ac ∩ B )
2.5.3) P ( A ) = P ( A ∩ B c ) + P ( A ∩ B )
2.5.4) P ( A ∪ B ∪ C ) = P ( A ) + P ( B ) + P ( C ) − P ( A ∩ B ) − P ( A ∩ C ) − P ( B ∩ C ) + P ( A ∩ B ∩ C )
2.6) P ( A ) = 1 − P ( AC )
⎛n ⎞
n
2.7) Para cualesquiera eventos A1 ,… , An , P ⎜ ∪ Ai ⎟ ≤ ∑ P ( Ai ). La igualdad se da
⎝ i =1 ⎠ i =1
cuando los eventos son mutuamente excluyentes.
2.8) Probabilidad Clasica: Si Ω es un conjunto de atomos muestrales equiprobables,
#( A)
entonces para cualquier evento A ⊂ Ω, P ( A ) = .
#(Ω)
3.1) Para cualesquiera dos eventos A y B tales que P ( B ) > 0. Se define la probabilidad
P ( A ∩ B)
condicional de A dado B, denotada por P ( A B ) como: P ( A B ) = .
P ( B)
P ( B A) P ( A)
3.2) P ( A ∩ B ) = P ( A B ) P ( B ) = P ( B A ) P ( A ) ⇒ P ( A B ) =
P ( B)
3.3) Ya que P ( i B ) es una medida de probabilidad, esta cumple:
3.3.1) P ( Ω B ) = 1; P ( ∅ B ) = 0
3.3.2) 0 ≤ P ( A B ) ≤ 1 para todo evento A
3.3.3) Si A1 ,… , An son eventos tales que Ai ∩ Aj = ∅ para toda i ≠ j , entonces
⎛n ⎞
n
P ⎜ ∪ Ai B ⎟ = ∑ P( Ai B)
⎝ i =1 ⎠ i =1
3.3.4) Si A ⊂ C entonces P ( A B ) ≤ P (C B )
3.4) Para cualesquiera eventos A, B y C :
3.4.1) P ( A ∪ C B ) = P ( A B ) + P ( C B ) − P ( A ∩ C B )
3.4.2) P ( A ∪ C B ) = P ( A ∩ C c B ) + P ( A ∩ C B ) + P ( Ac ∩ C B )
3.4.3) P ( A B ) = P ( A ∩ C c B ) + P ( A ∩ C B )
3.4.4) P ( A B ) = 1 − P ( AC B )
⎛n ⎞
n
3.5) Para cualesquiera eventos A1 ,… , An , P ⎜ ∪ Ai B ⎟ ≤ ∑ P ( Ai B )
⎝ i =1 ⎠ i =1
( )
4.1) Para A y B eventos: P ( A ) = P ( A B ) P ( B ) + P A B c P ( B c )
4.2) Si B1 ,… , Bn forman una particion de Ω, es decir Bi ∩ B j = ∅ para i ≠ j
n n
y ademas, ∪ Bi = Ω, entonces: P ( A ) = ∑ P ( A ∩ Bi ) =∑ P ( A Bi )P ( Bi )
n
i =1 i =1 i =1
P ( A B) P ( B)
5.1) Para A y B eventos: P ( B A ) =
(
P ( A B ) P ( B ) + P A Bc P ( Bc ))
( )
P A Bj P ( Bj )
( )
n
y ademas, ∪ Bi = Ω, entonces: P B j A = n
∑ P ( A B )P ( B )
i =1
i i
i =1
7.- Independencia
⇒ f ( x ) = P [ X = x ] = F ( x ) − lim+ F ( x − h )
h →0
d
⇒ f ( x) = F ( x) = F '( x)
dx
9.4) Propiedades de F ( x ) (C. D. y C. C.)
9.4.1) F ( x ) es una funcion monotona no decreciente
9.4.2) lim F ( x ) = 1 y lim F ( x ) = 0
x →∞ x →−∞
10.- Esperanza de una variable aleatoria, valor esperado, 1er momento, media,
promedio, E ( X ) o µ .
−∞
x
⎣ ⎦ ⎣ ⎦
la desviacion estandar es: σ = Var ( X ) y el coeficiente de variacion es σ /µ .
14.2) Propiedades de Var ( X )
14.2.1) Var ( X ) = E ( X 2 ) − E 2 ( X )
14.2.2) Var ( X ) ≥ 0 y Var ( X ) = 0 si y solo si X = c
14.2.3) Var ( aX + b ) = a 2Var ( X )
k =0 k ! 2 6
17.- Desigualdades
f ( x) =
1
I{1,2,..., N} ( x); E(X ) =
N +1
; Var ( X ) =
N 2 −1
; M (t ) =
(
et e Nt − 1 )
N 2 12 N (e t
− 1)
18.2) Bernoulli. Experimentos con dos posibles resultados: exito (1) con probabilidad
p y fracaso (0) con probabilidad q = 1 − p; 0 < p < 1. (Sol o aguila, fallecimiento
o supervivencia, asegurado o no asegurado). X ∼ Blli ( p )
f ( x) = p x (1 − p ) E ( X ) = p;
1− x
I{0,1} ( x); Var ( X ) = pq; M ( t ) = q + pet
⎝ x⎠
18.4) Poisson. Cuenta el numero de eventos de cierto tipo que ocurren en un periodo de
tiempo determinado con una tasa de ocurrencia λ > 0. (Numero de accidentes en un
mes, clientes que llegan a una ventanilla de un banco, llamadas recibidas en un
conmutador) X ∼ Poisson(λ )
e− λ λ x
f ( x) = ; E ( X ) = Var ( X ) = λ ; M (t ) = exp ⎡⎣λ ( et − 1) ⎤⎦
x!
18.5) Geometrica. Contabiliza en numero de fracasos antes del primer exito en
ensayos Bernoulli independientes que tienen probabilidad p de exito y q = 1 − p
de fracaso. (Numero de meses que pasan antes del primer siniestro, numero de
volados antes del primer sol) X ∼ Geo( p )
q q p
f ( x) = q x pI{0,1,2,...} ( x); E(X ) = ; Var ( X ) = 2 ; M (t ) =
p p 1 − qet
18.6) Binomial Negativa. Cuenta el numero de fracasos obtenidos antes del r-esimo
exito en ensayos Bernoulli independientes. (Numero de aguilas antes del quinto
sol, numero de dias que pasan sin llover antes de la tercer lluvia, numero de
cheques cobrados antes del septimo cheque sin fondos) X ∼ BinNeg ( p, r )
r
⎛ x + r − 1⎞ x r rq rq ⎛ p ⎞
f ( x) = ⎜ ⎟ q p I{0,1,2,...} ( x ) ; E(X ) = ; Var ( X ) = ; M (t ) = ⎜ t ⎟
⎝ x ⎠ p p2 ⎝ 1 − qe ⎠
12 (b − a)t ( n + 1)( b − a )
F ( x) = (1 − e− λ x ) I ( 0,∞ ) ( x);
1
f ( x) = λ e − λ x I ( 0,∞ ) ( x); E(X ) =
λ
λ
E(Xr ) =
1 r!
Var ( X ) = ; M (t ) = λ > t;
λ 2
λ −t λr
19.3) Normal. Se dice que X tiene una distribucion normal con parametros µ y σ 2
− ∞ < µ < ∞, σ 2 > 0, si su f. d. p. es, X ∼ N ( µ , σ 2 )
−
( x − µ )2 σ 2t 2
1 µt +
f ( x) = e 2σ 2
I ( −∞ ,∞ ) ( x); E ( X ) = µ; Var ( X ) = σ ; 2
M (t ) = e 2
2πσ 2
19.3.1) Normal estandar. Si X cumple las condiciones del inciso anterior, entonces
X −µ
Z= ∼ N ( 0,1) , y
σ
2
t2
1 − x2
f ( x) = e I ( −∞ ,∞ ) ( x ) ; E ( X ) = 0; Var ( X ) = 1; M (t ) = e 2
2π
19.4) Gama. Se dice que una variable aleatoria continua tiene una funcion de
densidad gama con parametros r > 0 y λ > 0 si su f. d. p. es: X ∼ Gama (r , λ )
∞
λr
f ( x) = x r −1e − λ x I ( 0,∞ ) ( x ) ; Donde Γ ( r ) = ∫ t r −1e −t dt
Γ (r ) 0
⎛ λ ⎞
r
r r
E(X ) = ; Var ( X ) = ; M (t ) = ⎜ ⎟ λ > t.
λ λ2 ⎝ λ −t ⎠
19.4.1) Propiedades de Γ ( r ) .
19.4.1.1) Γ ( r + 1) = rΓ ( r ) Para r ∈ +
19.4.1.2) Γ ( r ) = ( r − 1) ! Para r ∈ +
19.4.1.3) Γ (1/ 2 ) = π
19.5) Beta. Una variable aleatoria continua tiene distribucion Beta con parametros
α > 0 y β > 0 si su f. d. p es: X ∼ Beta (α , β )
1
1
Γ (α ) Γ ( β )
x (1 − x ) I (0,1) ( x); Donde B(α , β ) = ∫ t α −1 (1 − t ) dt =
α −1 β −1 β −1
f ( x) =
B(α , β ) 0
Γ (α + β )
α αβ Γ ( r + α ) Γ (α + β )
E(X ) = ; Var ( X ) = ; E(Xr) =
α +β (α + β ) (α + β + 1)
2
Γ (α ) Γ ( r + α + β )
19.7) Ji Cuadrada. Se dice que una variable aleatoria tiene una distribucion Ji
cuadrada con k grados de libertad, k ∈ +
, X ∼ χ (2k ) si:
k
( 2)
k 2
⎛ 1 ⎞2
1 k 1
−1 − x
f ( x) = x e 2 I ( 0,∞ ) ( x);
2
E ( X ) = k; Var ( X ) = 2k ; M (t ) = ⎜ ⎟
Γ ( 12 ) ⎝ 1 − 2t ⎠
⎛k 1⎞
Nota: La Ji Cuadrada es un caso particular de una Gamma ⎜ , ⎟
⎝ 2 2⎠
−∞ −∞ ∫
21.3) Para calcular probabilidades
P [ a < X ≤ b; c < Y ≤ d ] = ∫ f X ,Y ( x, y ) dxdy =F ( b, d ) − F ( b, c ) − F ( a, d ) + F ( a, c )
d b
c ∫ a
∂2
iv) (C. C): f X ,Y ( x, y ) = FX ,Y ( x, y )
∂x∂y
(C. D): f X ,Y ( x, y ) = F ( x, y ) − lim+ F ( x − h, y ) − lim+ F ( x, y − h ) + lim+ F ( x − h, y − k )
h→0 h→0 h →0
k → 0+
22.1) f X ( x ) = ∑ f X ,Y ( x, y ); fY ( x ) = ∑ f X ,Y ( x, y ) ( C. D.)
∀y ∀x
∞ ∞
22.2) f X ( x ) = ∫ f X ,Y ( x, y ) dy; fY ( x ) = ∫ f X ,Y ( x, y ) dx ( C. C.)
−∞ −∞
⎩ ∫−∞ ∫−∞ (
⎪ g x, y ) f X ,Y ( x, y ) dxdy (C. C.)
∂2
26.5) M XY ( t1 , t2 ) = E ( XY )
∂t1∂t2 t =t 1 2 =0
∂ ∂
26.6) M XY ( t1 , t2 ) = E ( X ); M XY ( t1 , t2 ) = E (Y )
∂t1 t =t
∂t2
1 2 =0 t =t
1 2 =0
f X ,Y ( x, y )
27.1) f X Y ( x y ) = ⇒ f X ,Y ( x, y ) = f X Y ( x y ) fY ( y ) = fY X ( y x ) f X ( x )
fY ( y )
⎧∑ g ( x ) f X Y ( x y0 ) = ∑ g ( x ) P ⎡⎣ X = x Y = y0 ⎤⎦
⎪
(
27.2) E g ( X ) Y = y0 = ⎨ ∀x ) ∀x
⎪ ∫ g ( x) f X Y ( x y0 ) dx
∞
⎩ −∞
⎧∑ xf X Y ( x y ) = ∑ xP ⎡⎣ X = x Y = y0 ⎤⎦
⎪
27.3) E ( X Y = y0 ) = ⎨ ∀x ∀x
⎪ ∫ xf X Y ( x y0 ) dx
∞
⎩ −∞
(
27.4) Var ( X Y = y0 ) = E X 2 Y = y0 − E 2 ( X Y = y0 ) )
( )
27.5) E ⎡ E g ( X ) Y ⎤ = E ( g ( X ) )
⎣ ⎦
⇒ E ⎡⎣ E ( X Y ) ⎤⎦ = E ( X )
28.1) fY ( y ) =
d −1
dy
(
g ( y ) f X g −1 ( y ) )
(
28.2) FY ( y ) = FX g −1 ( y ) )
En caso de que X sea una variable aleatoria discreta
28.3) P [Y = y ] = P ⎡⎣ X = g −1 ( y ) ⎤⎦ ; (
f Y ( y ) = f X g −1 ( y ) )
29.- Transformaciones de vectores aleatorios.
⎩ ∫−∞ X ,Y (
⎪ f x, z − x ) dx (C. C.)
Si son independientes
⎧∑ f X ( x ) fY ( z − x ) = ∑ P [ X = x ]P [Y = z − x ] (C. D.)
⎪
f Z ( z ) = ⎨ ∀x ∀x
∞
⎩ ∫−∞ X ( ) Y (
⎪ f x f z − x ) dx (C. C.)
⎛ n ⎞ n
30.3) E ⎜ ∑ X i ⎟ = ∑ E ( X i )
⎝ i =1 ⎠ i =1
30.4) La varianza de la suma de variables aleatorias X 1 ,… , X n .
⎛ n ⎞ n n n
Var ⎜ ∑ X i ⎟ = ∑ Var ( X i ) + 2∑∑ Cov X i , X j ( )
⎝ i =1 ⎠ i =1 i =1 j >i
(
X i ∼ Normal µi , σ i2 ) ∑ i =1 X i ∼ Normal ( ∑ i =1 µi , ∑ i=1σ i2 )
n n n
⇒
Xi ∼ Normal ( µ , σ )i i
2
⇒ (
X i ± X j ∼ Normal µi ± µ j , σ i2 + σ 2j )
∼ Normal ( µ , σ ) ∑ i =1 X i ∼ Normal ( nµ , nσ 2 )
n
Xi 2
⇒
∼ Normal ( µ , σ ) ( )
1 n
Xi 2
⇒ X= ∑ X i ∼ Normal µ ,σ 2 / n
n i =1
X i ∼ Exp ( λ ) ∑ i=1 X i ∼ Gamma ( r , λ )
r
⇒
X i ∼ Gamma ( ri , λ ) ∑ i =1 X i ∼ Gamma ( ∑ i =1 ri , λ )
n n
⇒
Xi ∼ χ( ki ) ⇒ ∑ i =1 X i ∼ χ⎛⎜ ∑ n
n
k ⎞
⎝ i =1 i ⎟⎠
i =1
Y − nµ
31.1) Y ∼ Normal nµ , nσ 2 ( ) ⇒ Z=
nσ
∼ N ( 0,1)
1 n ⎛ σ2 ⎞ X −µ n (X − µ)
31.2) X = ∑ i X ∼ Normal ⎜ µ, ⎟ ⇒ Z=
σ/ n
=
σ
∼ N ( 0,1)
n i =1 ⎝ n ⎠
( )(
32.1) FY1 ( y ) = 1 − ⎡ 1 − FX1 ( y ) 1 − FX 2 ( y )
⎣ ) ( 1 − FX n ( y ) ⎤
⎦ )
32.2) FYn ( y ) = ⎡⎣ FX1 ( y ) ⎤⎦ ⎡⎣ FX 2 ( y ) ⎤⎦ ⎡⎣ FX n ( y ) ⎤⎦
Si las variables aleatorias son identicamente distribuidas
n −1
32.3) FY1 ( y ) = 1 − ⎡⎣1 − FX ( y ) ⎤⎦ fY1 ( y ) = n ⎡⎣1 − FX ( y ) ⎤⎦ fX ( y)
n
⇒
n −1
32.4) FYn ( y ) = ⎡⎣ FX ( y ) ⎤⎦ ⇒ fYn ( y ) = n ⎡⎣ FX ( y ) ⎤⎦ fX ( y)
n
j =k
n! k −1 n−k
32.6) fYk ( y ) = ⎡⎣ FX ( y ) ⎤⎦ ⎡⎣1 − FX ( y ) ⎤⎦ fX ( y)
( k − 1)!( n − k )!
Las funciones de distribucion y de densidad conjunta de Y1 y Yn , son
32.7) FY1 ,Yn ( y1 , yn ) = ⎡⎣ FX ( yn ) ⎤⎦ − ⎡⎣ FX ( yn ) − FX ( y1 ) ⎤⎦
n n
n−2
32.8) fY1 ,Yn ( y1 , yn ) = n ( n − 1) ⎡⎣ FX ( yn ) − FX ( y1 ) ⎤⎦ f X ( yn ) f X ( y1 )
La funcion de densidad del rango, R =Yn − Y1
∞
n−2
32.9) f R ( r ) = n ( n − 1) ∫ f X ( r ) f X ( r + x ) ⎡⎣ FX ( r + x ) − FX ( x ) ⎤⎦ dx
−∞
+ ( −1) P ( A1 ∩ A2 ∩ A3 ∩ ∩ An )
n −1
+
⎛ X −µ ⎞
2
(
C3) Si X ∼ Normal µ , σ 2
) , entonces Z = ⎜
2
⎝ σ ⎠
⎟ ∼ χ (1)
C4) Si una poliza de seguro que tenga un deducible, D, el pago por parte de la
aseguradora, en caso de un siniestro con valor X , es:
⎧0 si X ≤ D
PAseguradora = ⎨ = Max { X − D, 0}
⎩X − D si X > D
Mientras que el pago realizado por el asegurado es:
⎧X si X ≤ D
PAsegurado = ⎨ = Min { X , D}
⎩D si X > D
En caso de existir un pago maximo, M, por parte de la aseguradora, el pago por
parte de la aseguradora es:
⎧0 si X ≤D
⎪
PAseguradora = ⎨X − D si D < X ≤ M + D
⎪M si X > M + D
⎩