Professional Documents
Culture Documents
2. Probabilidad
3. Procesos estocásticos
4. Cadenas de Markov
6. Aplicaciones
Motivación: Modelo para familias de proteínas
d1 d2 d3 d4
i0 i1 i2 i3 i4
m0 m1 m2 m3 m4 m5
Probabilidad
Experimento aleatorio. Es un experimento cuyos resultados posibles son
conocidos de antemano, pero se desconoce cuál de ellos va a ocurrir.
i. P(Ω)=1.
ii. Si A B = Ø entonces P(AUB)=P(A)+P(B).
Propiedades
1. P(Ø)=0.
2. Si A1, A2, …, An son sucesos incompatibles dos a dos, entonces
P(A1, A2, …, An) = P(A1) + P(A2) + … + P(An).
3. P(Ac) = 1 - P(A)
4. Si A B, entonces P(A) ≤ P(B).
5. Si A y B son dos sucesos cualesquiera, se cumple
P(AUB) = P(A) + P(B) - P(A B)
Asignación de probabilidades
Casos favorables
P( A)
Casos posibles
Probabilidad condicionada. Independencia.
P(B/A)
0.8 B 0.32
0.4
Ac
0.2 Bc 0.08
1.00
Regla del producto
P A3 A1 A2 A3
P A2 A1 A2
c
A3
A1
P A1 A2c
A1c
P A1 A2 A3 P A1 P A2 A1 P A3 A1 A2
Ley de las probabilidades totales
B P(A1 B)=P(A1).P(B/A1)
A1
Bc
B P(A2 B)=P(A2).P(B/A2)
A2
Bc
.
.
.
B P(An B)=P(An).P(B/An)
An
Bc
P(B)
Teorema de Bayes
B P(A1 B)=P(A1).P(B/A1)
A1
Bc
B P(A2 B)=P(A2).P(B/A2)
A2
Bc
.
.
.
B P(An B)=P(An).P(B/An)
An
Bc
P A1 B P A1 P B A1
P A1 B
P B P A1 P B A1 P A2 P B A2 P An P B An
Procesos estocásticos
Espacio de
estados
1 2 3 4 5 6 7 8 9 10
Distribución inicial:
P 0 p1 0 , p2 0 , , ps 0 siendo pi 0 P X 0 Ei
Representación de una cadena de Markov
0 1
Ejemplo. E E1 , E2 , E3
0
P 0.25 0.25 0.5
0 0
1
0.25
0.25
E1 E2
0.5
1
1
E3
Distribución de probabilidad en la etapa t
P1 P 0 P
t 0
P P Pt
Tipos de estados
Efímero. Ningún estado conduce a él.
Transitorio. Tras pasar por él, al cabo de cierto número de etapas, la cadena
de Markov ya no regresa a él.
Recurrente. Si no es transitorio, esto es, si tras pasar por él, la cadena de Markov
siempre regresa a él.
Pt
S P P P t
P S
t 0 0
y
Distribución inicial:
P 0 p1 0 , p2 0 , , ps 0 siendo pi 0 P X 0 Ei
Tres problemas
Llamemos λ al conjunto de parámetros del modelo de Markov oculto, y
O O1 , , OT
a una realización de la cadena de Markov oculta.
Problema 1. Calcular P ( O / λ ) .
P O P X P O X ,
X
t i P O1 , O2 , , OT , X t Ei
s
Inducción t 1 i t j p ji b j Ot 1
j 1
Paso final P O T i
i 1
Definimos las funciones atrás así:
t i P Ot 1 , Ot 2 , , OT X t Ei ,
Paso inicial T i 1
Inducción t i pij b j Ot 1 t 1 j
j 1
Paso final P O T i
i 1
Algoritmo de Viterbi
Buscamos la cadena de estados que mejor se corresponda con la secuencia observada
(problema 2). Formalizamos esto en el objetivo siguiente:
max P O, X
X
t i max P x1 , x2 , , xt 1 , xt Ei , O1 , O2 , , Ot
x1 , x2 , , xt 1
Estas funciones y los argumentos donde se alcanza el máximo se pueden calcular por
inducción así:
t i pij b j Ot 1 t 1 j
pˆ i 1 i
0
t i , j
P O
T 1
i, j
t
Además podemos considerar todas las transiciones que pˆ ij t 1
T 1
i
parten de un estado:
t
t 1
s
t i t i , j
T
j 1
i t
bˆi k
t :Ot ak
T
i
t 1
t
Aplicaciones
Modelos para familias de proteínas
Alineamiento de secuencias
Descubrimiento de subfamilias
Modelación de dominios dentro de la
cadena de aminoácidos
Modelo para familias de proteínas
d1 d2 d3 d4
i0 i1 i2 i3 i4
m0 m1 m2 m3 m4 m5
Alineamiento de secuencias
m0m1m2m3 m4d5d6m7m8m9m10 C _ A E F_ _ D D H
m0m1i1m2m3 m4d5m6m7m8m9m10 C D A E F_ P D D H
Descubrimiento de subfamilias
Modelo 1
Modelo 2
Inicio Fin
Modelo k
Modelación de dominios dentro de la cadena de
aminoácidos