Professional Documents
Culture Documents
Héctor Olivero Q.
1 Introducción
3 Estructura de Clases
Xn : (Ω, F, P) → E, ∀ n ∈ N
λi = P(X0 = i)
pij = P(X1 = i/X0 = j)
Teorema
Sea λ un vector de probabilidad sobre E y sea P una matriz estocástica.
Entonces (Xn )n∈N es una cadena de Markov homogenea con
distribución inicial λ y matriz de transición P si y sólo si:
∀ n ∈ N, ∀ i0 , . . . , in ∈ E :
es proceso de markov.
Teorema
Un proceso (Xn )n∈N es cadena de Markov si y sólo si ∀ n ∈ N
condicional en {Xn = i} el proceso (Xn+m )m∈N es independiente de
{X0 , . . . , Xn−1 }.
Además si (Xn )n∈N es cadena de Markov homogénea con matriz de
transición P entonces condicional a {Xn = i}, (Xn+m )m∈N es cadena
de Markov homogénea con distribución inicial δi y matriz de transición
P.
1 Introducción
3 Estructura de Clases
Ei (f (Xn )) = (P (n) f )i
1 Introducción
3 Estructura de Clases
Pi (∃n ∈ N : Xn = j) > 0
(0)
Recordemos que ∀ i ∈ E : pii = 1 ⇒ i → i. Además de (ii) es claro
que i → j ∧ j → k ⇒ i → k. Luego ↔ es una relación de equivalencia
en E y entonces particiona E en clases.
Diremos que una clase C es cerrada si:
i ∈ C, i → j ⇒ j ∈ C
Es decir una clase cerrada es una clase desde la que no hay escape. Un
estado i es absorbente si {i} es una clase cerrada. Una cadena en que E
es la única clase se dice irreducible.
1 Introducción
3 Estructura de Clases
Tj = ı́nf{n ≥ 1 : Xn = j}
{H A = n} = {X0 ∈
/ A, X1 ∈
/ A, . . . , Xn−1 ∈
/ A, Xn ∈ A}
1 Introducción
3 Estructura de Clases
2 Recurrente si
P(Xn = i, para infinitos n) = 1.
Luego un estado es recurrente si la cadena vuelve a él infinitas veces
con probabilidad 1, mientras que un estado es transiente si la cadena
eventualmente deja ese estado para siempre.
(r)
Se define el r-ésimo tiempo de retorno por i, Ti inductivamente de la
siguiente forma:
0 r=0
(r)
Ti = T i r=1
(r−1)
ı́nf{n ≥ Ti + 1 : Xn = i} r ≥ 2
(r)
Se define el largo de la r-ésima excursión a i, Si como:
(
(r) (r−1) (r−1)
(r) Ti − Ti Ti <∞
Si = (r−1)
0 Ti =∞
(r−1) (r)
Para r = 2, 3, . . ., condicional en el evento Ti < ∞, Si es
(r−1)
independiente de {Xm : m ≤ Ti }y
(r) (r−1)
P(Si = n/Ti < ∞) = Pi (Ti = n)
1Xn =i
X
Vi =
n≥0
Y además:
1Xn =i = Ei (1Xn =i ) =
(n)
X X X X
Ei (Vi ) = Ei P(Xn = i) = pii
n≥0 n≥0 n≥0 n≥0
Lema
Para r = 0, 1, . . ., se tiene que Pi (Vi > r) = fir , donde fi = Pi (Ti < ∞).
Teorema
Toda clase recurrente es cerrada.
Teorema
Toda clase recurrente es cerrada.
Teorema
Toda clase finita cerrada es recurrente.
Teorema
Toda clase recurrente es cerrada.
Teorema
Toda clase finita cerrada es recurrente.
Teorema
Supongamos que P es irreducible y recurrente. Entonces para todo
j ∈ E se tiene que P(Tj < ∞) = 1.
Teorema
Sea (Xn )n∈N irreducible y k ∈ E. Consideremos
k −1
TX
!
γik = Ek 1{Xn =i} .
n=0
Entonces
1 γkk = 1.
2 Si µ es una medida excesiva para P con µk = 1, entonces µ ≥ γ k .
3 Si (Xn )n∈N es recurrente, γ k es medida invariante y es la única de
las medidas excesivas que vale 1 en k.
Héctor Olivero Q. (DIM) 2017-2 33 / 44
Distribución Invariante
Ei (Ti ) < ∞.
Teorema
Sea (Xn )n∈N irreducible y recurrente positiva. Sea π su distribución
invariante. Entonces para toda f : E → R acotada se tiene que
n
1X
f (Xk ) → hπ, f i P-c.s.
n
k=1
Pµ (Xn = j) → πj , ∀j ∈ E,
es decir
(µP n )j → πj , ∀j ∈ E,
y en particular
(P n )ij → πj , ∀i, j ∈ E.
Teorema
Sea (Xn )n∈N irreducible y satisface (D). Entonces es aperiódico,
recurrente positivo y
X (n)
|Pij − πj | ≤ 2(1 − β)bn/n0 c , ∀i ∈ E, n ∈ N.
j∈E
1 Introducción
3 Estructura de Clases
Proposición
Sea (Xn )n∈N ∼ M (P, π) irreducible con distribución invariante π.
Entonces la CM de tiempo revertido X̂ N ∼ M (P̂ , π), con
Teorema
Sea (Xn )n∈N una cadena de Markov irreducible, recurrente positiva y
aperiódica, con distribución invariante π. Asumamos que E es finito.
Entonces:
β := (1 − λ2 ) ∧ (1 + λd ),
Sean
n
1 X
µ̂nx = 1{Xl =x} ,
n+1
l=0
Proposición
Sea µ la medida invariante asociada a P .
1 Para todo x ∈ E, µ̂nx → µx casi seguramente cuando n → ∞.
n →P
Para todo x, y ∈ E, P̂xy
2
xy casi seguramente cuando n → ∞.