Professional Documents
Culture Documents
ii
Prefacio
iii
iv
PREFACIO
Estas notas de clase representan un esfuerzo realizado con el fin de satisfacer los objetivos planteados cuando el curso IE-0405 Modelos probabilsticos
de se
nales y sistemas fue presentado ante la Asamblea de Escuela de Ingeniera Electrica para su aprobacion e inclusion dentro del plan de estudios
del bachillerato.
Tales objetivos fueron divididos en generales y especficos. Los objetivos
generales originales fueron planteados como sigue:
1. Familiarizarse con los conceptos fundamentales de la probabilidad.
2. Comprender el concepto de variable aleatoria discreta y continua y de
las funciones de densidad probabilstica.
3. Saber definir un proceso estocastico y conceptos elementales asociados.
4. Conocer los elementos basicos de la estadstica tal y como son empleados en la Ingeniera.
Los objetivos especficos originales fueron planteados de la siguiente manera. Al finalizar el curso el estudiante estara en capacidad de:
1. Definir en lenguaje com
un los conceptos de probabilidad, probabilidad
conjunta, probabilidad condicional, independencia estadstica, variable aleatoria, proceso estocastico, valor esperado, varianza, correlacion,
densidad espectral de potencia, estacionaridad, ergodicidad, deteccion
de se
nales, estimacion de parametros, intervalos de confianza, test de
hipotesis, regresion lineal y cadenas de Markov, utilizando a lo mas dos
lneas de escritura.
2. Aplicar los conceptos anteriores en aplicaciones basicas en Ingeniera
Electrica y resolver tales problemas sin recurrir a notas de clase o referencias.
3. Calcular probabilidades de eventos y los valores esperados de variables
aleatorias para problemas elementales, usando para ello la definicion
correspondiente o tablas de probabilidad.
4. Dada una situacion donde ha sido aplicado un muestreo, formular una
hipotesis y llevar a cabo tests apropiados para probar su aceptabilidad.
v
La practica docente ha demostrado que un semestre es suficiente para
cubrir la materia que se presenta en estas notas. Por consiguiente, forzosamente se ha tenido que dejar por fuera de consideracion algunos conceptos
propios de la estadstica a los que se hace alusion en los objetivos anteriores.
No obstante, es opinion de quien ha preparado estas notas que la persona que
llegue a mostrar un dominio medianamente regular de los conceptos presentados, esta en plena capacidad de estudiar por cuenta propia tales conceptos
y saber aplicarlos cuando la necesidad as lo plantee.
Por el momento, se presentan las notas con ejemplos acompa
nantes por
captulo. Eventualmente, se iran agregando mas ejercicios por el autor paulatinamente, de tal forma que se tenga a mano suficientes ejercicios representativos que sirvan de practica a la persona interesada. Tales ejercicios estaran
provistos de un desarrollo explicativo y de la correspondiente solucion. Cabe
aclarar que siempre habra mas de una forma de resolver un ejercicio, por lo
que simplemente se estara proponiendo una posible solucion.
vi
PREFACIO
Indice general
Prefacio
III
1. Teora b
asica de la probabilidad
1.1. Preambulo . . . . . . . . . . . . . . . . . . . . .
1.2. Definiciones basicas de la teora de conjuntos . .
1.2.1. Operaciones con conjuntos . . . . . . . .
1.3. Los conceptos de la Probabilidad . . . . . . . .
1.3.1. Definicion y axiomas de la probabilidad .
1.3.2. Modelo matematico de experimentos . .
1.3.3. Probabilidad condicional y conjunta . . .
1.3.4. Eventos independientes . . . . . . . . . .
1.3.5. Pruebas de Bernoulli o pruebas repetidas
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
2. Variables aleatorias
2.1. Preambulo . . . . . . . . . . . . . . . . . . . . . . .
2.2. Concepto . . . . . . . . . . . . . . . . . . . . . . .
2.2.1. Variables aleatorias discretas y continuas . .
2.3. La funcion de distribucion . . . . . . . . . . . . . .
2.4. Funcion de densidad probabilstica . . . . . . . . .
2.4.1. Algunas funciones de densidad probabilstica
2.5. Densidad y distribucion condicionales . . . . . . . .
2.5.1. Funcion de distribucion condicional . . . . .
2.5.2. Funcion de densidad condicional . . . . . . .
2.6. Valor esperado de una variable aleatoria . . . . . .
2.7. Valor esperado de una funcion g(X) . . . . . . . . .
2.8. Valor esperado condicional . . . . . . . . . . . . . .
2.9. Momentos . . . . . . . . . . . . . . . . . . . . . . .
2.9.1. Momentos alrededor del origen . . . . . . .
vii
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
1
2
2
5
9
10
13
14
21
24
.
.
.
.
.
.
.
.
.
.
.
.
.
.
31
32
32
34
35
37
40
46
46
47
53
54
56
56
56
viii
INDICE GENERAL
57
57
58
58
59
61
62
65
67
69
70
70
71
72
75
75
78
79
80
81
83
84
85
89
91
91
94
96
96
98
100
103
106
109
INDICE GENERAL
4. Procesos estoc
asticos
4.1. Preambulo . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.2. Conceptos basicos . . . . . . . . . . . . . . . . . . . . . . . .
4.2.1. Concepto de un proceso aleatorio . . . . . . . . . . .
4.2.2. Clasificacion de procesos . . . . . . . . . . . . . . . .
4.3. Funciones de distribucion y de densidad . . . . . . . . . . .
4.4. Independencia estadstica . . . . . . . . . . . . . . . . . . . .
4.5. Procesos estacionarios de primer orden . . . . . . . . . . . .
4.6. Estacionaridad de segundo orden y de sentido amplio . . . .
4.7. Estacionaridad en sentido estricto y a orden N . . . . . . . .
4.8. Promedios en el tiempo y ergodicidad . . . . . . . . . . . . .
4.9. Funciones de correlacion . . . . . . . . . . . . . . . . . . . .
4.9.1. Funcion de autocorrelacion y sus propiedades . . . .
4.9.2. Funcion de correlacion cruzada y sus propiedades . .
4.9.3. Funciones de covarianza . . . . . . . . . . . . . . . .
4.10. Proceso aleatorio de Poisson . . . . . . . . . . . . . . . . . .
4.10.1. Funcion de densidad probabilstica . . . . . . . . . .
4.10.2. Densidad probabilstica conjunta . . . . . . . . . . .
4.11. Caractersticas espectrales de procesos estocasticos . . . . .
4.11.1. Espectro de densidad de potencia y sus propiedades .
4.11.2. Propiedades del espectro de densidad de potencia . .
4.11.3. Ancho de banda del espectro de densidad de potencia
4.11.4. Relacion entre el espectro de potencia y la autocorrelacion . . . . . . . . . . . . . . . . . . . . . . . . . .
4.11.5. Espectro de densidad de potencia cruzada y sus propiedades . . . . . . . . . . . . . . . . . . . . . . . . .
4.12. Algunas definiciones de ruido . . . . . . . . . . . . . . . . .
4.13. Respuesta de sistemas lineales a una se
nal aleatoria . . . . .
4.13.1. Respuesta del sistema: convolucion . . . . . . . . . .
4.13.2. Valor medio y cuadratico medio de la respuesta del
sistema . . . . . . . . . . . . . . . . . . . . . . . . . .
4.13.3. Autocorrelacion de la respuesta . . . . . . . . . . . .
4.13.4. Correlacion cruzada de entrada y salida . . . . . . . .
4.13.5. Caractersticas espectrales de la respuesta del sistema
4.13.6. Espectros de densidad de potencia cruzada de entrada
y salida . . . . . . . . . . . . . . . . . . . . . . . . .
ix
113
. 114
. 114
. 114
. 116
. 118
. 119
. 119
. 121
. 123
. 123
. 125
. 125
. 127
. 130
. 131
. 132
. 133
. 135
. 135
. 140
. 141
. 143
.
.
.
.
146
149
152
152
.
.
.
.
152
154
155
157
. 159
INDICE GENERAL
5. Cadenas de Markov
5.1. Preambulo . . . . . . . . . . . . . . . . . . . . . . . . . . . .
5.2. Conceptos introductorios . . . . . . . . . . . . . . . . . . . .
5.2.1. Primer hecho: densidad de la variable mnima de un
conjunto de variables aleatorias . . . . . . . . . . . .
5.2.2. Segundo hecho: probabilidad de que un componente
dado sea el que falle . . . . . . . . . . . . . . . . . .
5.3. El proceso de nacimiento y muerte en tiempo continuo . . .
5.4. Colas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
5.5. El vector de probabilidad de estado estable . . . . . . . . . .
5.6. Cadenas de Markov de tiempo discreto . . . . . . . . . . . .
5.6.1. La matriz de transicion de orden t . . . . . . . . . . .
5.6.2. El vector de probabilidad t . . . . . . . . . . . . . .
5.6.3. El vector de probabilidad de estado estable . . . . . .
6. Bibliografa
161
. 162
. 162
. 163
.
.
.
.
.
.
.
.
164
167
170
176
186
193
196
200
211
Indice de figuras
5.1.
5.2.
5.3.
5.4.
5.5.
5.6.
5.7.
5.8.
5.9.
Ejemplo
Ejemplo
Ejemplo
Ejemplo
Ejemplo
Ejemplo
Ejemplo
Ejemplo
Ejemplo
xi
188
190
192
196
198
203
204
206
209
xii
INDICE DE FIGURAS
Indice de cuadros
1.1. Distribucion de valores de las resistencias en la caja. . . . . . . 15
5.1. N
umero N mas peque
no para que el 90 % del tiempo haya N
o menos clientes en el estado estable. . . . . . . . . . . . . . . 185
xiii
xiv
INDICE DE CUADROS
Captulo 1
Teora b
asica de la probabilidad
CAPITULO 1. TEORIA BASICA
DE LA PROBABILIDAD
1.1.
Pre
ambulo
1.2.
Definiciones b
asicas de la teora de conjuntos
Un conjunto es una coleccion de objetos. Los objetos se denominan elementos del conjunto, y pueden ser cualquier cosa. Se puede tener un conjunto
de voltajes, un conjunto de aeroplanos, un conjunto de sillas, o aun un conjunto de conjuntos, denominado una clase de conjuntos. Un conjunto se denota
por una letra may
uscula, mientras que un elemento por una letra min
uscula.
De esta forma, si a es un elemento del conjunto A, se escribe,
aA
(1.1)
a 6 A
(1.2)
Si no lo es,
1.2. DEFINICIONES BASICAS
DE LA TEORIA DE CONJUNTOS
AB
(1.3)
AB
(1.4)
CAPITULO 1. TEORIA BASICA
DE LA PROBABILIDAD
1.2. DEFINICIONES BASICAS
DE LA TEORIA DE CONJUNTOS
1.2.1.
Se suele usar una representacion geometrica que nos permite asociar una
imagen fsica con un conjunto. Tal representacion es el diagrama de Venn.
Los conjuntos son representados por figuras planas cerradas. Los elementos
de los conjuntos son representados por los puntos encerrados (es decir, por el
area encerrada). El conjunto universal S es representado por un rectangulo
que encierra a todas las figuras planas cerradas.
Igualdad y diferencia
A = B si y solo si A B y B A.
A B es el conjunto que contiene a los elementos de A que no estan
en B. Por ejemplo, con A = {0, 6 < a 6 1, 6} y B = {1, 0 < b 6 2, 5},
entonces A B = {0, 6 < c < 1, 0} o B A = {1, 6 < d 6 2, 5}. Notese que
A B 6= B A.
Uni
on e intersecci
on
La union de dos conjuntos A y B es un conjunto nuevo C constituido por
elementos que estan en A o estan en B.
C =AB
La interseccion de dos conjuntos A y B es un conjunto nuevo D constituido por elementos que pertenecen tanto al conjunto A como al conjunto
B.
D =AB
Dos conjuntos A y B son mutuamente excluyentes si A B = .
La union e interseccion de N conjuntos An , n = 1, 2, . . . , N se escribe,
C = A1 A2 . . . AN
N
[
=
An
n=1
D = A1 A2 . . . AN
N
\
=
An
n=1
Complemento
El complemento de un conjunto A, denotado por A, es el conjunto de
todos los elementos que no estan en A:
A=SA
Las siguientes igualdades, concernientes al concepto de complemento de
un conjunto, se satisfacen:
= S
S =
AA = S
AA =
1.2. DEFINICIONES BASICAS
DE LA TEORIA DE CONJUNTOS
Ejemplo
Considerese los siguientes conjuntos:
S = {1 6 enteros 6 12}
B = {2, 6, 7, 8, 9, 10, 11}
A = {1, 3, 5, 12}
C = {1, 3, 4, 6, 7, 8}
Sobre tales conjuntos, se pueden ejecutar las siguientes operaciones:
Algebra
de conjuntos
Todos los subconjuntos del conjunto universal forman un sistema algebraico para el que cierto n
umero de teoremas y de propiedades pueden establecerse.
Ley conmutativa
CAPITULO 1. TEORIA BASICA
DE LA PROBABILIDAD
AB = BA
AB = BA
Ley distributiva
A (B C) = (A B) (A C)
A (B C) = (A B) (A C)
Ley asociativa
(A B) C = A (B C)
= ABC
(A B) C = A (B C)
= ABC
Leyes de De Morgan
AB = AB
AB = AB
Principio de la dualidad
Si en una identidad se reemplazara uniones por intersecciones, intersecciones por uniones, S por y por S, la identidad se mantendra.
Ejemplo
Considerese la identidad
A (B C) = (A B) (A C)
Si se aplica el principio de la dualidad, queda entonces como
A (B C) = (A B) (A C)
lo cual es una identidad cierta.
1.3.
La nocion de experimento fsico es importante en la teora de la probabilidad. Un experimento podra consistir en hacer rodar un dado y observar el
n
umero que sale. Cada ejecucion del experimento recibe el nombre de prueba
para el que hay un resultado. Al rodar el dado, hay seis n
umeros que pueden
salir y entre todos constituyen todos los posibles resultados del experimento. Si el dado no esta cargado, la intuicion nos dice que cada resultado es
igualmente probable que ocurra, y la probabilidad de que cada uno ocurra es
1/6. Este experimento pareciera verse gobernado por dos conjuntos. Uno es
el conjunto de todos los posibles resultados, y el otro es el conjunto de las
probabilidades de los resultados. Cada conjunto tiene seis elementos. Por el
momento se considera solo el conjunto de resultados.
Al conjunto de todos los posibles resultados se le llama espacio de muestras y se le asigna el smbolo S. El espacio de muestras es un conjunto
universal para el experimento dado.
En el ejemplo de tirar el dado, S fue un conjunto finito de 6 elementos. Tal
tipo de espacios de muestra son discretos y finitos. Tambien los hay discretos
e infinitos: S en el experimento escoger aleatoriamente un entero positivo es
el conjunto enumerablemente infinito {1, 2, 3, . . .}.
CAPITULO 1. TEORIA BASICA
DE LA PROBABILIDAD
10
Algunos experimentos tienen un espacio de muestras no enumerable e infinito, como en el experimento definido por obtener un n
umero moviendo un
puntero sobre una rueda de la fortuna numerada de 0 a 12 ; en este experimento cualquier n
umero s entre 0 y 12 puede aparecer y S = {0 6 s 6 12}.
Tal espacio de muestras se describe como continuo.
En la mayora de las veces, se esta interesado en alguna caracterstica
de los resultados del experimento en vez de estarlo en los mismos resultados. Esto lleva a la definicion de un evento. Un evento se define como un
subconjunto del espacio S de muestras.
Dado que un evento es un conjunto, todos las definiciones y nociones
dadas para conjuntos, se aplican a un evento. Si por ejemplo dos eventos no
tienen resultados comunes, son mutuamente excluyentes.
En un experimento con naipes, 13 de los 52 posibles resultados son espadas. Dado que cada resultado de obtener una espada satisface el evento
obtener una espada, este evento es un conjunto con 13 elementos. En este
ejemplo, puede haber hasta 2N = 252 4,5(10)15 eventos.
Los eventos pueden ser discretos o continuos. Un ejemplo de un evento discreto y enumerablemente infinito sera escoger un entero impar en el
experimento escoger al azar un entero, positivo.
Los eventos definidos en espacios de muestras continuos son usualmente
continuos, pero tambien puede definirse eventos discretos sobre espacios de
muestras continuos.
1.3.1.
Definici
on y axiomas de la probabilidad
11
Axioma 1: P (A) 0
(1.5)
Axioma 2: P (S) = 1
(1.6)
Axioma 3: P
N
[
!
An
n=1
N
X
P (An )
(1.7)
n=1
12
vuelta a una aguja inserta en una rueda de la fortuna (en buen estado) que
tiene una marcacion con n
umeros de 0 a 100. El espacio de muestras es
S = {0 < x 6 100}.
La probabilidad de que el puntero caiga entre dos n
umeros x1 , x2 con
x2 x1
x1 6 x2 , podra pensarse que habra de ser
puesto que la rueda no
100
esta alterada. Se puede ver que el evento A = {x1 < x 6 x2 } satisface el
axioma 1 para todo x1 y x2 y el axioma 2 cuando x2 = 100 y x1 = 0.
Si ahora se parte la periferia de la rueda en N segmentos contiguos An
de tal forma que An = {xn1 < x 6 xn }, xn = n(100)/N , n = 1, 2, . . . , N
con x0 = 0 entonces, de acuerdo con el parrafo anterior, P (An ) = 1/N y,
para cualquier N ,
N
[
n=1
!
An
N
X
1
P (An ) =
=
= 1 = P (S)
N
n=1
n=1
N
X
13
1.3.2.
Modelo matem
atico de experimentos
(1, 2)
(2, 2)
(3, 2)
(4, 2)
(5, 2)
(6, 2)
(1, 3)
(2, 3)
(3, 3)
(4, 3)
(5, 3)
(6, 3)
(1, 4)
(2, 4)
(3, 4)
(4, 4)
(5, 4)
(6, 4)
(1, 5)
(2, 5)
(3, 5)
(4, 5)
(5, 5)
(6, 5)
(1, 6)
(2, 6)
(3, 6)
(4, 6)
(5, 6)
(6, 6)
(1.8)
CAPITULO 1. TEORIA BASICA
DE LA PROBABILIDAD
14
P (A) = P
6
[
!
Ai,7i
i=1
P (Ai,7i ) = 6
i=1
P (B) = 9
6
X
1
36
1
=
P (C) = 3
4
1
36
1
36
=
=
1
6
1
12
Adicionalmente,
P (B C) = 2
1.3.3.
1
36
=
1
18
P (B C) =
10
5
=
36
18
Puede ser que haya algunos eventos que no sean mutuamente excluyentes
debido a elementos comunes en el espacio de probabilidad. Estos elementos
corresponden a la ocurrencia simultanea o conjunta de los eventos no excluyentes. Para dos eventos A y B, los elementos comunes forman el evento
AB
Probabilidad conjunta
La probabilidad P (A B) se llama la probabilidad conjunta para dos
eventos A y B que se intersecan en el espacio de muestras. El estudio de un
diagrama de Venn mostrara que
15
P (A B) = P (B) + P (A)P (A B)
(1.9)
Equivalentemente,
(1.10)
P (A | B) =
P (A B)
P (B)
(1.11)
16
con el Cuadro 1.1. Escojase una resistencia de la caja y suponga que cada resistencia tiene la misma probabilidad de ser escogida. Tres eventos se definen:
A es el evento escoger una resistencia de 47 ohmios, B es el evento
escoger una resistencia con 5 % de tolerancia y C es el evento
escoger una resistencia de 100 ohmios. De la tabla, las probabilidades
aplicables son:
44
100
62
P (B) =
100
32
P (C) =
100
P (A) =
28
100
P (A C) = 0
24
P (B C) =
100
P (A B) =
P (AB)
P (B)
P (AC)
P (C)
P (BC)
P (C)
= 28
62
= 0
= 24
32
Probabilidad total
La probabilidad P (A) de cualquier evento A definido sobre un espacio S
de muestras puede expresarse en terminos de probabilidades condicionales.
17
Bm Bn =
Bn = S
n=1
para todo m 6= n.
Se tiene que,
A = AS
= A
N
[
!
Bn
n=1
N
[
(A Bn )
n=1
P (A) = P (A S)
"N
#
[
= P
(A Bn )
n=1
N
X
n=1
N
X
P (A Bn )
P (A | Bn )P (Bn )
n=1
CAPITULO 1. TEORIA BASICA
DE LA PROBABILIDAD
18
Teorema de Bayes
La definicion de probabilidad condicional, aplica a cualesquiera dos eventos. En particular, sea Bn .
P (Bn | A) =
P (Bn A)
P (A)
(1.12)
P (A | Bn ) =
P (A Bn
P (Bn )
(1.13)
si P (A) 6= 0, o tambien,
P (A | Bn )P (Bn )
P (A)
(1.14)
P (Bn | A) =
P (A | Bn )P (Bn )
P (A | B1 )P (B1 ) + + P (A | BN )P (BN )
(1.15)
para n = 1, 2, . . . , N .
Ejemplo
Un sistema de comunicaciones binario elemental consiste de un transmisor que enva uno de dos posibles smbolos (un uno o un cero) sobre un canal
a un receptor. El canal ocasiona errores de modo que un uno aparece en el
receptor como un cero, y viceversa.
El espacio de muestras tiene dos elementos ( cero o uno). Se denota
por Bi , i = 1, 2, los eventos el smbolo antes del canal es uno y el
smbolo antes del canal es cero, respectivamente. Ademas, defina Ai ,
19
CAPITULO 1. TEORIA BASICA
DE LA PROBABILIDAD
20
Se tiene ademas:
P (B1 | A1 ) =
P (A1 B1 )
P (A1 | B1 )P (B1 )
(0,9)(0,6)
0,54
=
=
=
= 0,931
P (A1 )
P (A1 )
0,58
0,58
P (B2 | A2 ) =
P (A2 B2 )
P (A2 | B2 )P (B2 )
(0,9)(0,4)
0,36
=
=
=
= 0,857
P (A2 )
P (A2 )
0,42
0,42
P (B1 | A2 ) =
P (B1 A2 )
P (A2 | B1 )P (B1 )
(0,1)(0,6)
0,06
=
=
=
= 0,143
P (A2 )
P (A2 )
0,42
0,42
P (B2 | A1 ) =
P (A1 B2 )
P (A1 | B2 )P (B2 )
(0,1)(0,4)
0,04
=
=
=
= 0,069
P (A1 )
P (A1 )
0,58
0,58
Estos u
ltimos dos n
umeros son probabilidades de error del sistema, mientras que P (B1 | A1 ) y P (B2 | A2 ) son probabilidades de transmision
correcta de los smbolos.
En el teorema de Bayes, las probabilidades P (Bn ) se conocen usualmente
como probabilidades a priori, dado que se aplican a los eventos Bn
antes de la ejecucion del experimento. Similarmente, las probabilidades P (A |
Bn ) son n
umeros tpicamente conocidos antes de ejecutar el experimento.
Las probabilidades condicionales a menudo se llaman probabilidades de
n en el contexto de la teora de telecomunicaciones. Por otro lado,
transicio
las probabilidades P (Bn | A) se llaman probabilidades a posteriori
dado que se aplican despues de la ejecucion del experimento cuando se obtiene
un evento A.
1.3.4.
21
Eventos independientes
Caso de dos eventos Sean A y B dos eventos con probabilidades no nulas de ocurrencia, P (A) 6= 0 6= P (B). Estos eventos son llamados
estadsticamente independientes si la probabilidad de ocurrencia de un evento no es afectada por la ocurrencia del otro
evento. Matematicamente,
P (A | B) = P (A)
(1.16)
P (B | A) = P (B)
(1.17)
P (A B) = P (A)P (B)
(1.18)
Las ecuaciones 1.16 y 1.18 son condiciones tanto necesarias como suficientes. En consecuencia, la ecuacion 1.18 puede servir como test de independencia.
Se ha establecido que la probabilidad conjunta de dos eventos mutuamente excluyentes es 0:
P (A B) = 0
(1.19)
CAPITULO 1. TEORIA BASICA
DE LA PROBABILIDAD
22
tanto, para que dos eventos sean independientes deben tener una interseccion
A B 6= .
Si un problema involucra mas de dos eventos que satisfacen ya sea 1.16
o 1.18, se dice que tales eventos son independientes por parejas.
Caso de eventos m
ultiples Cuando hay mas de dos eventos involucrados,
la independencia por parejas no es suficiente para establecer los eventos como
estadsticamente independientes.
Para el caso de tres eventos A1 , A2 , A3 , se dice que son independientes si
y solo si, son independientes por parejas todos y son tambien independientes
como tro, es decir, deben satisfacer las cuatro ecuaciones siguientes:
23
CAPITULO 1. TEORIA BASICA
DE LA PROBABILIDAD
24
cualquiera de ellos es independiente de cualquier evento formado por uniones, intersecciones, y complementos de los otros. Algunos ejemplos de la
aplicacion de este enunciado son los siguientes:
1. Para dos eventos independientes A1 y A2 , A1 es independiente de A2 ,
A1 es independiente de A2 , y A1 es independiente de A2 .
2. Para tres eventos independientes A1 , A2 y A3 , cualquiera de ellos es
independiente de la ocurrencia conjunta de los otros dos. Por ejemplo:
(1.21)
Las ecuaciones 1.20 y 1.21 no son validas si solo los eventos son independientes por parejas.
1.3.5.
25
Para este tipo de experimento, sea A el evento elemental que tiene uno de
los dos resultados posibles como su elemento. A es el otro posible (y u
nico)
evento elemental. Se repetira el experimento basico N veces, y se calculara la
probabilidad de que A acaezca k veces en las N veces. De aqu le viene el
nombre de pruebas repetidas o ensayos de Bernoulli.
Supongase que los eventos elementales son estadsticamente independientes por cada ensayo. El evento A ocurre en cualquier ensayo con probabilidad
P (A) = p. El evento A entonces tiene probabilidad P (A) = 1 p.
Despues de N ensayos del experimento basico, una secuencia particular
de resultados tiene el evento A ocurriendo k veces, seguido por el evento A
ocurriendo N k veces. Puesto que se asumio la independencia estadstica
de los ensayos, la probabilidad de esta secuencia particular es:
(1.22)
N
k
Se obtiene finalmente:
(1.23)
CAPITULO 1. TEORIA BASICA
DE LA PROBABILIDAD
26
N k
P {A ocurre exactamente k veces} =
p (1 p)N k
k
(1.24)
Ejemplo
Un submarino intenta hundir un portaaviones. Sera exitoso solamente si
dos o mas torpedos aciertan en el barco. Si el submarino dispara tres torpedos
y la probabilidad de un acierto es 0,4 por cada torpedo, cual es la probabilidad
de que el barco sea hundido?
Defina el evento A = {aciertos de torpedo}. Entonces P (A) = 0,4, N =
3. Las probabilidades se hallan como sigue:
3
P {ning
un acierto} =
(0,4)0 (1 0,4)3 = 0,216
0
3
P {exactamente un acierto} =
(0,4)1 (1 0,4)2 = 0,432
1
3
P {exactamente dos aciertos} =
(0,4)2 (1 0,4)1 = 0,288
2
3
P {exactamente tres aciertos} =
(0,4)3 (1 0,4)0 = 0,064
3
La respuesta que se busca es:
27
Ejemplo
En un cultivo usado para investigacion biologica el crecimiento de bacterias (lo cual es inevitable) ocasionalmente altera los resultados de un experimento que requiere a lo menos 3 de cuatro cultivos sin alterar para obtener
un punto dato. La experiencia ha demostrado que alrededor de 6 sobre 100
cultivos son alterados por las bacterias. Si el experimento requiere de tres
puntos datos inalterados y simultaneamente obtenidos para que sea exitoso,
se encontrara la probabilidad de exito por cada conjunto dado de 12 cultivos
(tres puntos datos a partir de cuatro cultivos cada uno).
Para resolver este problema, se calculara primero la probabilidad de encontrar un punto dato valido a partir de cuatro cultivos. Por consiguiente, se
tiene un problema de ensayo Bernoulli con N = 4 y p = P {buen cultivo} =
94
100
= 0,94.
CAPITULO 1. TEORIA BASICA
DE LA PROBABILIDAD
28
Aproximaciones
Cuando N , k y (N k) son grandes, los factoriales presentes en la ecuacion 1.24 son difciles de evaluar, por lo que se emplea formulas de aproximacion. Una de ellas es la formula de Stirling descrita por
m! (2m) 2 mm em
(1.25)
para m grande. Al aplicar esta formula a los factoriales junto con otras aproximaciones, se obtiene
N k
1
(k N p)2
N k
p (1 p)
p
exp
k
2N p(1 p)
2N p(1 p)
(1.26)
29
(50 120(0,4))2
120
1
50
12050
exp
0,4 (0,6)
p
50
2(120)(0,4)(0,6)
2120(0,4)(0,6)
= 0,0693
La aproximacion de De Moivre-Laplace deja de ser precisa cuando N se
vuelve muy grande mientras que p es muy peque
na. Para estas condiciones,
se usa la aproximacion de Poisson:
N k
(N p)k eN p
p (1 p)N k
k!
k
para N grande y p peque
na.
(1.27)
30
Captulo 2
Variables aleatorias
31
32
2.1.
Pre
ambulo
2.2.
Concepto
Una variable aleatoria real (las hay tambien complejas) es una funcion
real de los elementos de un espacio de muestras S. Una variable aleatoria se
representara por una letra may
uscula (W, X, Y) y cualquier valor particular
de la variable aleatoria por una letra min
uscula (w, x, y). De esta forma, dado
un experimento definido por un espacio de muestras S con elementos s, se
asigna a todo s un n
umero real X(s) de acuerdo con alguna regla especfica,
y a X(s) se le llama variable aleatoria.
Una variable aleatoria X puede verse como una funcion que mapea todos
los elementos del espacio S a puntos sobre la recta real o sobre algunos
segmentos de ella.
Ejemplo
Un experimento consiste en tirar un dado y voltear una moneda. El espacio de muestras consiste de doce elementos:
(C, 6)
(C, 5)
(C, 4)
(C, 3)
(C, 2)
(C, 1)
(E, 6)
(E, 5)
(E, 4)
(E, 3)
(E, 2)
(E, 1)
2.2. CONCEPTO
33
Sea X una variable aleatoria definida como: (1) un resultado escudo corresponde a valores positivos de X que son iguales a los n
umeros que se
muestran en el dado y, (2) un resultado corona corresponde a valores negativos de X que son iguales en magnitud a dos veces el n
umero aparecido en
el dado. X mapea S a doce valores entre 12 y 6.
Ejemplo
Considerese una rueda con n
umeros marcados en su circunferencia, numerados de 1 a 12, imitando un reloj, con la diferencia de que hay un puntero en lugar de las dos manecillas del reloj. De esta forma, si se da vuelta
al puntero, este se
nalara un n
umero localizado en el intervalo ]0, 12]. El experimento fsico a considerar en este caso es girar el puntero y producir un
n
umero dentro del intervalo dado. S consiste de los n
umeros en el conjunto
{0 < s 6 12}. Se define una variable aleatoria por la funcion X = X(s) = s2 .
Los puntos de S mapean a la recta real como el conjunto {0 < x 6 144}.
Como se ve de estos dos ejemplos, una variable aleatoria es una funcion
que mapea cada punto en S a alg
un punto de la recta real. No es necesario
que los puntos del espacio de muestras mapeen en forma u
nica, en el sentido
de que mas de un punto en S puede mapear a un solo valor de X. Por ejemplo,
en un caso extremo, se mapea todos los 6 puntos en el espacio de muestras
del experimento tirar un dado y observar el n
umero que aparece al punto
u
nico X = 2.
Condiciones para que una funci
on sea una variable aleatoria
Una variable aleatoria puede ser cualquier funcion que se desee, excepto
que no puede ser multivaluada. Es decir, todo punto en S debe corresponder
a solamente un valor de la variable aleatoria. Dos condiciones adicionales
deben ser satisfechas por una funcion X para que sea una variable aleatoria.
34
P {X = } = 0
2.2.1.
Una variable aleatoria discreta es una que toma solamente valores discretos. El espacio de probabilidad para una variable aleatoria discreta puede ser
discreto, continuo o una mezcla de puntos discretos y continuos.
Una variable aleatoria continua es una que tiene un ambito continuo de
valores. No puede originarse de un espacio de muestras discreto debido al
requisito de que toda variable aleatoria sea una funcion univaluada de todos
los puntos del espacio de muestras. De manera similar, una variable aleatoria
continua no puede resultar de un espacio de muestras mixto debido a la
presencia de la porcion discreta del espacio de probabilidad.
Variable aleatoria mixta
Una variable aleatoria mixta es una para la que algunos de sus valores
son discretos y algunos son continuos. Este caso es de los menos importantes,
DE DISTRIBUCION
2.3. LA FUNCION
35
2.3.
La funci
on de distribuci
on
(2.1)
36
FX (x) =
N
X
P {X = xi }u(x xi )
(2.2)
i=1
FX (x) =
N
X
P (xi )u(x xi )
(2.3)
i=1
Ejemplo
X tiene los valores discretos {1; 0,5; 0,7; 1,5; 3}. Las probabilidades correspondientes son {0,1; 0,2; 0,1; 0,4; 0,2}. Ahora, P {X < 1} = 0 dado que
no hay puntos del espacio de muestra en el conjunto {X < 1}. Solamente
DE DENSIDAD PROBABILISTICA
2.4. FUNCION
37
cuando X = 1 se obtiene un resultado y hay un salto inmediato en probabilidad de 0,1 en la funcion FX (x) en el punto x = 1. Para 1 < x < 0,5,
no hay puntos del espacio de muestra adicionales de modo que FX (x) permanece constante en el valor 0,1. En x = 0,5, hay otro salto de 0,2 en
FX (x). Este proceso contin
ua hasta que se incluye todos los puntos. Despues
del u
ltimo punto, FX (x) iguala 1,0.
Una variable aleatoria continua tendra una funcion de distribucion continua.
La funcion de distribucion de una variable aleatoria mixta es una suma
de dos partes, una en forma escalonada, la otra continua.
2.4.
Funci
on de densidad probabilstica
dFX (x)
dx
(2.4)
fX (x) =
N
X
P (xi )(x xi )
(2.5)
i=1
38
3. FX (x) =
fX ()d.
x2
4. P {x1 < X 6 x2 } =
fX (x)dx.
x1
gX (x) =
x0 > x > x0 +
(x x0 + ) x0 6 x < x0
1
(x
2
x0 ) x0 6 x < x0 +
Se trata de una funcion triangular, con una area determinada por el producto a. Para que sea una funcion de densidad, se debe tener que a = 1,
DE DENSIDAD PROBABILISTICA
2.4. FUNCION
39
con lo que a = 1/. Si a toma este valor, entonces la funcion de distribucion correspondiente, de acuerdo con la tercera propiedad de las funciones de
densidad expuesta anteriormente, estara descrita por:
GX (x) =
(xx20 +)
2
1
2
x0 > x
x0 6 x < x0
+ 1 (x x0 )
1
(x
22
x0 )2 x0 6 x < x0 +
x0 + 6 x
Ejemplo
Suponga que una variable aleatoria tiene la densidad de probabilidad triangular del ejemplo anterior con x0 = 8, = 5 y a =
= 51 . Por el trabajo
hecho anteriormente,
fX (x) =
3 > x > 13
(x3)
25
0,2
36x<8
(x8)
25
8 6 x < 13
6,7
(x 3)
dx
25
4,5
6,7
1 x2
=
3x
25 2
Z
4,5
= 0,2288
40
2.4.1.
Funci
on de densidad gaussiana Una variable aleatoria X es llamada
gaussiana si su funcion de densidad tiene la forma:
(x aX )2
fX (x) = p
exp
2
2
2X
2X
(2.6)
FX (x) = p
2
2X
( aX )2
exp
d
2
2X
(2.7)
2
exp
d
2
(2.8)
DE DENSIDAD PROBABILISTICA
2.4. FUNCION
41
(2.9)
( aX )
X
(2.10)
de donde se obtiene d = X du y,
1
FX (x) =
2
(xaX )/X
1 2
exp u du
2
(2.11)
x aX
X
(2.12)
Ejemplo
Encuentre la probabilidad del evento {X 6 5,5} para una variable aleatoria gaussiana con aX = 3 y X = 2.
Se tiene aqu que:
(x aX )
(5,5 3)
=
= 1,25
X
2
Con lo que entonces:
P {X 6 5,5} = FX (5,5) = F (1,25) = 0,8944
Ejemplo
Suponga que la altura de las nubes arriba de la tierra en cierto lugar
es una variable aleatoria gaussiana X con aX = 1830 metros y X = 460
42
metros. Encuentre la probabilidad de que las nubes estaran mas altas que
2750 metros.
fX (x) =
N
X
N
k=0
pk (1 p)N k (x k)
N
k
(2.13)
es el coeficiente
binomial
N
N!
=
(2.14)
k!(N k)!
k
La densidad binomial se aplica al experimento de las pruebas de Bernoulli,
como asimismo a muchos juegos de azar, problemas de deteccion en radar
y sonar, y muchos experimentos con solamente dos posibles resultados en
cualquier prueba.
La correspondiente funcion de distribucion binomial es
FX (x) =
N
X
N
k=0
pk (1 p)N k u(x k)
(2.15)
Funci
on de densidad Poisson La variable aleatoria de Poisson X tiene
una densidad y distribucion dadas por
DE DENSIDAD PROBABILISTICA
2.4. FUNCION
fX (x) = e
X
bk
k=0
FX (x) = eb
k!
X
bk
k=0
k!
43
(x k)
(2.16)
u(x k)
(2.17)
donde b > 0 es una constante real. Cuando son graficadas, estas funciones
parecen similares a la variable aleatoria binomial. De hecho, si N y
p 0 para el caso binomial de tal manera que N p = b, una constante,
entonces resulta la funcion de densidad de Poisson.
La variable aleatoria de Poisson se aplica a una amplia variedad de aplicaciones que incluyen conteo. Describe el n
umero de unidades defectuosas
en una muestra tomada de una lnea de produccion, el n
umero de llamadas
telefonicas hechas durante un periodo de tiempo, el n
umero de electrones emitidos desde una peque
na seccion de un catodo en un intervalo dado, etcetera.
Si el intervalo de interes tiene duracion T y los eventos que se cuentan se sabe que ocurren a una tasa promedio y siguen una distribucion de Poisson,
entonces b esta dado por
b = T
(2.18)
Ejemplo
Suponga que las llegadas de automoviles a una estacion de gasolina siguen
la distribucion de Poisson y ocurren a una tasa promedio de 50/hora. La
estacion tiene una sola bomba de gasolina. Si todos los carros se supone que
requieren de un minuto para cargar, cual es la probabilidad de que una fila
de espera ocurra en la bomba?
Una fila de espera ocurrira si dos o mas carros llegan en cualquier intervalo de un minuto. La probabilidad de este evento es uno menos la probabilidad
44
1
ba
a6x6b
para otros valores de x
FX (x) =
(xa)
(ba)
x<a
a6x<b
b6x
(2.19)
(2.20)
1
b
exp
xa
b
x>a
x<a
(2.21)
DE DENSIDAD PROBABILISTICA
2.4. FUNCION
FX (x) =
1 exp
0
xa
b
x>a
x<a
45
(2.22)
para n
umeros reales < a < y b > 0.
La funcion de densidad exponencial es u
til para describir los tama
nos de
las gotas cuando se hace un gran n
umero de mediciones de lluvia. Tambien
describe aproximadamente las fluctuaciones en la fuerza de la se
nal recibida
por radar de ciertos aviones.
Ejemplo
La potencia reflejada de un avion de estructura compleja que es recibida
por un radar puede describirse por una variable aleatoria exponencial P . La
funcion de densidad de P es por lo tanto,
(
fP (p) =
1
P0
exp
Pp0
p>0
p<0
P {P > P0 } = 1 P {P 6 P0 }
= 1 FP (P0 )
P0
= 1 1 exp
P0
1
= e 0,368
En otras palabras, la potencia recibida es mayor que su valor promedio
cerca del 36,8 % del tiempo.
46
Funci
on de densidad Rayleigh Las funciones de distribucion y de
densidad Rayleigh son:
(
fX (x) =
FX (x) =
2
(x
b
0
(
h
i
2
a) exp (xa)
b
i
h
2
1 exp (xa)
b
0
x>a
x<a
x>a
x<a
(2.23)
(2.24)
2.5.
2.5.1.
Densidad y distribuci
on condicionales
Funci
on de distribuci
on condicional
Sea A el evento {X 6 x} referido a la variable aleatoria X. La probabilidad resultante P {X 6 x | B} se define como la funcion de distribucion
condicional de X, que se denota FX (x | B). De esta forma,
FX (x | B) = P {X 6 x | B}
P {{X 6 x} B}
=
P (B)
(2.25)
CONDICIONALES
2.5. DENSIDAD Y DISTRIBUCION
47
(2.26)
2.5.2.
Funci
on de densidad condicional
d
FX (x | B)
dx
(2.27)
48
3. FX (x | B) =
fX (v | B)dv
x2
4. P {x1 < X 6 x2 | B} =
fX (x | B)dx
x1
Ejemplo
Dos cajas tienen bolas rojas, verdes y azules; el n
umero de bolas de cada
color en cada caja se da en la tabla siguiente.
xi
1
2
3
Totales
CONDICIONALES
2.5. DENSIDAD Y DISTRIBUCION
49
B1 B2 es el evento seguro, puesto que alguna caja debe ser escogida; por lo
tanto, P (B1 ) + P (B2 ) debe igualar 1).
Defina una variable aleatoria discreta X con valores x1 = 1, x2 = 2 y
x3 = 3 cuando una bola roja, verde o azul se escoge, y sea B un evento igual
a B1 o B2 .
5
100
35
P (X = 2 | B = B1 ) =
100
60
P (X = 3 | B = B1 ) =
100
P (X = 1 | B = B1 ) =
80
150
60
P (X = 2 | B = B2 ) =
150
10
P (X = 3 | B = B2 ) =
150
P (X = 1 | B = B2 ) =
fX (x | B1 ) =
35
60
5
(x 1) +
(x 2) +
(x 3)
100
100
100
FX (x | B1 ) =
5
35
60
u(x 1) +
u(x 2) +
u(x 3)
100
100
100
50
P (X = 1) = P (X = 1 | B1 )P (B1 ) + P (X = 1 | B2 )P (B2 )
5
2
80
8
=
+
100
10
150
10
= 0,437
P (X = 2) = P (X = 2 | B1 )P (B1 ) + P (X = 2 | B2 )P (B2 )
35
2
60
8
=
+
100
10
150
10
= 0,390
P (X = 3) = P (X = 3 | B1 )P (B1 ) + P (X = 3 | B2 )P (B2 )
60
2
10
8
=
+
100
10
150
10
= 0,173
Finalmente,
FX (x | X 6 b) = P {X 6 x | X 6 b} =
P {{X 6 x} {X 6 b}}
P {X 6 b}
CONDICIONALES
2.5. DENSIDAD Y DISTRIBUCION
51
P {{X 6 x} {X 6 b}}
P {X 6 b}
P {X 6 b}
=
P {X 6 b}
= 1
FX (x | X 6 b) =
P {{X 6 x} {X 6 b}}
P {X 6 b}
FX (x)
=
FX (b)
FX (x | X 6 b) =
FX (x)
FX (b)
FX (x | X 6 b) =
x<b
x>b
fX (x)
fX (x)
x<b
F (b) = R b
X
fX (x)dx
fX (x | X 6 b) =
0
x>b
De la suposicion inicial de que el evento condicionante tiene probabilidad
diferente de cero, se tiene que 0 < FX (b) 6 1, con lo que la funcion de
52
FX (x | X 6 b) > FX (x)
(2.28)
(2.29)
Ejemplo
La distancia de yerro radial de aterrizajes por paracadas medida desde el
centro del blanco, es una variable aleatoria Rayleigh con b = 800 m2 y a = 0.
x2
FX (x) = 1 exp
u(x)
800
53
2.6.
E[X] = X
Z
=
xfX (x)dx
(2.30)
(2.31)
54
E [X] =
N
X
N
X
i=1
N
X
i=1
x(x xi )dx
P (xi )
xi P (xi )
(2.32)
i=1
E [X] = a si fX (x + a) = fX (x + a)
2.7.
Para una funcion real g(x) de una variable aleatoria X, que se denota por
g(X)1 , su valor esperado esta dado por
Z
E [g(X)] =
g(x)fX (x)dx
(2.33)
Cabe aclarar aqu, que cualquier funcion de una variable aleatoria, es a su vez, una
variable aleatoria.
G(X)
2.7. VALOR ESPERADO DE UNA FUNCION
E [g(X)] =
N
X
g(xi )P (xi )
55
(2.34)
i=1
E [g(V )] = E V 2
2
Z
2
v
2
v
=
v exp
dv
5
5
0
2
Z
2
v
3
=
v exp
dv
5
5
0
Z
5e d
=
0
= 5
En el desarrollo inmediato anterior, se utilizo la sustitucion =
v2
5
56
2.8.
xfX (x | B)dx
E [X | B] =
(2.35)
fX (x)
fX (x)dx
Rb
x<b
x>b
(2.36)
xfX (x | B)dx
#
Z "
fX (x)
x Rb
=
dx
f
(x)dx
X
R
xfX (x)dx
= R
b
f (x)dx
X
E [X | {X 6 b}] =
(2.37)
2.9.
2.9.1.
Momentos
Momentos alrededor del origen
mn = E [X n ]
Z
=
xn fX (x)dx
(2.38)
(2.39)
2.9. MOMENTOS
57
2.9.2.
Momentos centrales
Los momentos alrededor del valor medio de X se llaman momentos centrales y se denotan por n . Son el valor esperado de la funcion g(X) = (X X)n ,
= 0, 1, 2, . . ..
n
n = E X X
Z
n
=
x X fX (x)dx
(2.40)
(2.41)
2.9.3.
Varianza e inclinaci
on
h
2 i
2
X
= E X X
Z
=
(x X)2 fX (x)dx
h
i
2
= E X 2 2XX + X
= E[X 2 ] 2 (E[X])2 + X
= E[X 2 ] X
= m2 m21
(2.42)
(2.43)
(2.44)
(2.45)
58
2.10.
2.10.1.
Funci
on caracterstica
(2.46)
fX (x)ejx dx
X () =
(2.47)
X ()ejx d
(2.48)
59
mn = (j)
X ()
d n =0
(2.49)
2.10.2.
(2.50)
Funci
on generadora de momentos
MX () = E [ex ]
Z
=
fX (x)ex dx
(2.51)
(2.52)
donde es un n
umero real con < < .
Los momentos estan relacionados con MX () por la expresion
dn MX ()
mn =
d n =0
(2.53)
60
Ejemplo
fX (x) =
1
b
e(xa)/b x > a
x<a
X () =
=
=
=
1 (xa)/b jx
e
e dx
b
a
a/b Z
e
1
exp j
x dx
b
b
a
a/b (1/bj)x
e
e
b
(1/b j) a
eja
1 jb
Z
La derivada de X () es
dX ()
jaeja (1 jb) (jb)eja
=
d
(1 jb)2
dX ()
= ja + jb
d =0
dX ()
m1 = (j)
d =0
= a+b
Si se considera ahora la funcion generadora de momentos:
=
=
=
=
1 (xa)/b x
e
e dx
b
a
a/b Z
1
e
e( b )x dx
b
a
a/b ( 1 )x
e b
e
1
b
b
a
a/b ( 1 )a
e b
e
1
b
b
ea
1 b
Z
MX () =
61
De la u
ltima expresion se puede obtener el primer momento:
m1
dMX ()
=
d =0
aea (1 b) (b)ea
=
(1 b)2
=0
= a+b
Este u
ltimo resultado coincide con el obtenido usando la funcion caracterstica.
2.11.
Y = T (X)
(2.54)
62
2.11.1.
Transformaciones monot
onicas de una V. A.
continua
FY (y0 ) = P {Y 6 y0 } = P {X 6 x0 } = FX (x0 )
Z
y0
x0 =T 1 (y0 )
fY (y)dy =
fX (x)dx
(2.55)
63
En este punto, es conveniente recordar el enunciado de la regla de Leibniz 3 : Si H(x, u) es continua en las variables x y u, y
Z
(u)
H(x, u)dx
G(u) =
(u)
dG(u)
d(u)
d(u)
= H [(u), u]
H [(u), u]
+
du
du
du
(u)
(u)
H(x, u)
dx (2.56)
u
(2.57)
dT 1 (y)
fY (y) = fX T 1 (y)
dy
dx
= fX (x)
dy
(2.58)
Gottfried Wilhelm von Leibniz, 1 de julio de 1646-14 de noviembre de 1716: diplomatico, fil
osofo, matem
atico y fsico alem
an, quien constituye una gloriosa excepcion al viejo
dicho de quien mucho abarca, poco aprieta.
64
dT 1 (y)
fY (y) = fX T 1 (y)
dy
dx
= fX (x)
dy
(2.59)
No obstante, dado que la pendiente de T 1 (y) es negativa pues la transformacion es decreciente, se concluye que, para cualquier tipo de transformacion
monotonica:
1 dT 1 (y)
fY (y) = fX T (y)
dy
dx
= fX (x)
dy
(2.60)
Este u
ltimo resultado nos da la funcion de densidad probabilstica de
la nueva variable aleatoria Y, por lo que tal expresion debe siempre quedar
en terminos de la variable y. Por consiguiente, al lado derecho de la u
ltima
ecuacion, todo debe quedar escrito en terminos de tal variable.
Ejemplo
Si Y = T (X) = aX+b, donde a, b R, entonces X = T 1 (Y ) = (Y b)/a
y dx/dy = 1/a.
(y b)
fY (y) = fX
a
Si X es gaussiana, la funcion de densidad
1
a
de Y quedara como:
h
i2
(yb)
a aX
1
1
fY (y) = p
exp
2
2
2
2X
a
X
(
)
1
[y (aaX + b)]2
= p
exp
2
2
2a2 X
2a2 X
65
Este u
ltimo ejemplo nos indica que una transformacion lineal de una
variable aleatoria gaussiana produce otra variable aleatoria gaussiana. En
el mundo practico, un amplificador lineal con un voltaje aleatorio X a su
entrada es un ejemplo de una transformacion lineal.
2.11.2.
Transformaciones no monot
onicas de una V. A.
continua
fX (x)dx
{x|Y 6y0 }
Z
fX (x)dx
(2.61)
{x|Y 6y0 }
Athanasios Papoulis, Probability, Random Variables, and Stochastic Processes. Segunda edici
on. New York: McGraw-Hill Book Company, 1984. Pagina 95.
66
fY (y) =
X
n
f (x )
X n
dT (x)
dx x=xn
(2.62)
donde la suma incluye todas las races xn , n = 1, 2, . . . , que son las soluciones
reales de la ecuacion y = T (x). Si y = T (x) no tiene races reales para un
valor dado de y, fY (y) = 0.
Ejemplo
Encuentrese fY (y) para la transformacion de ley cuadrada Y = T (X) =
cX 2 , donde c > 0 R.
Para la solucion, se utilizara dos metodos.
p
p
Metodo 1: El evento {Y 6 y} ocurre cuando { y/c 6 x 6 y/c} =
{x | Y 6 y}, con lo que
Z y/c
FY (y) =
d
fY (y) =
dy
fX (x)dx
y/c
Z y/c
fX (x)dx
y/c
2 y
2 y
c
c
p
p
fX ( y/c) + fX ( y/c)
=
y>0
2 yc
Metodo 2: Si se despeja X de la ecuacion Y = cX 2 se encuentra:
Y
= X2
c
p
X = Y /c
p
p
y/c, x2 = y/c. Ademas,
dT (x)
dx
67
r
dT (x)
y
= 2 yc
= 2c
dx x=x1
c
r
dT (x)
y
= 2c
= 2 yc
dx x=x2
c
Finalmente,
p
p
fX ( y/c) fX ( y/c)
fY (y) =
+
|2 cy|
|2 yc|
p
p
fX ( y/c) + fX ( y/c)
=
2 yc
2.11.3.
y>0
Transformaci
on de una variable aleatoria discreta
fX (x) =
P (xn )(x xn )
(2.63)
P (xn )u(x xn )
(2.64)
FX (x) =
X
n
68
fY (y) =
FY (y) =
P (yn )(y yn )
(2.65)
P (yn )u(y yn )
(2.66)
Captulo 3
Variables aleatorias m
ultiples
69
CAPITULO 3. VARIABLES ALEATORIAS MULTIPLES
70
3.1.
Pre
ambulo
A pesar del ttulo de este captulo, nuestro estudio hara enfasis sobre la
teora de dos variables aleatorias.
Si bien el estudio sera restringido a dos variables aleatorias, la generalizacion a tres o mas variables sera evidente y podra llevarse a cabo sin dificultad.
3.2.
Conceptos introductorios
B = {Y 6 y}
CONJUNTA
3.3. PROPIEDADES DE LA DISTRIBUCION
71
(3.1)
FX,Y (x, y) =
N X
M
X
(3.2)
n=1 m=1
3.3.
(3.3)
Propiedades de la distribuci
on conjunta
CAPITULO 3. VARIABLES ALEATORIAS MULTIPLES
72
3. 0 6 FX,Y (x, y) 6 1.
4. FX,Y (x, y) es un funcion no-decreciente tanto de x como de y.
5. FX,Y (x2 , y2 )+FX,Y (x1 , y1 )FX,Y (x1 , y2 )FX,Y (x2 , y1 ) = P {x1 < X1 6
x2 , y1 < Y 6 y2 } > 0.
6. FX,Y (x, ) = FX (x) FX,Y (, y) = FY (y).
La u
ltima propiedad establece que la funcion de distribucion de una variable aleatoria se obtiene poniendo el valor de la otra variable a infinito
en FX,Y (x, y). Las funciones Fx (x) y Fy (y) obtenidas de esta manera se
llaman funciones de distribucion marginales. Con respecto a esto, observese que FX,Y (x, y) = P {X 6 x, Y 6 y} = P (A B). Si se hace que
y = , esto equivale a hacer B = {Y 6 y} el evento cierto; es decir,
B = {Y 6 } = S. Ademas, dado que A B = A S = A, entonces se
tiene FX,Y (x, ) = P (A S) = P (A) = P {X 6 x} = FX (x), Una prueba
similar puede establecerse para FY (y).
De una funcion de distribucion conjunta N -dimensional se puede obtener
una funcion de distribucion marginal K-dimensional, para cualquier grupo
escogido de K de las N variables aleatorias, con fijar los valores de las otras
N K variables aleatorias a infinito. Aqu K puede ser cualquier entero
1, 2, 3, . . . , N 1.
3.4.
2 FX,Y (x, y)
xy
Se le conoce tambien como funcion de densidad conjunta.
fX,Y (x, y) =
73
(3.4)
fX,Y (x, y) =
N X
M
X
(3.5)
n=1 m=1
Cuando N variables aleatorias X1 , X2 , . . . , XN estan involucradas, la funcion de densidad conjunta se convierte en la N -esima derivada parcial de la
funcion de distribucion N -dimensional
(3.6)
xN
x1
(4a) FX (x) =
(4b) FY (y) =
CAPITULO 3. VARIABLES ALEATORIAS MULTIPLES
74
y2
x2
x1
(6a) fX (x) =
(6b) fY (y) =
Las funciones fX (x) y fY (y) se llaman funciones de densidad probabilstica marginal o, simplemente, funciones de densidad marginal.
dFX (x)
dx
dFY (y)
fY (y) =
dy
fX (x) =
Ejemplo
Encuentre fX (x) y fY (y) cuando la funcion de densidad conjunta es
fX,Y (x, y) = u(x)u(y)xex(y+1)
Para la solucion, se debe tomar la funcion de densidad conjunta e integrar
primero sobre todo el ambito de valores de la variable aleatoria Y, para obtener
la funcion de densidad de X. Luego, se toma la funcion de densidad conjunta
y se integra sobre todo el ambito de valores de la variable aleatoria X, para
obtener la funcion de densidad de Y.
Z
u(x)u(y)xex(y+1) dy
0
Z
x
= u(x)xe
exy dy
0 xy
e
= xex u(x)
x 0
= ex u(x)
fX (x) =
CONDICIONAL
3.5. DENSIDAD Y DISTRIBUCION
75
u(x)u(y)xex(y+1) dx
0
Z
xex(y+1) dx
= u(y)
0
x(y+1)
xex(y+1)
e
= u(y)
y+1
(y + 1)2 0
0
u(y)
=
(y + 1)2
fY (y) =
(3.7)
3.5.
3.5.1.
Densidad y distribuci
on condicional
Condicionamiento puntual
En algunos problemas practicos se esta interesado en la funcion de distribucion de una variable aleatoria X condicionada por el hecho de que una
segunda variable aleatoria Y tiene alg
un valor especfico y. Esto se llama condicionamiento puntual y esto se maneja definiendo un evento condicionante
B por
CAPITULO 3. VARIABLES ALEATORIAS MULTIPLES
76
B = {y y < Y 6 y + y}
donde y es una peque
na cantidad que eventualmente puede aproximar 0.
Se escribe:
R y+y R x
yy
FX (x|y y < Y 6 y + y) =
(3.8)
fY (y) =
M
X
P (yj )(y yj )
j=1
fX.Y (x, y) =
N X
M
X
i=1 j=1
FX (x|Y = yk ) =
N
X
P (xi , yk )
i=1
P (yk )
u(x xi )
(3.9)
(x xi )
(3.10)
Despues de derivar,
fX (x|Y = yk ) =
N
X
P (xi , yk )
i=1
P (yk )
CONDICIONAL
3.5. DENSIDAD Y DISTRIBUCION
77
(3.11)
para todo y tal que fY (y) 6= 0. Despues de diferenciar ambos lados con
respecto a x:
fX (x|Y = y) =
fX,Y (x, y)
fY (y)
(3.12)
fX (x|y) =
fX,Y (x, y)
fY (y)
(3.13)
fX,Y (x, y)
fX (x)
(3.14)
fY (y|x) =
Ejemplo
CAPITULO 3. VARIABLES ALEATORIAS MULTIPLES
78
3.5.2.
FX (x|ya < Y 6 yb } =
(3.15)
(3.16)
(3.17)
Estas u
ltimas dos expresiones son validas para X e Y variables aleatorias
discretas o continuas.
Ejemplo
Encuentre fX (x|Y 6 y) de la funcion de densidad conjunta del ejemplo
anterior.
Puesto que se ha definido B = {Y 6 y}, entonces ya = e yb = y.
Ademas, dado que fX,Y (x, y) es no nula para x > 0 e y > 0, se necesita
solamente considerar esta region de x e y para hallar la funcion de densidad
condicional. El denominador de la formula anterior es
fY (v)dv =
u(v)dv
=
(v + 1)2
Z
0
y
dv
1
y
=
=
y>0
(v + 1)2
(v + 1) 0 y + 1
=
=
=
=
79
u(x)xex(v+1) dv
0
Z y
x
exv dv
xu(x)e
0 xv y
e
xu(x)ex
x 0
u(x)ex exy 1
1 exy u(x)ex y > 0
fX (x|Y 6 y) =
3.6.
Independencia estadstica
(3.18)
(3.19)
(3.20)
CAPITULO 3. VARIABLES ALEATORIAS MULTIPLES
80
FX (x|Y 6 y) =
(3.21)
(3.22)
(3.23)
fX (x|Y 6 y) = fX (x)
(3.24)
fY (y|X 6 x) = fY (y)
(3.25)
Ejemplo
Para las densidades de los ejemplos anteriores,
fX,Y (x, y) = u(x)u(y)xex(y+1)
En tanto que,
ex
u(x)u(y)
(y + 1)2
Como fX,Y (x, y) 6= fX (x)fY (y), las variables aleatorias X e Y no son
fX (x)fY (y) =
independientes.
3.7.
Distribuci
on y densidad de una suma de
variables aleatorias
Se va a analizar el problema de hallar las funciones de densidad y distribucion para una suma de variables aleatorias estadsticamente independientes.
3.7.1.
W =X +Y
(3.26)
FW (w) = P {W 6 w} = P {X + Y 6 w}
(3.27)
wy
FW (w) =
(3.28)
x=
FW (w) =
wy
fY (y)
fX (x)dxdy
(3.29)
x=
fY (y)fX (w y)dy
fW (w) =
(3.30)
CAPITULO 3. VARIABLES ALEATORIAS MULTIPLES
82
1
fX (x) =
[u(x) u(x a)]
a
1
fY (y) =
[u(y) u(y b)]
b
con 0 < a < b.
Este ejercicio se puede resolver mediante la integral de convolucion o
mediante el metodo de la transformada de Laplace. Se escoge este u
ltimo
metodo al notarse que ambas funciones de densidad estan definidas a partir
del origen, lo cual facilita un manejo algebraico del problema.
Se tiene entonces:
1 sx
e dx
0 a
sx a
1 e
=
a s 0
1
=
1 eas
as
1
L{fY (y)} =
1 ebs
bs
L{fX (x)} =
1
ab
1
s2
n!
+1
sn
Se obtiene entonces:
1
as
bs
(a+b)s
fW (w) = L
1e
e +e
abs2
1
1
1
wu(w) (w a)u(w a) (w b)u(w b)
=
ab
ab
ab
1
+ (w a b)u(w a b)
ab
1
3.7.2.
La funcion de densidad de Y = X1 + X2 + + XN , donde las Xi son variables aleatorias estadsticamente independientes entre s, es la convolucion
de las N funciones de densidad individuales:
CAPITULO 3. VARIABLES ALEATORIAS MULTIPLES
84
3.8.
(3.31)
3.8.1.
85
S N = X1 + + XN
(3.32)
Entonces la distribucion de
Z=
SN N
(3.33)
La notaci
on N (0, 1) se refiere a una funcion de densidad gaussiana de media 0 y
varianza 1.
CAPITULO 3. VARIABLES ALEATORIAS MULTIPLES
86
E [SN ] = E [X1 + X2 + + XN ]
= + + +
= N
Lo anterior se justifica porque E[Xi ] = . Con respecto a la varianza,
SN
2 i
SN SN
2
= E SN (E [SN ])2
= E
De la u
ltima identidad, se conoce el restando, que es la media de SN al
cuadrado. Con respecto al primer factor,
E SN 2 = E (X1 + X2 + + XN )2
= E [(X1 + X2 + + XN )(X1 + X2 + + XN )]
= E X12 + X1 X2 + X1 X3 + X1 XN + + . . .
. . . + XN X1 + XN X2 + + XN XN 1 + XN2
=
N
X
E[Xi2 ]
i=1
N
X
E[Xi ]E[Xj ]
i=1,i6=j
2
= N ( + ) + N (N 1)2
= N 2 + N 2 + N 2 2 N 2
= N 2 + N 2 2
Finalmente,
87
SN 2 = E SN 2 (E [SN ])2
= N 2 + N 2 2 N 2 2
= N 2
0,25 40
es una variable aleatoria distribuida aproximadamente de la forma N (0, 1),
suponiendo que N = 40 es suficientemente grande.
P {S40
S40 80
84 80
>
> 7 12 meses} = P
0,25 40
0,25 40
= P {Z > 2,53}
= 1 P {Z < 2,53}
= P {Z < 2,53}
= 0,0057
Ejemplo
CAPITULO 3. VARIABLES ALEATORIAS MULTIPLES
88
Con respecto al ejemplo anterior, cuantos bombillos N deberan comprarse de modo que se pueda estar 95 % seguro que el abastecimiento de N
durara 5 a
nos?
Notese que N = 30 bombillos tienen una vida esperada de 30 2 = 60
meses (5 a
nos). Para un N general, la vida total SN tiene
E [SN ] = 2N
SN = 0,25 N
= P
0,25 N
0,25 N
60 2N
= P Z>
0,25 N
60 2N
= 1P Z <
0,25 N
60 2N
= P Z<
0,25 N
60 2N
0,05 = P Z <
0,25 N
de donde
60 2N
= 1,645
0,25 N
Lo anterior lleva a una ecuacion cuadratica sobre la raz de N:
N 0,20565 N 30 = 0
Hay dos soluciones:
N1 = 5,581 o
89
p
N2 = 5,375
3.8.2.
=
N
/ N
Sean X1 , . . . , XN variables aleatorias independientes e identicamente distribuidas con media com
un , desviacion estandar y media de la muestra
X. Entonces la distribucion de la variable aleatoria definida por
Z=
/ N
90
Z=
S2
0,25/5
1,9 2
P {S > 1,9} = P Z >
0,25/5
= P {Z > 2}
= 1 P {Z < 2}
= 1 0,0228
= 0,9772
Para la parte (b), para hallar c, notese que
3.9. DESIGUALDAD DE CHEBYSHEV Y LEY DE LOS GRANDES NUMEROS91
3.9.
3.9.1.
Z
P (|W | > ) =
f (x)dx
|x|>
Z
=
x2 >2
2
f (x)dx
2
Una deducci
on similar se aplica cuando W es discreta en vez de ser continua.
CAPITULO 3. VARIABLES ALEATORIAS MULTIPLES
92
Z
x2 >2
2
f (x)dx 6
2
x2
f (x)dx
2
x2 >2
2
Z
6
x
f (x)dx
2
Z
1 2
x f (x)dx
= 2
E[W 2 ]
=
2
2
= 2
2
2
3.9. DESIGUALDAD DE CHEBYSHEV Y LEY DE LOS GRANDES NUMEROS93
En terminos del evento complementario,
2
2
Ejemplo
Cajas de cerrajes tienen un promedio de 100 cerrajes con una desviacion
estandar de 3. Encuentre la probabilidad que el n
umero de cerrajes en la caja
que se compra esta entre 95 y 105.
Este ejemplo se trabajara mediante dos enfoques. En el primer enfoque,
sea X el n
umero de cerrajes en la caja. Entonces = 100, = 3. Por lo
tanto, si se usa la desigualdad de Chebyshev con la informacion provista,
16
32
=
= 0,64
2
5
25
CAPITULO 3. VARIABLES ALEATORIAS MULTIPLES
94
95 100
105 100
P (95 < X < 105) = P
<Z<
3
3
5
5
= P <Z<
3
3
= P (1,67 < Z < 1,67)
= F (1,67) F (1,67)
= 1 F (1,67) F (1,67)
= 1 2(0,0475)
= 0,905
Para un tama
no de muestra grande, la probabilidad es mejor aproximada
usando el teorema del lmite central que usando la desigualdad de Chebyshev.
Esto es as dado que la desigualdad de Chebyshev es un resultado general
valido para toda distribucion con la misma media y varianza. Si empero, la
distribucion se sabe que es aproximadamente normal, entonces puede usarse
los detalles especficos de tal distribucion.
3.9.2.
entiSea {Xi }N
i=1 una muestra aleatoria. Los Xi son variables aleatorias id
camente distribuidas e independientes con media com
un y varianza 2 . Se
espera intuitivamente que la media de la muestra, X, debera ser cercana a
la media de la poblacion para N grande. Esto se expresa matematicamente
como
SN
=
N
N N
= X1 + . . . + XN es la suma. Se demostrara que la probabilidad
lm X = lm
donde SN
3.9. DESIGUALDAD DE CHEBYSHEV Y LEY DE LOS GRANDES NUMEROS95
se hace grande.
Sea > 0 un n
umero fijo. Por la independencia de la secuencia X1 , . . . , XN
en la muestra aleatoria, se cumple que:
E[SN ] = N
S2 N = N 2
La desigualdad de Chebyshev aplicada a SN establece que:
P (|SN N | > N ) 6
S2 N
N 2
2
=
=
(N )2
N 2 2
N 2
SN
P (|X | > ) = P
N >
= P (|SN N | > N )
2
6
N 2
Ahora, hagase N . Entonces la cota de la derecha en la u
ltima
ecuacion tiende a 0 y la siguiente conclusion se obtiene:
(Ley de los grandes n
umeros) Sea {Xi }N
i=1 una muestra aleatoria con media com
un y varianza 2 . Sea
SN = X1 + + XN
Entonces
SN
P
N > 0
conforme N para cada > 0 fijo.
CAPITULO 3. VARIABLES ALEATORIAS MULTIPLES
96
3.10.
3.10.1.
g = E[g(X, Y )] =
(3.34)
3.10. OPERACIONES CON VARIABLES ALEATORIAS MULTIPLES
97
g = E[g(X1 , X2 , . . . , XN )]
(3.35)
Z
Z
g(X1 , X2 , , XN ) =
N
X
i Xi
i=1
E[g(X1 , , XN )] = E
" N
X
#
i Xi
i=1
"
N Z
X
i=1
N
X
#
i Xi fX1 ,...,XN (x1 , . . . , xN )dx1 . . . dxN
i=1
de modo que
"
E
N
X
i=1
#
i Xi =
N
X
i=1
i E[Xi ]
CAPITULO 3. VARIABLES ALEATORIAS MULTIPLES
98
3.10.2.
mnk = E X n Y k
Z Z
xn y k fX,Y (x, y)dxdy
=
(3.37)
(3.38)
(3.39)
RXY = E[X]E[Y ]
entonces X e Y se dice que no estan correlacionadas. La independencia estadstica de X e Y es suficiente para garantizar que no estan correlacionadas.
El recproco de esta u
ltima frase, que X e Y son independientes si X e Y
3.10. OPERACIONES CON VARIABLES ALEATORIAS MULTIPLES
99
no estan correlacionadas, no es necesariamente cierto en general, con la sola
excepcion de las variables aleatorias gaussianas no correlacionadas, de las
que se sabe son tambien independientes.
Si RXY = 0 para dos variables aleatorias X e Y, estas se denominan
ortogonales.
Ejemplo
Sea X una variable aleatoria que tiene un valor medio X = E[X] = 3 y
2
varianza X
= 2. El segundo momento de X alrededor del origen se calcula
de:
2
X
= E[X 2 ] (E[X])2
2
E[X 2 ] = X
+ (E[X])2
= 11
Sea Y = 6X + 22. De aqu:
E[Y ] = 6E[X] + 22
= 6(3) + 22
= 4
RXY
= E[XY ]
= E[X(6X + 22)]
= E[6X 2 + 22X]
= 6E[X 2 ] + 22E[X]
= 6(11) + 22(3)
= 0
100
3.10.3.
nk = E (X X)n (Y Y )k
Z Z
=
(x X)n (y Y )k fX,Y (x, y)dxdy
(3.41)
(3.42)
02 = E[(Y Y )2 ] = Y2
son las varianzas de X e Y, respectivamente.
El momento conjunto de segundo orden 11 es la covarianza de X e Y, y
se le da el smbolo CXY . Por lo tanto,
3.10. OPERACIONES CON VARIABLES ALEATORIAS MULTIPLES101
CXY
= E[(X X)(Y Y )]
Z Z
=
(x X)(y Y )fX,Y (x, y)dxdy
(3.43)
(3.44)
= E[XY XY XY + X Y ]
CXY
= E[XY ] E[X]E[Y ]
(3.45)
= RXY E[X]E[Y ]
(3.46)
CXY
11
=
20 02
X Y
(3.47)
dado por
E[(X X)(Y Y )]
X Y
(X X) (Y Y )
= E
X
Y
(3.48)
(3.49)
n1 n2 nN = E (X1 X1 )n1 (X2 X2 )n2 (XN XN )nN
(3.50)
Z
Z
=
102
Ejemplo
Sea X una suma pesada de N variables aleatorias Xi :
X=
N
X
i X i
i=1
Encuentre la varianza de X.
X =
X X =
N
X
i=1
N
X
i X i
i (Xi Xi )
i=1
2
X
= E[(X X)2 ]
" N
#
N
X
X
= E
i (Xi Xi )
j (Xj Xj )
i=1
N X
N
X
j=1
i j E[(Xi Xi )(Xj Xj )]
i=1 j=1
N X
N
X
i j CXi Xj
i=1 j=1
0
i 6= j
2
Xi i = j
se cumple, se tiene
2
X
N
X
i=1
2
i2 X
i
3.10. OPERACIONES CON VARIABLES ALEATORIAS MULTIPLES103
Con base en esto u
ltimo, se concluye que la varianza de una suma pesada
de variables aleatorias no correlacionadas (con pesos i ) iguala a la suma
pesada de las varianzas de las variables aleatorias (con pesos i2 ).
3.10.4.
(3.51)
donde 1 , 2 son n
umeros reales. Una forma equivalente es:
X,Y (1 , 2 ) =
(3.52)
Lo anterior es la transformada bidimensional de Fourier (con signos cambiados para 1 , 2 ) de la funcion de densidad conjunta. De la transformada
inversa de Fourier se tiene:
1
fX,Y (x, y) =
(2)2
(3.53)
X (1 ) = X,Y (1 , 0)
(3.54)
Y (2 ) = X,Y (0, 2 )
(3.55)
CAPITULO 3. VARIABLES ALEATORIAS MULTIPLES
104
mnk
n+k
(
,
)
X,Y
1
2
= (j)n+k
1n 2k
1 =0,2 =0
(3.56)
Ejemplo
Dos variables aleatorias X e Y tienen la funcion caracterstica conjunta:
X,Y (1 , 2 ) = exp 212 822
Demuestre que X, Y tienen media cero y que no estan correlacionadas.
X = m10
X,Y (1 , 2 )
= j
1
=0, =0
1 2 2 2
= (j)(41 ) exp 21 82 |1 =0,2 =0
= 0
Y
= m01
= (j)(162 ) exp 212 822 1 =0,2 =0
= 0
RXY
= m11
2
2
2
exp 21 82
= (j)
1 2
1 =0,2 =0
2
2
= (41 )(162 ) exp 21 82 1 =0,2 =0
2
= 0
Puesto que las medias son cero, CXY = RXY . Por lo tanto, CXY = 0 y
las variables aleatorias no estan correlacionadas.
La funcion caracterstica conjunta para N variables aleatorias X1 , X2 , . . . , XN
esta definida por:
3.10. OPERACIONES CON VARIABLES ALEATORIAS MULTIPLES105
X1 ,X2 ,...,XN (1 , 2 , . . . , N ) = E ej1 X1 +j2 X2 ++jN XN
(3.57)
X1 ,X2 ,...,XN (1 , 2 , . . . , N )
nN
1n1 2n2 N
todo i =0
(3.58)
donde R = n1 + n2 + + nN .
La funcion caracterstica conjunta es u
til particularmente en ciertos problemas practicos donde la funcion de densidad probabilstica se necesita para
la variable aleatoria resultante de la suma de N estadsticamente independientes variables aleatorias.
Ejemplo
Sea Y = X1 +X2 + +XN la suma de N estadsticamente independientes
variables aleatorias Xi , i = 1, 2, . . . , N. Denotese las funciones de densidad
probabilstica y funciones caractersticas respectivas por fXi (xi ) y Xi (i ).
Debido a la independencia estadstica, la funcion de densidad probabilstica
conjunta es el producto de todas las funciones de densidad, por lo que la
funcion caracterstica conjunta esta dada por:
Z
X1 ,...,XN (1 , . . . , N ) =
Z "Y
N
#
fXi (xi ) exp
i=1
N Z
Y
i=1
N
Y
( N
X
)
ji xi
dx1 dxN
i=1
Xi (i )
i=1
106
Y () = E[ejY ]
"
( N
)#
X
= E exp
jXi
i=1
= X1 ,...,XN (, . . . , )
N
Y
=
Xi ()
i=1
La funcion caracterstica de Y es similar a la funcion caracterstica conjunta, definida en la ecuacion 3.57, con i = , para todo i. La funcion de
densidad probabilstica de Y se obtiene de la version particular de la transformada de Fourier inversa aplicada sobre la funcion caracterstica correspondiente:
1
fY (y) =
2
"
N
Y
#
Xi () ejy d
i=1
3.11.
[X ()]N ejy d
1
(x X)2
1
p
exp
fX,Y (x, y) =
2
2(1 2 )
X
2X Y 1 2
2(x X)(y Y ) (y Y )2
+
X Y
Y2
(3.59)
(3.60)
(x X)2
fX (x) = p
exp
2
2
2X
2X
(y Y )2
1
exp
fX (x) = p
2Y2
2Y2
1
(3.61)
108
Y1 = X cos + Y sen
Y2 = Xsen + Y cos
3.12. TRANSFORMACIONES DE VARIABLES ALEATORIAS MULTIPLES109
sen2 2
2
(Y X
) + cos 2CXY = 0
2
sen2 2
2
(Y X
) + cos 2X Y = 0
2
sen2 2
(X Y2 ) = 2 cos 2X Y
2
2X Y
tan 2 =
2
X
Y2
1
2X Y
arctan
=
2
Y2 )
2
(X
Este u
ltimo resultado comprueba la ecuacion 3.61.
3.12.
(3.62)
definidas por transformaciones funcionales Ti . Xi puede ser continua, discreta o mixta, mientras las funciones Ti pueden ser lineales o no, continuas,
segmentadas, etcetera. Solamente se discutira un caso representativo a continuacion.
Supongase que las nuevas variables aleatorias Yi son producidas por funciones univaluadas continuas Ti con derivadas parciales continuas en todas
CAPITULO 3. VARIABLES ALEATORIAS MULTIPLES
110
Xj = Tj1 (Y1 , Y2 , . . . , YN ) j = 1, 2, . . . , N
(3.63)
Estas suposiciones implican que un punto en el espacio de muestras conjunto de las Xi mapea en un solo punto en el espacio de las nuevas variables
Yj .
Sea RX una region cerrada de puntos en el espacio de las Xi , y RY sea la
region correspondiente de puntos mapeados en el espacio de las Yj . Entonces,
la probabilidad que un punto caiga en RX iguala a la probabilidad que su
punto mapeado caiga en RY . Estas probabilidades, en terminos de densidades
conjuntas, estan dadas por:
sobre RY
dy1 . . . dyN
(3.64)
3.12. TRANSFORMACIONES DE VARIABLES ALEATORIAS MULTIPLES111
J =
T11
Y1
..
.
1
TN
Y1
..
.
T11
YN
..
.
1
TN
YN
(3.65)
(3.66)
sobre RY
Dado que este resultado debe igualar el lado derecho de la ecuacion 3.64,
entonces:
(3.67)
Ejemplo
Considerese las siguientes transformaciones lineales:
Y1 = aX1 + bX2
Y2 = cX1 + dX2
donde a, b, c, d son constantes reales. Las funciones inversas se obtienen resolviendo estas dos ecuaciones para las dos variables X1 y X2 . Si se usa la
regla de Cramer para ello:
Y1
Y2
X1 =
a
d
dY1 bY2
=
ad bc
b
d
112
c
X2 =
a
Y1
Y2
cY1 + aY2
=
ad bc
b
J =
X1
Y1
X2
Y1
X1
Y2
X2
Y2
d
adbc
c
adbc
b
adbc
a
adbc
1
=
ad bc
dy1 by2 cy1 + ay2
fY1 ,Y2 (y1 , y2 ) = fX1 ,X2
,
|J|
ad bc
ad bc
1
dy1 by2 cy1 + ay2
,
= fX1 ,X2
ad bc
ad bc
|ad bc|
Captulo 4
Procesos estoc
asticos
113
CAPITULO 4. PROCESOS ESTOCASTICOS
114
4.1.
Pre
ambulo
4.2.
Conceptos b
asicos
4.2.1.
El concepto de un proceso aleatorio esta basado en la extension del concepto de una variable aleatoria para incluir el tiempo. Dado que una variable
aleatoria X es una funcion de los posibles resultados s de un experimento, se
convierte en una funcion tanto de s como del tiempo. Se asigna, de acuerdo
4.2. CONCEPTOS BASICOS
115
x(t, s)
a todo resultado s. La familia de todas estas funciones, denotada X(t, s), es
denominada un proceso aleatorio o procesos estocastico. Como con variables
aleatorias donde x denota un valor especfico de la variable aleatoria X,
se usara a menudo la notacion abreviada x(t), para representar una onda
especfica de un proceso aleatorio denotado por X(t).
Un proceso aleatorio X(t, s) representa una familia o agregado de funciones del tiempo cuando t y s son variables.
Cada una de las funciones del tiempo, miembro del proceso estocastico, se
llama una funcion muestra, miembro del agregado o, a veces, una realizacion
del proceso. As, un proceso aleatorio tambien representa una simple funcion
del tiempo cuando t es una variable y s esta fijo en un valor especfico.
Un proceso aleatorio representa una variable aleatoria cuando t es fijo y s
es una variable. Por ejemplo, la variable aleatoria X(t1 , s) = X(t1 ) se obtiene
del proceso cuando el tiempo se congela al valor t1 . A menudo se usa la notacion X1 para denotar la variable aleatoria asociada con el proceso X(t) en el
tiempo t1 . X1 corresponde a una tajada vertical por el agregado en el tiempo
t1 . Las propiedades estadsticas de X1 = X(t1 ) describen las propiedades
estadsticas del proceso aleatorio en el tiempo t1 . El valor esperado de X1 es
denominado el promedio del agregado as como el valor medio o esperado del
proceso aleatorio (en el tiempo t1 ). Dado que t1 puede tener varios valores, el
valor medio de un proceso puede no ser constante; en general, es una funcion
del tiempo. Se visualiza facilmente cualquier n
umero de variables aleatorias
Xi derivadas de un proceso aleatorio X(t) en tiempos ti , i = 1, 2, . . . , como
116
Xi = X(ti , s) = X(ti )
Un proceso aleatorio representa un simple n
umero cuando t y s son ambos
fijos.
4.2.2.
Clasificaci
on de procesos
4.2. CONCEPTOS BASICOS
117
X(t) = A cos (0 t + )
(4.1)
Aqu A, u 0 (o todos) pueden ser variables aleatorias. Cualquier funcion muestra corresponde a la ecuacion 4.1 con valores particulares de estas
variables aleatorias. Por consiguiente, el conocimiento de la funcion muestra
con anterioridad a cualquier instante del tiempo, permite automaticamente
la prediccion de los valores futuros de la funcion muestra porque su forma es
conocida.
Estacionaridad e independencia
Un proceso aleatorio se convierte en una variable aleatoria cuando el tiempo se fija en un valor particular. La variable aleatoria poseera propiedades
estadsticas, tales como valor medio, momentos, varianza, etcetera, relacionados con su funcion de densidad. Si dos variables aleatorias se obtienen del
proceso para dos instantes del tiempo, tendran propiedades estadsticas (medias, varianzas, momentos conjuntos, etcetera) relacionados con su funcion de
densidad conjunta. En general, N variables aleatorias poseeran propiedades
estadsticas relacionadas con su funcion de densidad conjunta N -dimensional.
Hablando ampliamente, un proceso aleatorio se dice que es estacionario
CAPITULO 4. PROCESOS ESTOCASTICOS
118
si todas sus propiedades estadsticas no cambian con el tiempo. Otros procesos son denominados no-estacionarios. Estas u
ltimas definiciones no se
comprenden como definiciones de estacionaridad sino que simplemente portan un significado general. De hecho, hay varios niveles de estacionaridad y
todos dependen de las funciones de densidad de las variables aleatorias del
proceso.
4.3.
Funciones de distribuci
on y de densidad
(4.2)
para cualquier n
umero real x1 .
Para dos variables aleatorias X1 = X(t1 ) y X2 = X(t2 ), la funcion de
distribucion conjunta de segundo orden es la extension bidimensional de la
formula anterior:
FX (x1 , x2 ; t1 , t2 ) = P {X(t1 ) 6 x1 , X(t2 ) 6 x2 }
(4.3)
(4.4)
Las funciones de densidad conjunta de interes se encuentran de las derivadas apropiadas de las tres formulas anteriores:
dFX (x1 ; t1 )
dx1
2
FX (x1 , x2 ; t1 , t2 )
fX (x1 , x2 ; t1 , t2 ) =
x1 x2
N
FX (x1 , . . . , xN ; t1 , . . . , tN )
fX (x1 , . . . , xN ; t1 , . . . , tN ) =
x1 xN
fX (x1 ; t1 ) =
4.4.
119
(4.5)
(4.6)
(4.7)
Independencia estadstica
4.5.
(4.8)
fX (x1 ; t1 ) = fX (x1 ; t1 + )
(4.9)
CAPITULO 4. PROCESOS ESTOCASTICOS
120
E[X(t)] = X = constante
(4.10)
E[X1 ] = E[X(t1 )] =
x1 fX (x1 ; t1 )dx1
(4.11)
x1 fX (x1 ; t2 )dx1
(4.12)
Para X2 :
Z
E[X2 ] = E[X(t2 )] =
La variable x2 de integracion ha sido reemplazada por la variable alternativa x1 por conveniencia. Si se pone ahora t2 = t1 + en la ecuacion 4.12,
E[X2 ] = E[X(t2 )] =
Se concluye finalmente
E[X(t1 + )] = E[X(t1 )]
que debe ser constante porque t1 y son arbitrarios.
4.6.
fX (x1 , x2 ; t1 , t2 ) = fX (x1 , x2 ; t1 + , t2 + )
(4.13)
para todo t1 , t2 y . La formula anterior es una funcion de diferencias temporales t2 t1 y no del tiempo absoluto. Un proceso estacionario de segundo
orden es tambien estacionario de primer orden porque la funcion de densidad
de segundo orden determina la densidad de primer orden inferior.
La cantidad
(4.14)
(4.15)
Muchos problemas practicos requieren que se trate con la funcion de autocorrelacion y el valor medio de un proceso aleatorio. Las soluciones se
simplifican mucho si tales cantidades no dependieran del tiempo absoluto.
La estacionaridad de segundo orden es suficiente para garantizar estas caractersticas. Empero, es a menudo mas restrictivo que necesario y es deseable
CAPITULO 4. PROCESOS ESTOCASTICOS
122
E[X(t)] = X (constante)
E[X(t)X(t + )] = RXX ( )
(4.16)
(4.17)
A cos(0 t + )
0
1
d
2
= 0
La funcion de autocorrelacion con t1 = t y t2 = t + se convierte en
(4.18)
4.7.
(4.19)
(4.20)
fX (x1 , . . . , xN ; t1 , . . . , tN ) = fX (x1 , . . . , xN ; t1 + , . . . , tN + )
(4.21)
para todo t1 , . . . , tN y . La estacionaridad de orden N implica estacionaridad a todos los ordenes k 6 N . Un proceso estacionario a todo orden
N = 1, 2, . . . , es denominado estacionario en sentido estricto.
4.8.
124
1
A [ ] = lm
T 2T
[ ] dt
(4.22)
x = A[x(t)]
Z T
1
x(t)dt
= lm
T 2T T
RXX ( ) = A[x(t)x(t + )]
Z T
1
= lm
x(t)x(t + )dt
T 2T T
(4.23)
(4.24)
(4.25)
(4.26)
E[x] = X
E[RXX ( )] = RXX ( )
4.9. FUNCIONES DE CORRELACION
125
x = X
RXX ( ) = RXX ( )
Los promedios temporales x y RXX ( ) igualan a los promedios estadsticos. Los procesos para los que los promedios temporales igualan a los estadsticos se denominan ergodicos.
Ergodicidad es una forma muy restrictiva de estacionaridad y puede ser
difcil probar que constituye una suposicion razonable para cualquier situacion fsica. Sin embargo, se asumira que un proceso es ergodico a veces para
simplificar problemas.
Dos procesos aleatorios son llamados conjuntamente ergodicos si son individualmente ergodicos y tambien tienen una funcion de correlacion cruzada
temporal que iguala la funcion de correlacion cruzada estadstica:
1
RXY ( ) = lm
T 2T
4.9.
4.9.1.
(4.27)
Funciones de correlaci
on
Funci
on de autocorrelaci
on y sus propiedades
(4.28)
CAPITULO 4. PROCESOS ESTOCASTICOS
126
Con t1 = t y t2 = t1 +
(4.29)
RXX ( ) = E[X(t)X(t + )]
(4.30)
lm RXX ( ) = X
| |
4.9. FUNCIONES DE CORRELACION
127
lm RXX ( ) = 0
| |
7. RXX ( ) no puede tener una forma arbitraria. O en otras palabras, cualquier funcion arbitraria no puede ser una funcion de autocorrelacion.
Ejemplo
Para un proceso estacionario ergodico sin componentes periodicos,
RXX ( ) = 25 +
4
1 + 6 2
25 = 5
2
= E[X 2 (t)] [E[X(t)]]2
X
= RXX (0) 25
= 4
4.9.2.
Funci
on de correlaci
on cruzada y sus propiedades
CAPITULO 4. PROCESOS ESTOCASTICOS
128
(4.31)
(4.32)
(4.33)
RXY ( ) = X Y
(4.34)
p
RXX (0)RY Y (0)
4.9. FUNCIONES DE CORRELACION
129
donde es un n
umero real. Las propiedades segunda y tercera constituyen
ambas cotas sobre la magnitud de RXY ( ), siendo la cota de la segunda
propiedad la mas ajustada puesto que la media geometrica de dos n
umeros
positivos no puede exceder su media aritmetica; es decir,
p
1
RXX (0)RY Y (0) 6 [RXX (0) + RY Y (0)]
2
Ejemplo
Sea dos procesos estocasticos X(t) y Y (t) definidos por:
CAPITULO 4. PROCESOS ESTOCASTICOS
130
Como A y B se supone que tienen media cero y que no estan correlacionadas, E[AB] = 0. Tambien, dado que A y B se supone que tienen igual
varianza, E[A2 ] = E[B 2 ] = 2 , con lo que se obtiene:
RXY (t, t + ) = 2 sen(0 ) = 2 sen(0 )
As, X(t) y Y (t) son conjuntamente estacionarios en sentido amplio porque RXY (t, t + ) depende solamente de y no del tiempo absoluto.
Las funciones de correlacion cruzada no son necesariamente funciones
pares de con el maximo en = 0, como es el caso con las funciones de
autocorrelacion.
4.9.3.
Funciones de covarianza
(4.35)
(4.36)
La funcion de covarianza cruzada para dos procesos X(t) y Y (t) esta definida por:
(4.37)
o, alternativamente,
CXY (t, t + ) = RXY (t, t + ) E[X(t)]E[Y (t + )]
(4.38)
131
CXX ( ) = RXX ( ) X
(4.39)
CXY ( ) = RXY ( ) X Y
(4.40)
(4.41)
(4.42)
(4.43)
Se concluye de la u
ltima igualdad, que procesos independientes son nocorrelacionados. El recproco no es cierto aunque s lo es para procesos conjuntamente gaussianos.
4.10.
132
4.10.1.
Funci
on de densidad probabilstica
133
(t)k et
k = 0, 1, 2, . . .
P [X(t) = k] =
k!
(4.44)
X
(t)k et
k!
k=0
(x k)
(4.45)
E[X(t)] =
x fX (x)dx =
4.10.2.
k!
k=0
k!
E[X (t)] =
X
(t)k et
X
k(t)k et
k=0
xfX (x)dx =
= t
X
k 2 (t)k et
k=0
(x k)dx
k!
= t[1 + t]
k1 = 0, 1, 2, . . .
(4.46)
CAPITULO 4. PROCESOS ESTOCASTICOS
134
P [X(t2 ) = k2 |X(t1 ) = k1 ] =
(4.47)
La densidad conjunta es
fX (x1 , x2 ) =
(4.48)
k1 =0 k2 =k1
(k3 k2 )!
(k2 k1 )!
k1 t1
(t1 ) e
k1 !
k1
(t1 ) [(t2 t1 )]k2 k1 [(t3 t2 )]k3 k2 et3
=
k1 !(k2 k1 )!(k3 k2 )!
y
4.11. CARACTERISTICAS ESPECTRALES DE PROCESOS ESTOCASTICOS135
fX (x1 , x2 , x3 ) =
X
X
k1 =0 k2 =k1 k3 =k2
4.11.
4.11.1.
Para un proceso estocastico X(t), sea xT (t) aquella porcion de una funcion
muestra x(t) que existe entre T y T ; es decir,
xT (t) =
(4.49)
xT (t)e
XT () =
jt
x(t)ejt dt
dt =
(4.50)
x2T (t)dt
E(T ) =
x2 (t)dt
(4.51)
Como xT (t) es transformable por Fourier, su energa debe estar relacionada con XT () por el teorema de Parseval. As,
Z
E(T ) =
T
1
x (t)dt =
2
2
|XT ()|2 d
(4.52)
CAPITULO 4. PROCESOS ESTOCASTICOS
136
|XT ()|2
2T
1
x (t)dt =
2
2
|XT ()|2
d
2T
(4.53)
PXX
Z T
1
= lm
E[X 2 (t)]dt
T 2T T
Z
1
E[|XT ()|2 ]
=
lm
d
2 T
2T
(4.54)
(4.55)
Las dos ecuaciones anteriores establecen dos hechos importantes. El primer hecho es que la potencia promedio PXX de un proceso estocastico esta dada por el promedio temporal de su segundo momento:
PXX
1
= lm
T 2T
(4.56)
4.11. CARACTERISTICAS ESPECTRALES DE PROCESOS ESTOCASTICOS137
Para un proceso que es a lo menos estacionario en sentido amplio E[X 2 (t)] =
X 2 , una constante, con lo que PXX = X 2 . El segundo hecho es que PXX puede obtenerse mediante una integracion en el dominio de la frecuencia. Si se
define el espectro de densidad de potencia para el proceso estocastico por
E[|XT ()|2 ]
T
2T
SXX () = lm
(4.57)
la integral aplicable es
PXX
1
=
2
SXX ()d
(4.58)
Ejemplo
Considere el proceso aleatorio
X(t) = A cos (0 t + )
donde A y 0 son constantes reales y es una variable aleatoria uniformemente distribuida en el intervalo [0, 2 ]. Se encontrara la potencia promedio
PXX en X(t). El valor cuadratico medio es:
CAPITULO 4. PROCESOS ESTOCASTICOS
138
2
2
A2
A
2 sen(20 t + 2)
=
+
2
2
2
0
A2 A2 sen(20 t + ) sen(20 t)
+
=
2
2
2
2
2
A 2sen(20 t)
A
+
=
2
2
2
2
A
A
=
sen(20 t)
2
A E[X 2 (t)] =
1
lm
T 2T
1
T 2T
1
T 2T
A2
=
2
=
PXX
lm
lm
A2 A2
sen(20 t) dt
2
T
(
2
T )
A cos(20 t)
A2
(2T ) +
20
T
2
2
A
1 A
2T +
[cos(20 T ) cos(20 T )]
2
2T 20
Z
Ejemplo
Reconsiderese el proceso del ejemplo anterior para encontrar SXX () y
potencia promedio PXX mediante el uso de las definiciones respectivas.
4.11. CARACTERISTICAS ESPECTRALES DE PROCESOS ESTOCASTICOS139
Primero se encuentra XT ():
A cos(0 t + )ejt dt
T
Z
Z
A j T j(0 )t
A j T j(0 +)t
=
e
dt + e
e
dt
e
2
2
T
T
sen[( 0 )T ]
sen[( + 0 )T ]
= AT ej
+ AT ej
( 0 )T
( + 0 )T
XT () =
XT ()XT ()
sen[( 0 )T ] sen[( + 0 )T ]
sen2 [( 0 )T ]
+ ej2
= (AT )
2
[( 0 )T ]
( 0 )T
( + 0 )T
2 #
sen[( + 0 )T ] sen[( 0 )T ]
sen[( + 0 )T ]
+ ej2
+
( + 0 )T
( 0 )T
( + 0 )T
(
2
sen[( 0 )T ]
sen[( 0 )T ] sen[( + 0 )T ]
= (AT )2
+ 2 cos(2)
[( 0 )T ]
( 0 )T
( + 0 )T
2 )
sen[( + 0 )T ]
+
[( + 0 )T ]
2
Como
2
cos(2)d
0
2
2 sen(2)
E[cos(2)] =
= 0
entonces
CAPITULO 4. PROCESOS ESTOCASTICOS
140
"
2 #
sen[(
+
)T
]
0
E[|XT ()|2 ] = (AT )2
+
( + 0 )T
E[|XT ()|2 ]
A2 T sen2 [( 0 )T ] T sen2 [( + 0 )T ]
=
+
2T
2
[( 0 )T ]2
[( + 0 )T ]2
sen[( 0 )T ]
( 0 )T
2
Como
2
T sen(T )
lm
= ()
T
T
entonces
SXX () =
A2
{( 0 ) + ( + 0 )}
2
con lo que
PXX
1
=
2
A2
=
2
A2
{( 0 ) + ( + 0 )} d
2
4.11.2.
1. SXX () > 0
2. SXX () = SXX (), X(t) real.
3. SXX () es real.
4.
1
2
4.11. CARACTERISTICAS ESPECTRALES DE PROCESOS ESTOCASTICOS141
5. SX X () = 2 SXX () donde X =
dX
dt
RXX ( )ej d
SXX () =
(4.61)
1
RXX ( ) =
2
SXX ()ej d
(4.62)
4.11.3.
Suponga que X(t) es un proceso pasabajo, donde los componentes espectrales estan congregados cerca de = 0, y tienen magnitudes decrecientes
a frecuencias mas elevadas. Excepto por el hecho de que el area de SXX ()
no es necesariamente unidad, SXX () tiene caractersticas similares a una
funcion de densidad probabilstica (es no-negativa y real). De hecho, si se
divide SXX () por su area, se forma una nueva funcion con area unidad que
es analoga a una funcion de densidad.
CAPITULO 4. PROCESOS ESTOCASTICOS
142
2
R
WRM
S =
2 SXX ()d
SXX ()d
(4.63)
Ejemplo
Encuentre WRM S para el espectro de potencia:
SXX () = h
1+
10
i2
2
10
(4.64)
x
a2
adx
a3 x
+
arctan
=
h
2 i2
2(a2 + x2 )
2
a
1 + xa
Z
x
a4 x
a3
x2 dx
=
+
arctan
h
2 i2
2(a2 + x2 )
2
a
1 + xa
Z
= 50
SXX ()d = 50 arctan
10
4.11. CARACTERISTICAS ESPECTRALES DE PROCESOS ESTOCASTICOS143
r
WRM S =
= 5000
10
5000
= 10 rad/s
50
0
2
WRM
S
4.11.4.
R
SXX ()d
= R0
SXX ()d
R0
4 0 ( 0 )2 SXX ()d
R
=
SXX ()d
0
(4.65)
(4.66)
Relaci
on entre el espectro de potencia y la autocorrelaci
on
Esta u
ltima expresion sera ahora probada a continuacion.
(4.67)
CAPITULO 4. PROCESOS ESTOCASTICOS
144
Z T
Z T
1
jt1
jt2
SXX () = lm E
X(t1 )e dt1
X(t2 )e
dt2
T
2T T
T
Z T Z T
1
E[X(t1 )X(t2 )]ej(t2 t1 ) dt2 dt1
= lm
T 2T T T
Se usa X(t) en vez de x(t), para indicar que las operaciones realizadas
tienen lugar sobre el proceso en vez de una sola funcion muestra.
La esperanza matematica dentro del integrando es la autocorrelacion de
X(t):
T < t1 , t2 < T
As,
1
SXX () = lm
T 2T
T t
SXX () = lm
T t
Si se toma el lmite con respecto a la integral de primero, esto permitira intercambiar el lmite y la integral para obtener:
Z
SXX () =
1
lm
T 2T
RXX (t, t + )dt ej d
4.11. CARACTERISTICAS ESPECTRALES DE PROCESOS ESTOCASTICOS145
1
A[RXX (t, t + )] = lm
T 2T
con lo que
Z
SXX () =
SXX () =
RXX ( )ej d
(4.68)
Z
1
SXX ()ej d
RXX ( ) =
2
RXX ( ) SXX ()
(4.69)
(4.70)
CAPITULO 4. PROCESOS ESTOCASTICOS
146
RXX ( ) =
A2
2
cos(0 )
Se tiene que
RXX ( ) =
A2
2
1
ej0 + ej0
2
ej0 + ej0
A2
4
F{RXX ( )} = SXX ()
A2
[2( 0 ) + 2( + 0 )]
=
4
A2
=
[( 0 ) + ( + 0 )]
2
=
4.11.5.
(4.71)
4.11. CARACTERISTICAS ESPECTRALES DE PROCESOS ESTOCASTICOS147
(4.72)
SXY () = lm
(4.73)
As,
PXY
1
=
2
SXY ()d
(4.74)
SY X () =
(4.75)
PY X
(4.76)
La potencia total cruzada PXY + PY X puede interpretarse como la potencia adicional dos procesos son capaces de generar, sobre y arriba de sus
potencias individuales, debido al hecho de que son correlacionados.
Propiedades del espectro de densidad de potencia cruzada
Algunas propiedades del espectro de potencia cruzada de procesos aleatorios reales X(t) y Y (t) se dan a continuacion.
CAPITULO 4. PROCESOS ESTOCASTICOS
148
1. SXY () = SY X () = SY X ()
2. Re[SXY ()] y Re[SY X ()] son funciones pares de .
3. Im[SXY ()] e Im[SY X ()] son funciones impares de .
4. SXY () = 0 y SY X () = 0 si X(t) e Y (t) son ortogonales.
5. Si X(t) e Y (t) son no-correlacionados y tienen medias constantes X e
Y,
SXY () = SY X () = 2X Y ()
6.
A[RXY (t, t + )] SXY ()
A[RY X (t, t + )] SY X ()
En la u
ltima propiedad, para el caso de procesos estacionarios conjuntamente en sentido amplio, las siguientes relaciones son especialmente u
tiles:
SXY () =
RXY ( ) =
1
2
RXY ( )ej d
SY X () =
S ()ej d RY X ( ) =
XY
1
2
RY X ( )ej d
SY X ()ej d
Ejemplo
Se tiene un espectro de potencia cruzado definido por
SXY () =
a+
0
(jb)
W
W < < W
|| > W
149
Z W
1
jb j
RXY ( ) =
e d
a+
2 W
W
Z W
Z W
a
jb
j
=
e d +
ej d
2 W
2W W
"
(
#
W )
j W
jb
a e
1
j
+
=
e
2 j W
2W
j
(j )2 W
1
[(aW b)sen(W ) + bW cos(W )]
=
W 2
4.12.
Una funcion muestra n(t) de un proceso aleatorio N (t) de ruido estacionario en sentido amplio, se llama ruido blanco si el espectro de densidad de
potencia de N (t) es una constante en todas las frecuencias. As, se define
SN N () =
N0
2
(4.77)
para ruido blanco, donde N0 es una constante positiva real. Por la transformacion inversa de Fourier, la autocorrelacion de N (t) es
RN N ( ) =
N0
2
( )
(4.78)
El ruido blanco deriva su nombre por analoga con la luz blanca, que
contiene todas las frecuencias de luz visible en su espectro.
El ruido blanco no es realizable puesto que posee potencia promedio infinita:
1
2
SN N ()d =
CAPITULO 4. PROCESOS ESTOCASTICOS
150
(N0 /2)(||/T )
e||/T 1
(4.79)
P
W
W < < W
|| > W
sen(W )
W
151
P
W
RN N ( ) = P
sen(W /2)
cos(0 )
(W /2)
RN N ( ) = P e3| |
donde P es una constante. Se encontrara su espectro de potencia.
P e3| | ej d
SN N () =
Z
= P
(3+j)
d + P
P
P
=
+
3 + j 3 j
6P
=
9 + 2
e(3j) d
CAPITULO 4. PROCESOS ESTOCASTICOS
152
4.13.
4.13.1.
x()h(t )d =
y(t) =
h()x(t )d
(4.80)
h()X(t )d
Y (t) =
(4.81)
4.13.2.
h()X(t )d =
E[Y (t)] = E
h()E[X(t )]d
(4.82)
E[Y (t)] = X
h()d = Y (constante)
(4.83)
4.13. RESPUESTA DE SISTEMAS LINEALES A UNA SENAL
ALEATORIA153
Esta expresion indica que el valor medio de Y (t) iguala al valor medio
de X(t) veces el area bajo la curva de la respuesta al impulso si X(t) es
estacionario en sentido amplio.
Para el valor cuadratico medio de Y (t), se calcula
Z
Z Z
E[X(t 1 )X(t 2 )]h(1 )h(2 )d1 d2 (4.84)
=
Y 2 = E[Y 2 (t)]
Z Z
RXX (1 2 )h(1 )h(2 )d1 d2
=
(4.85)
(4.86)
Se supondr
a que las operaciones de integracion y de esperanza matematica son intercambiables cuandoquiera que se necesiten. Si
Z
t2
t2
E
t1
Z
W (t)h(t)dt =
t2
E[W (t)]h(t)dt
t1
es v
alida, donde W (t) es alguna funci
on acotada de un proceso aleatorio (sobre el intervalo
[t1 , t2 ]) y h(t) es una funci
on del tiempo no-aleatoria.
CAPITULO 4. PROCESOS ESTOCASTICOS
154
Ejemplo
Y2 =
= (N0 /2)
h2 (2 )d2
4.13.3.
Autocorrelaci
on de la respuesta
Z Z
E[X(t 1 )X(t + 2 )]h(1 )h(2 )d1 d2
=
que se reduce a:
Z
RY Y ( ) =
(4.87)
4.13. RESPUESTA DE SISTEMAS LINEALES A UNA SENAL
ALEATORIA155
1. Y (t) es estacionario en sentido amplio si X(t) es estacionario en sentido
amplio porque RY Y ( ) no depende de t y E[Y (t)] es constante.
2. RY Y ( ) es la doble convolucion de la autocorrelacion de entrada con la
respuesta al impulso del sistema; es decir:
RY Y ( ) = RXX ( ) h( ) h( )
4.13.4.
(4.88)
Correlaci
on cruzada de entrada y salida
Z
=
E[X(t)X(t + )]h()d
RXX ( )h()d
RXY ( ) =
(4.89)
(4.90)
RXX ( )h()d
RY X ( ) =
(4.91)
= RXX ( ) h( )
(4.92)
CAPITULO 4. PROCESOS ESTOCASTICOS
156
RY Y ( ) =
(4.93)
= RXY ( )h( )
(4.94)
Igualmente,
RY X ( 2 )h(2 )d2
RY Y ( ) =
(4.95)
= RY X ( ) h( )
(4.96)
Ejemplo
Con los datos del ejemplo anterior, se encontrara las correlaciones cruzadas RXY ( ) y RY X ( ).
RXX ( )h()d
RXY ( ) =
Z
= (N0 /2)h( )
4.13. RESPUESTA DE SISTEMAS LINEALES A UNA SENAL
ALEATORIA157
RXX ( )h()d
RY X ( ) =
Z
= (N0 /2)h( )
= RXY ( )
4.13.5.
Puesto que la transformada de Fourier de una funcion de correlacion (autocorrelacion o correlacion cruzada) es un espectro de potencia para procesos
estacionarios en sentido amplio, pareciera que si RXX ( ) es conocida para el
proceso de entrada, se puede hallar RY Y ( ), RXY ( ) y RY X ( ) como se ha
descrito anteriormente, para luego obtener espectros de potencia por transformacion. Este enfoque es conceptualmente valido. Sin embargo, desde un
punto de vista practico las integrales involucradas pueden ser difciles de
evaluar.
Un enfoque alternativo se da donde el espectro de potencia deseado involucrando la respuesta del sistema, se relaciona con el espectro de potencia
de entrada. En cualquier caso, el proceso de entrada X(t) se supone que es
estacionario en sentido amplio, lo que implica, como se vio anteriormente,
que Y (t) y X(t) son estacionarios conjuntamente en sentido amplio.
Espectro de densidad de potencia de la respuesta
Escrbase SY Y () como la transformada de Fourier de la autocorrelacion
de salida
CAPITULO 4. PROCESOS ESTOCASTICOS
158
RY Y ( )ej d
SY Y () =
(4.97)
SY Y () =
h(1 )
RXX ( + 1 2 )ej d d2 d1
h(2 )
SY Y () =
j1
h(1 )e
j2
d1
h(2 )e
d2
RXX ()ej d
Las anteriores tres integrales se reconocen como H (), H() y SXX (),
respectivamente.
SY Y () = H ()H()SXX () = SXX ()|H()|2
(4.98)
1
=
2
SXX ()|H()|2 d
(4.99)
Ejemplo
Un circuito electrico esta caracterizado por la siguiente funcion de transferencia:
H() =
1
1 + (jL/R)
Tiene como entrada un proceso estocastico X(t) tipo ruido blanco con un
espectro de potencia dado por:
4.13. RESPUESTA DE SISTEMAS LINEALES A UNA SENAL
ALEATORIA159
SXX () = N0 /2
Se pide calcular el espectro de potencia y la potencia promedio de la respuesta del circuito.
Si se hace uso de la informacion suministrada, se encuentra que:
1
1 + (L/R)2
SY Y () = SXX ()|H()|2
N0 /2
=
1 + (L/R)2
|H()|2 =
PY Y
1
=
2
N0
SY Y ()d =
4
d
1 + (L/R)2
1
dx
=
arctan
a2 + b 2 x 2
ab
bx
a
PY Y =
4.13.6.
N0 R
4L
160
(4.100)
SY X () = SXX ()H()
(4.101)
Captulo 5
Cadenas de Markov
161
162
5.1.
Pre
ambulo
5.2.
Conceptos introductorios
Se estudio el proceso de Poisson en el que la variable aleatoria X(t) (contadora de eventos) iguala al n
umero de arribos en [0, t]. X(t) siempre se
incrementa con el tiempo: X(t) = X(s) para t = s. Hay situaciones en las
que el estado del sistema fluct
ua, arriba y abajo; una de las mas importantes
aplicaciones es la teora de colas, en donde el estado del sistema en el tiempo
t es la longitud de una lnea de espera de clientes.
Es importante revisar en este momento la teora concerniente a la distribucion exponencial. Si T es el tiempo de vida de un componente que esta exponencialmente distribuido con parametro , entonces T tiene densidad
fT (t) =
0 t<0
e
t>0
t
(5.1)
(5.2)
163
(5.3)
para t = 0.
Dos hechos fundamentales derivados de la distribucion exponencial se van
a utilizar en el analisis del tema de las cadenas de Markov. A continuacion
se justificara cada uno de ellos.
5.2.1.
Supongase que T1 , T2 , . . . , TN son variables aleatorias independientes, cada una distribuida exponencialmente pero posiblemente con diferentes parametros. Supongase que Ti tiene parametro i . Suponga N componentes que se
conectan al tiempo t = 0; Ti es el tiempo de vida del i -esimo componente. Sea
M el mnimo de todos los tiempos Ti s de los componentes. M es el tiempo
en que el primer componente falla. M es una variable aleatoria. Sea t = 0.
Entonces M = min{T1 , . . . , TN } es mas grande que t si y solo si todo Ti > t.
(5.4)
164
Suponga que una maquina necesita tres componentes, que deben operar
simultaneamente. Cada uno tiene un tiempo de vida exponencialmente distribuido con media 2 das. La maquina llega con tres componentes instalados
mas uno de repuesto. Cual es el tiempo esperado en que el repuesto necesitara ser instalado? Cual es el tiempo esperado en que la maquina parara
por falta de repuestos?
El tiempo de vida del equipo antes de la falla es el mnimo de tres variables
aleatorias exponencialmente distribuidas cada una con parametro 1/2. Por
lo tanto, el tiempo de vida del equipo esta exponencialmente ditribuido con
parametro 1/2 + 1/2 + 1/2 = 3/2 y media 2/3. Esto es el tiempo medio hasta
que el repuesto necesita ser instalado. Una vez que el repuesto es instalado,
debido a la propiedad de la falta de memoria, los dos originales operan como
nuevos. De modo que el tiempo hasta que uno de los tres termine su vida u
til
(los dos originales y el repuesto) es otra vez exponencialmente distribuido con
media 2/3. As, el tiempo de vida esperado de la maquina es 2 2/3 = 4/3
(2/3 para instalar el repuesto, mas 2/3 para que falle de nuevo).
5.2.2.
Cual es la probabilidad de que cuando el primer fallo se de, sea el componente j -esimo? Se esta preguntando aqu por la probabilidad de que entre
los N Ti s, el mnimo sea Tj . Tal probabilidad esta dada por la expresion
P (Tj = min{T1 , T2 , . . . , TN }) =
j
1 + 2 + + N
(5.5)
165
producto
fT1 ,T2 (t1 , t2 ) = et1 et2
para t1 , t2 > 0. Con t1 y t2 correspondientes respectivamente a T1 y T2 , se
puede escribir:
= 1
=
Lo anterior prueba la ecuacion 5.5 para N = 2. El caso general no involucra mas formulas: suponga que hay N variables aleatorias independientes
T1 , T2 , . . . , TN . Entonces M = min{T2 , . . . , TN } es una variable exponencialmente distribuida con parametro 2 + 3 + + N ; M es tambien independiente de T1 . Por consiguiente, por el resultado que se acaba de demostrar,
166
5.3.
168
pi = P ({proximo estado es i + 1|
ultimo estado es i})
(5.6)
qi = 1 pi
= P ({proximo estado es i 1|
ultimo estado es i})
(5.7)
La segunda suposicion mencionada siignifica que pi y qi dependen solamente del estado i y no de otros detalles del proceso.
Las dos suposiciones constituyen una generalizacion de la propiedad de
la falta de memoria. Dado el presente estado Xt del sistema al tiempo t,
los estados futuros de la maquina no dependen de los estados pasados. En
particular, si el estado al tiempo t es Xt = i, entonces es completamente
irrelevante si ha estado en el estado i por varios a
nos o si acaba de cambiar
al estado i, para predecir cuando se mudara del estado i. Esto se da puesto
que los tiempos gastados en cada estado estan exponencialmente distribuidos. Dado que la distribucion exponencial sigue la propiedad de la falta de
memoria, la maquina se comporta como si acabara de moverse al estado i
a pesar de que tan largo hubiera realmente ocupado el estado i. La distribucion exponencial es la u
nica distribucion continua concentrada en [0, [
para los tiempos de espera que tiene esta propiedad. La suposicion de que
dado el estado presente, el futuro del proceso es independiente del pasado es
denominada la suposicion de Markov.
Notese que si i = 0 para el estado i, entonces los valores de pi , qi son
innecesarios de especificar dado que la maquina no puede cambiar del estado
i una vez en el.
En resumen, un proceso de nacimiento y muerte en tiempo continuo consiste de una maquina que puede cambiar entre estados en un espacio de
170
llamadas en [0, t]). Tan pronto como otra llamada llegue, la maquina cambia
al estado i + 1. As, el tiempo de espera en el estado i es el tiempo entre
arribos, entre el arribo i-esimo y el (i + 1)-esimo; este esta exponencialmente
distribuido con parametro . Por lo tanto,
i = pi = 1 qi = 0
para todo i en el espacio de estados S = {0, 1, 2, . . .}. Este es un proceso
de nacimiento puro dado que la maquina nunca puede moverse hacia abajo:
pi = 1 para todo i.
Ejemplo: El dispositivo de dos estados
La maquina esta encendida o es operacional por un tiempo que esta exponencialmente distribuido con parametro (tiempo de vida media 1/) y
apagada o detenida por un tiempo que esta exponencialmente distribuido
con parametro (tiempo de reparacion medio igual a 1/). Por ejemplo,
la maquina necesita un componente que tiene un tiempo de vida exponencialmente distribuido; una vez que se acaba, el tiempo de reparacion es el
tiempo requerido para instalar un nuevo componente. El espacio de estados
es S = {0, 1} con 0, 1 correspondientes a apagado, encendido. Entonces,
0 = p0 = 1 q0 = 0
1 = p1 = 0 q1 = 1
5.4.
Colas
5.4. COLAS
171
0 = p0 = 1
Si el estado al tiempo t es Xt = i = 1, un movimiento a un estado i 1
o i + 1 puede ocurrir. Sea T el tiempo de arribo del proximo cliente y S sea el
tiempo de servicio del cliente que es servido en el instante presente. Entonces
172
i = + pi = +
qi =
5.4. COLAS
173
qi =
i = i + pi = i+
i
i+
Ejemplo
Una oficina de negocios tiene un telefono con un boton de retencion.
Suponga que las llamadas entrantes forman una corriente de Poisson con
parametro . Tambien suponga que cada llamada toma un tiempo exponencialmente distribuido con un promedio de 1/ minutos. Si una llamada llega
durante un tiempo en que el telefono esta ocupado, es colocada en retencion.
Si otra llamada llega, recibe un tono de ocupado y debe colgar. Sea el estado
del sistema el n
umero de llamadas que reciben servicio o estan retenidas.
Cuales son los parametros i y las probabilidades de transicion pi , qi ?
El espacio de estados es S = {0, 1, 2}. Cambio del estado 0 al estado 1
ocurre con la llegada de una llamada. De esta forma,
0 = p0 = 1
Si el estado es 2, un movimiento ocurre al estado 1 tan pronto como la
llamada que es servida termina. De esta forma,
2 = q 2 = 1
174
q1 =
+
+
Ejemplo: Continuaci
on del anterior
Supongase que la oficina tiene dos telefonos ninguno de los cuales tiene un
boton de retencion. Si una llamada llega mientras un telefono esta ocupado,
la llamada es respondida por el otro telefono. El estado es el n
umero de
telefonos ocupados en el momento. Ahora, cuales son los parametros i y
las probabilidades de transicion pi , qi ?
0 , p0 , 1 , p1 y q1 son los mismos como en el ejemplo previo. Si el estado es 2, ambas lneas estan ocupadas. Hay un cambio al estado 1 con la
finalizacion de una de las dos llamadas. Este tiempo es el mnimo de los
dos tiempos de servicio. Dado que cada uno esta exponencialmente distribuido con parametro , esto implica que el mnimo esta exponencialmente
distribuido con parametro + = 2. De esta manera,
2 = 2 q2 = 1
Es posible definir un procedimiento general para los problemas de colas
de la siguiente manera.
Primero, representese el tiempo de espera en el estado i como min{S, T, . . .}
donde S, T, U, . . . son independientes, cada uno distribuido exponencialmente
(tales variables son ya sea tiempos de arribo o tiempos de servicio). Entonces:
i : suma de todos los parametros
pi : suma de los parametros de tiempo de arribo divididos por i
5.4. COLAS
175
i = 2 + pi =
2
qi =
2 +
2 +
1 = + p1 =
q1 =
+
+
0 = p0 = 1
Hay que enfatizar que en una cola solamente un cambio ocurre a la vez.
Por ejemplo, en la cola con infinito n
umero de servidores, si hay 100 clientes
176
al presente recibiendo servicio, un desplazamiento a 101 clientes o a 99 clientes solamente ocurre uno a la vez. Para visualizar esto, sea S1 , , S100 los
tiempos de servicio respectivos de los clientes y sea T el tiempo de arribo del
proximo cliente. Dado que cada Sj y T estan exponencialmente distribuidos,
ellos son variables aleatorias continuas. La probabilidad de que cualesquiera
dos de ellas tengan el mismo valor es cero. Pero esto debera ser el caso para
que ocurra mas de un movimiento al mismo tiempo. En una cola, solamente
un movimiento o cambio de estado ocurre a la vez.
5.5.
iS
177
i = 1
178
para este tiempo de espera. Por lo tanto, el proceso se movera del estado i
en un intervalo de tiempo de longitud t con probabilidad
1 ei t
=
2
(i t)
1 1 i t +
+
'
2!
i t
para un peque
no t. La primera igualdad usa la propiedad de carencia de
memoria de la distribucion exponencial. La tercera igualdad es una integracion directa. La pen
ultima igualdad usa la expansion en series de Taylor de la
funcion exponencial. La probabilidad de que el proceso se movera del estado
i durante el proximo t es aproximadamente i t para t ' 0.
Supongase que hay un n
umero grande de procesos cada uno moviendose
entre estados de acuerdo a los mismos parametros i y probabilidades de
transicion pi , qi para i S. Supongase que ni de estos procesos estan en el
estado i. Entonces aproximadamente ni i t se moveran del estado i durante
el proximo t. Hacia donde se moveran? Una fraccion pi se movera al estado
i + 1 y otra fraccion qi a i 1. De esta forma, el aproximado n
umero de
procesos que se mueven del estado i al estado i 1 en el tiempo t durante el
proximo t es ni i tqi . En estado estable, este n
umero debe ser balanceado
por un n
umero equivalente de procesos moviendose del estado i 1 al estado
i. Esto debe ser el caso, dado que de otra forma un sinn
umero de procesos
se acumularan de un lado o del otro del estado i. Por razones similares, el
n
umero de procesos moviendose del estado i 1 al i durante el proximo t
179
(5.8)
Ejemplo
Considere el dispositivo de dos estados de un ejemplo anterior. Para i = 1,
la ecuacion 5.8 se escribe como:
1 1 q1 = 0 0 p0
1 = 0
Esta es una ecuacion con dos incognitas, 0 y 1 . La otra ecuacion es la
normalizacion que debe ser satisfecha por cualquier vector de probabilidad.
1 = 0 + 1 = 0 (1 + /)
De esta forma finalmente,
0 = /( + )
1 = /( + )
Se puede seguir un procedimiento general para resolver problemas relacionados con el vector de probabilidad de estado estable: suponga que el
180
qN = 1 si S = {0, . . . , N }
i > 0 para i S
Se usa la formula recursiva:
i1 pi1
i1
(5.9)
i qi
para i = 1, 2, . . . para expresar cada i en terminos de 0 . Entonces se usa la
i =
normalizacion
X
i = 1
(5.10)
Ejemplo
Encuentre las probabilidades de estado estable 0 , 1 , 2 para el telefono
con un boton de retencion de un ejemplo anterior. Encuentre el n
umero esperado de personas en la lnea o en espera en estado estable.
Si se usa la formula recursiva con los valores de los parametros i y las
probabilidades de transicion pi , qi para i = 0, 1, 2 se obtiene:
1 =
0 p0
1
0 =
0 = 0
1 q1
( + )/( + )
1 p1
( + )/( + )
2 =
1 =
1 = 1 =
2 q2
1
2
181
1+ +
1 = 0 + 1 + 2 = 0
2 !
2 + + 2
= 0
Por consiguiente:
2
2
1 =
2 =
0 =
C
C
C
donde C = (2 + + 2 ). Hay i personas con probabilidad i en estado
estable. As, el n
umero esperado de personas en espera en estado estable es:
0 0 + 1 1 + 2 2 =
+ 22
C
Ejemplo
Encuentre el vector de probabilidad de estado estable para la cola de un
servidor.
Usando los valores de i , pi , qi de tal ejemplo,
i1 pi1 = i qi =
para todo i 1. De esta forma,
i =
i1 pi1
i1 = i1
i qi
con lo que
i = i1 =
2
i
i2 = =
0
1=
X
i=0
i = 0
i
X
i=0
"
= 0
1
1
182
para
< 1. Si
significa que no hay vector de probabilidad de estado estable dado que la cola
tiende a hacerse mas y mas grande sin alcanzar tal estado. Es posible que en
este u
ltimo caso, la cola se vuelva mas y mas larga pero no necesariamente en
forma uniforme; podra haber periodos en los que la cola se haga mas peque
na
pero eventualmente la cola se volvera mas larga que cualquier longitud preespecificada. Para que exista un estado estable, la tasa de partidas debe ser
mayor que la de llegadas .
Ejemplo
Para la cola de un servidor con < , encuentre la longitud esperada de
la cola en estado estable.
En el estado estable, la longitud L de la cola es i con probabilidad i para
i = 0, 1, 2, . . .. Notese que la variable aleatoria X = L + 1 esta geometricamente distribuida. Para j 1,
P (X = j) = P (L = j 1) = j1 = (1 q)q j1
donde q = /. De esta forma
E[X] =
j(1 q)q j1 =
j=0
1
jq j1
j=0
jq j =
j=0
Se est
a usando el resultado
jxj1 =
j=0
1
(1 x)2
X
j=0
jxj =
x
(1 x)2
1
q
1
=
(1 q)2 (1 q)2
1q
E[X] =
183
i qi =
((i 1) + )
=
(i 1) +
(i + )i
= i
i +
Por consiguiente,
i =
i1 pi1
i1 = i1
i qi
i
i1
i
=
i2
i (i 1)
..
.
i
1
=
0
i!
i =
Si se usa normalizacion,
184
1=
i = 0
i=0
/
Por lo tanto, 0 = e
X
(/)i
i=0
i!
= 0 e/
(/)i /
e
i!
para i = 0, 1, 2, . . ..
Las probabilidades en estado estable para la cola con infinito n
umero de
servidores estan distribuidas de acuerdo a Poisson con parametro /. Consecuentemente, la longitud esperada de la cola con infinito n
umero de servidores es /. En este ejemplo, el estado estable siempre existe; esto tiene
sentido porque hay un infinito n
umero de servidores.
Ejemplo
Para la cola con infinito n
umero de servidores con tasa de arribo y
tiempo medio de servicio 1/, encuentre el n
umero N mas peque
no de modo
que 90 % del tiempo habra N o menos clientes en el estado estable.
En el estado estable la probabilidad de i clientes es:
(/)i /
e
i!
N es el entero mas peque
no que satisface
i =
0 + 1 + + N 0,90
N
X
(/)i
0,90e/
i!
i=0
Notese que el valor de N depende solamente de la razon /. Se muestra
el Cuadro 5.1 con valores de / contra N . El resultado es interesante: el
185
n
umero esperado de clientes para la cola con infinito n
umero de servidores es
/, pero solamente un poco mas que este n
umero de clientes estara presente
10 % del tiempo.
/
0.5
1
5
10
20
50
100
N
1
2
8
14
26
59
113
Cuadro 5.1: N
umero N mas peque
no para que el 90 % del tiempo haya N o
menos clientes en el estado estable.
El siguiente teorema muestra el significado del vector de estado estable.
Teorema del lmite Suponga que
1. p0 = 1
2. 0 < pi < 1 para i = 1, 2, . . .
3. qN = 1 si S = {0, 1, 2, . . . , N }
4. i > 0 para i S
para el proceso de nacimiento y muerte. Suponga que es un vector de
probabilidad que satisface
i =
para i = 1, 2, . . .. Entonces:
i1 pi1
i qi
i1
186
5.6.
187
infinito S = {0, 1, 2, . . .}. Supongase ahora que una partcula es libre de saltar
entre los estados del espacio de estados S; su localizacion al tiempo t es Xt .
De esta forma se tiene un proceso estocastico {Xt }
on Xt se
t=0 . La localizaci
mide solamente en los tiempos discretos t = 0, 1, 2, . . .. X0 es la localizacion
principiante en el tiempo 0.
Las siguientes suposiciones caracterizan a una cadena de Markov:
1. Suponga que la partcula esta en el estado i en el tiempo t. Luego,
no obstante su historia antes del tiempo t, la probabilidad que brinque a otro estado j depende solamente de i. Matematicamente, sea
i, j, it1 , . . . , i0 S. Entonces para cualquier tiempo t:
188
(5.11)
(5.12)
En la Figura 5.1 se muestra un diagrama que puede usarse para representar la informacion dada en la ecuacion 5.12. Tambien se suele representar
la misma informacion en forma matricial:
=
1/3 2/3
1/4 3/4
(5.13)
Hay una manera estandar de escribir las probabilidades de salto i,j como
una matriz, a la que se le llama la matriz de transicion . El elemento en su
189
0,0
1,0
..
.
0,1
1,1
..
.
N,0 N,1
0,2
1,2
..
..
.
.
N,2
0,N
1,N
..
.
(5.14)
N,N
i,3 = 0
para todos los estados i en el espacio de estados S, la partcula nunca podra
entrar al estado 3. Esto u
ltimo es as dado que si la partcula saltara de alg
un
estado i0 al estado 3, entonces debera ocurrir que i0 ,3 > 0.
Sea una matriz de transicion de una cadena de Markov. Entonces,
1. 0 6 i,j 6 1 para todo i, j en el espacio de estados S.
2. tiene filas que suman 1:
N
X
j=0
i,j =
N
X
P (Xt+1 = j|Xt = i) = 1
(5.15)
j=0
Ejemplo 2
En una cadena de Markov hay 3 estados, con lo que S = {0, 1, 2}. Del
estado 0 la partcula salta a los estados 1 o 2 con una identica probabilidad
de 1/2. Del estado 2, la partcula debe saltar al estado 1. El estado 1 es
190
absorbente: una vez que la partcula entre al estado 1, no puede salirse. Dibuje
el diagrama y escriba la matriz de transicion.
En la Figura 5.2 se muestra el diagrama correspondiente y las probabilidades de transicion. La primera fila de la matriz de transicion consiste
de las probabilidades de salto del estado 0 y similarmente para las otras dos
filas.
0 1/2 1/2
0
= 0 1
0 1
0
Definici
on El estado i es absorbente si i,i = 1.
Ejemplo 3: Un paseo aleatorio sobre S = {0, 1, 2, . . . , N }
De cualquiera de los estados interiores 1, 2, . . . , N 1, la partcula salta
a la derecha al estado i + 1 con probabilidad p y hacia la izquierda al estado
i 1 con probabilidad q = 1 p. Es decir, para 1 6 i 6 N 1,
i,i+1 = p,
Esto corresponde en el lenguaje del azar al siguiente juego: tire una moneda; si sale cruz, entonces gana un colon; si sale corona, entonces pierde un
191
0,0 = 1 N,N = 1
Esto corresponde a las situaciones en que el juego acabo dado que se
quedo sin dinero o si se ha ganado el dinero de los oponentes. La correspondiente matriz de transicion estara dada por,
1
q
0
0
0
0
0
q
0
0
0
p
0
0
0
0
0
p
0
0
0
0
0
p
1
0,1 = 1 N,N 1 = 1
Esto corresponde al caso cuando mi oponente me da uno de sus colones
cuando me quedo con los bolsillos vacos, o inversamente.
Caso 3 Los estados frontera podran ser parcialmente reflectores, en cuyo
caso,
192
r 1r
q
0
0
q
0
0
0
0
0
p
0
0
0
0
0
p
0
0
0
0
0
0
0
q
0
1s
0
0
p
s
193
q p 0 0
q 0 p 0 0
=
q 0 0 p 0
Vease que el espacio de estados S, en este caso, si bien discreto, tiene infinitamente muchos estados. Este modelo recibe tambien el nombre de modelo
de nacimiento o de desastre. Algunas aplicaciones son evidentes: tiempos de
vida de componentes. Hay una que no es tan obvia: las noticias se apilan en
una pizarra de avisos a una razon mas o menos constante hasta que alguien
decide tirarlas todas. El estado del sistema es el n
umero de das desde la
u
ltima vez que la pizarra fue limpiada. Si la limpieza de la pizarra se hace
aleatoriamente, independiente de cuantas noticias haya o del tiempo desde
la u
ltima limpieza, la pizarra sera limpiada en la proxima unidad de tiempo
con una probabilidad constante q.
5.6.1.
La matriz de transici
on de orden t
194
(5.16)
t+1
= P (Xt+1 = j|X0 = i)
i,j
=
N
X
k=0
N
X
P (Xt+1 = j y Xt = k|X0 = i)
P (Xt+1 = j|Xt = k y X0 = i)P (Xt = k|X0 = i)
k=0
N
X
k=0
N
X
k=0
N
X
k=0
195
t+s
i,j =
N
X
ti,k sk,j
(5.17)
k=0
con t+s = t s .
Para que la partcula que comienza en i en el tiempo 0 este en j en el
tiempo t + s, debe estar en alg
un estado k en el tiempo intermedio t.
Ejemplo 5
Convierta el diagrama de salto de probabilidades de la Figura 5.4 en la correspondiente cadena de Markov y encuentre la probabilidad de que la partcula estara en el estado 1 despues de tres saltos dado que empezara en el estado
1.
Si se pasa la informacion dada por el diagrama de saltos a la correspondiente matriz de transicion, se encuentra que:
0 0,1 0,9
= 0,8 0 0,2
0,7 0,3 0
Con la ayuda de la matriz anterior, se encuentra que:
196
5.6.2.
El vector de probabilidad t
197
tj =
N
X
P (Xt = j) = 1
j=0
198
tj =
N
X
i ti,j
i=0
tj = P (Xt = j)
=
N
X
i=0
N
X
ti,j i
i=0
199
1/4 3/4
=
1
0
= (1/3, 2/3)
13/16 3/16
1/4
3/4
25/64 39/64
13/16 3/16
==
= =
200
t = (0, . . . , 0, 1, 0, . . . , 0)t
= (ti,o , ti,1 , ti,2 , . . . , ti,N )
lo que implica que dado que la partcula comenzo en el estado i,
P (Xt = j) = tj = ti,j
que confirma lo que ya se sabe: la entrada (i, j) de la matriz t es la probabilidad de estar en el estado j en el tiempo t dado que estaba en el estado i
en el tiempo 0.
5.6.3.
Nj j,i
j=0
201
Ni =
N
X
Nj j,i
j=0
En vez del n
umero Ni absoluto de partculas en estado i, reestablezcase
la ecuacion en terminos del n
umero relativo Ni /N de partculas en estado i;
esta es la probabilidad de que cualquier partcula ocupe el estado i.
Ni /N =
N
X
(Nj /N ) j,i
j=0
i =
N
X
j j,i
(5.18)
j=0
(5.19)
202
3 = 2 = =
y, en general,
t = t1
=
=
Cualquier vector de probabilidad con la propiedad = es denominado
un vector de probabilidad de estado estable. Si la partcula empieza en el
estado i con probabilidad i por cada estado i, entonces en todo tiempo t,
estara en el estado i con probabilidad i .
Procedimiento para hallar el vector de probabilidad de estado
estable Consta de dos pasos:
1. Establezca y resuelva estas ecuaciones:
j =
N
X
i i,j
i=0
i = 1
203
=
(0 , 1 ) = (0 , 1 )
= (0 , 1 )
1
0 + 1
2
1
=
0
2
0 =
1
1
2
1
2
1 0
204
Las dos u
ltimas ecuaciones son realmente la misma: 1 = 12 0 . A continuacion se usa la condicion de normalizacion:
1
3
1 = 0 + 1 = 0 + 0 = 0
2
2
De esta forma se concluye que 0 = 2/3, 1 = 1/3. Por consiguiente, dos
terceras partes del tiempo, la partcula se encontrara en el estado 1; una
tercera parte del tiempo se encontrara en el estado 2. Fin del ejemplo
Ejemplo 8: Vector de probabilidad de estado estable.
= 0
1
3
1
2
2
3
2
3
1
2
1
3
(0 , 1 , 2 ) = (0 , 1 , 2 ) 0
1
3
1
2
3
1
=
0 +
2
1
=
0 +
2
1
2
2
3
2
3
1
2
1
3
205
0 =
1
2
2
2
1 + 2
3
3
1
1
3
lo cual genera,
30 + 2 = 0
30 21 + 42 = 0
30 + 21 62 = 0
Si se suma la segunda y la tercera ecuaciones, resulta en 60 22 = 0,
que es esencialmente la misma primera ecuacion, de donde se puede decir que
la tercera ecuacion es redundante. De las primeras dos ecuaciones se tiene
que,
2 = 30
15
0
1 =
2
Toca ahora usar la condicion de normalizacion:
1 = 0 + 1 + 2 =
Por consiguiente, 0 =
2
, 1
23
23
15
1+
+ 3 0 = 0
2
2
15
, 2
23
6
.
23
206
Ejemplo 9. Proceso c
clico.
Considere el proceso cclico de la Figura 5.8. Hay N +1 estados 0, 1, 2, . . . , N .
Para cada estado i, 0 < qi < 1. La partcula permanece en el estado i con
probabilidad qi , o salta al estado i + 1 con probabilidad pi = 1 qi . Si i = N ,
entonces i + 1 sera el estado 0; hay un enrollamiento del estado N al estado
0. Encuentre el vector de probabilidad de estado estable.
Se comienza por caracterizar la matriz de transicion, a partir del diagrama
de saltos.
q0 p0 0
0 q1 p1 0
0 0 q2 p2
pN 0
0
0
0
0 qN
(0 , 1 , . . . , N )
(0 , 1 , . . . , N )
q0 0 + pN N
p0 0 + q1 1
p1 1 + q2 2
207
p0 0
pN N
p1 1
p0 0
p2 2
p1 1
Se resuelve sucesivamente para cada i en terminos de 0 comenzando
con la segunda ecuacion:
(p0 /p1 )0
(p0 /p2 )0
(p0 /p3 )0
(p0 /pN )0
208
1 = 0 + 1 + + N
= (1 + p0 /p1 + p0 /p2 + + p0 /pN ) 0
= (1/p0 + 1/p1 + 1/p2 + + 1/pN ) p0 0
De esto u
ltimo se obtiene que 1 = Cp0 0 , lo que determina 0 . Para el
P
proceso cclico se obtiene finalmente que i = 1/Cpi , donde C = N
j=0 1/pj .
Fin del ejemplo.
Las cadenas de Markov en los u
ltimos tres ejemplos tienen vectores de
probabilidad de estado estable u
nicos. Este no es siempre el caso.
Ejemplo 10. Caso con dos vectores de probabilidad de estado estable.
Sea
1/2 1/2 0
0
1/2 1/2 0
0
=
0 1/3 1/3 1/3
0
0
0
1
Hay dos vectores de probabilidad de estado estable distinguibles:
1 1
=
, , 0, 0
2 2
= (0, 0, 0, 1)
209
Figura 5.9: Ejemplo 11. Paseo aleatorio sobre los enteros positivos.
q
0
=
0
p
q
0
0
p
q
0
0
p
0
0
0
= implica que
q0
p0 + q1
p1 + q2
Dado que 0 < p, q < 1, la primera, la segunda, la tercera, y demas ecuaciones implican 0 = 0, 1 = 0, 2 = 0, . . .. Por consiguiente, no hay estado
estable. Fin del ejemplo.
En el Ejemplo 10, se vio que, dependiendo de la cadena de Markov, pudiera no haber un vector de probabilidad de estado estable u
nico. Para ese
ejemplo, si la partcula empezara en los estados 0 o 1, permanece en estos
estados por siempre. Si empezara en el estado 3, permanecera ah siempre.
210
Si empezara en el estado 2, tarde o temprano saltara al estado 3 o a la combinacion de los estados 0 y 1. Por consiguiente, la cadena entera se parte en
dos piezas separadas, cada una con su propio estado estable. En ese caso, la
cadena se dice que es descomponible.
En el Ejemplo 11, la partcula tiene un desplazamiento hacia la derecha.
Por consiguiente, no hay estado estable. Se puede comenzar con un millon
de partculas y eventualmente ellas estaran muy hacia la derecha del estado
0.
Captulo 6
Bibliografa
211
212
CAPITULO 6. BIBLIOGRAFIA
Bibliografa
[1] Cooper, G. y McGillem, C. Probabilistic Methods of Signal and System
Analysis. Tercera edicion. New York: Oxford University Press, 1998.
[2] Bertsekas, D. y Tsitsiklis, J. Introduction to Probability. Segunda edicion.
Boston: Athena Scientific, 2008.
[3] Peebles, Jr., P. Z. Probability, Random Variables, and Random Signal
Principles. Cuarta edicion. New York: McGraw-Hill, 2001.
[4] Kay, S. M. Intuitive Probability and Random Processes Using MATLAB.
Segunda impresion. New York: Springer, 2005.
[5] Rong Li, X. Probability, Random Signals, and Statistics. Boca Raton:
CRC Press, 1999.
[6] Papoulis, A. Probability, Random Variables and Stochastic Processes.
Segunda edicion. New York: McGraw-Hill, 1984.
[7] Solomon, F. Probability and Stochastic Processes. Englewood Cliffs, New
Jersey: Prentice-Hall, 1987.
[8] Davenport Jr., W. B. y Root, W. L. An Introduction to the Theory of
Random Signals and Noise. New York: IEEE Press, 1987.
213
BIBLIOGRAFIA
214
[9] Shanmugan, K. S. y Breipohl, A. M. Random Signals: Detection, Estimation and Data Analysis. New York: John Wiley and Sons Inc., 1988.
[10] Levin, B. R. Fundamentos de Radiotecnia Estadstica. Barcelona: Marcombo Boixareu Editores, 1984.
[11] Kazakos, D. y Papantoni-Kazakos, P. Detection and Estimation. New
York: Computer Science Press (W. H. Freeman and Company), 1990.
[12] Van Trees, H. L. Detection, Estimation, and Modulation Theory. Part I:
Detection, Estimation, and Linear Modulation Theory. New York: John
Wiley and Sons Inc., 2001.
[13] Gray, R. M. y Davisson, L. D. An Introduction to Statistical Signal Processing. New York: Cambridge University Press, 2011.
[14] Melsa, J. L. y Sage, A. P. An Introduction to Probability and Stochastic
Processes. Mineola, New York: Dover Publications, Inc., 2013.
[15] Lopez, J. y Martos, E. Se
nales aleatorias: Teora y ejercicios resueltos.
Mexico: Alfaomega, 2013.
[16] Wax, N. (editor). Selected Papers on Noise and Stochastic Processes.
Mineola, New York: Dover Publications, Inc., 1954.
[17] Porat, B. Digital Processing of Random Signals: Theory and Methods.
Mineola, New York: Dover Publications, Inc., 2008.
[18] Rosenthal, J. S. A First Look at Rigorous Probability Theory. Segunda
edicion. Singapur: World Scientific Publishing Co. Pte. Ltd., 2010.