Professional Documents
Culture Documents
ON
FACULTAD DE INGENIER
IA
DEPARTAMENTO DE INGENIER
IA EL
ECTRICA
APUNTES
COMUNICACIONES DIGITALES
Cod. 549 175 - Ingeniera Civil en Telecomunicaciones
Prof. Sebastian E. Godoy
Tercera Edici on
July 23, 2010
Prologo
El presente apunte, nace bajo la necesidad de lograr un mejor entendimiento de los alumnos que
toman la asignatura de Comunicaciones Digitales, obligatoria para la carrera de Ingeniera
Civil en Telecomunicaciones de la Facultad de Ingeniera, Universidad de Concepci on.
Esta asignatura es planteada con la concepci on original de que el alumno maneja los con-
ceptos de los sistemas de comunicaci on anal ogicos (Sistemas de Comunicaci on Cod. 549
164) y principalmente de estadstica y procesos aleatorios (Procesos Aleatorios y Estadstica
Aplicada Cods. 549 150, 549 103 respectivamente) cursados como requisitos previos de la
presente.
Sinceramente, quisiera agradecer a todos los alumnos que han cursado la asignatura ya que
en forma directa o indirecta han aportado al desarrollo de este documento mediante sugerencias,
comentarios o apoyo en la escritura.
El documento est a totalmente escrito utilizando L
A
T
E
X mediante la interfaz graca Kile
para Ubuntu Linux. El formato utilizado en el desarrollo de este documento, est a basado en
los apuntes del Prof. Jose Espinoza, con las respectivas modicaciones conforme el curso lo
requiere.
Sebastian E. Godoy
Ingeniero Civil Electronico
Magister en Ing. Electrica
Colaborador Academico
Departamento de Ing. Electrica
Facultad de Ingeniera
Universidad de Concepcion
Casilla 160-C, Correo 3
Concepcion, CHILE
Tel: +56 (41) 2203633
Fax: +56 (41) 2246999
e-mail: segodoy@udec.cl
web: http://www.udec.cl/~segodoy
i
Indice General
Prologo i
1 Introduccion 1
1.1 Sistema de Comunicaciones Digitales . . . . . . . . . . . . . . . . . . . . . . . . 1
1.1.1 Por que comunicaciones digitales? . . . . . . . . . . . . . . . . . . . . . 2
1.2 Probabilidades . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.2.1 Revision Basica de Conceptos . . . . . . . . . . . . . . . . . . . . . . . . 2
1.2.2 Variables Aleatorias . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.2.3 Valor Esperado . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.3 Procesos Aleatorios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.3.1 Estacionalidad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.4 Transformada y Series de Fourier . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.4.1 Series de Fourier . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.4.2 Transformada de Fourier . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.5 Densidad Espectral . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
1.5.1 Se nales de Energa y Potencia . . . . . . . . . . . . . . . . . . . . . . . . 13
1.5.2 Teorema de Parseval . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
1.5.3 Densidad Espectral de Energa (ESD) . . . . . . . . . . . . . . . . . . . . 14
1.5.4 Densidad Espectral de Potencia (PSD) . . . . . . . . . . . . . . . . . . . 15
1.6 Conversion Analogo-Digital . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
1.6.1 Muestro de una Se nal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
1.6.2 Cuantizaci on . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
2 Teora de la Informaci on 21
2.1 Introducci on . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
2.2 Modelo de las Fuentes de Informaci on . . . . . . . . . . . . . . . . . . . . . . . . 21
2.2.1 Concepto de Informaci on . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
2.2.2 Medida de la Informacion . . . . . . . . . . . . . . . . . . . . . . . . . . 22
2.2.3 Entropa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
2.2.4 Entropa Conjunta y Condicional . . . . . . . . . . . . . . . . . . . . . . 24
2.2.5 Informacion Mutua . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
2.3 Teorema de Codicaci on de la Fuente . . . . . . . . . . . . . . . . . . . . . . . . 26
2.3.1 Codigo Human . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
2.3.2 Codigo Lempel-Ziv . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
ii
2.3.3 Codigo ASCII . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
2.4 Representacion de Canales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
2.4.1 Canales con Ruido Aditivo Gaussiano . . . . . . . . . . . . . . . . . . . . 33
2.4.2 Canales con Ruido y Filtro . . . . . . . . . . . . . . . . . . . . . . . . . . 34
2.5 Capacidad del Canal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
2.5.1 Capacidad de Canal Gaussiano . . . . . . . . . . . . . . . . . . . . . . . 36
3 Modulacion en Banda Base 38
3.1 Introducci on . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
3.2 Muestreo de Se nales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
3.2.1 Recuperacion de Se nales Muestreadas . . . . . . . . . . . . . . . . . . . . 38
3.2.2 Errores en el Muestreo . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
3.2.3 Muestreo Natural . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
3.2.4 Sample-and-Hold . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
3.3 Cuantizacion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
3.3.1 Cuantizaci on Escalar . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
3.3.2 Cuantizaci on Vectorial . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
3.4 Codicaci on . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
3.5 Fuentes de Corrupci on . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
3.5.1 Efectos del Muestreo y la Cuantizaci on . . . . . . . . . . . . . . . . . . . 54
3.5.2 Efectos del Canal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
3.6 Pulse-Amplitude Modulation (PAM) . . . . . . . . . . . . . . . . . . . . . . . . 55
3.7 Pulse-Code Modulation (PCM) . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
3.7.1 Representaci on de Dgitos Binarios . . . . . . . . . . . . . . . . . . . . . 57
3.7.2 Tipos de Cuantizadores . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
3.7.3 PCM Diferencial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64
3.8 Modulaci on Delta . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
3.8.1 Modulaci on Delta Adaptiva . . . . . . . . . . . . . . . . . . . . . . . . . 67
4 Modulaciones Digitales Pasabanda 69
4.1 Introducci on . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69
4.2 Se nales y Ruido . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70
4.2.1 Ruido en Sistemas de Comunicaciones . . . . . . . . . . . . . . . . . . . 70
4.2.2 Representaci on Geometrica de Se nales . . . . . . . . . . . . . . . . . . . 71
4.3 Tecnicas de Modulaci on Digital Pasabanda . . . . . . . . . . . . . . . . . . . . . 76
4.3.1 Amplitude Shift Keying (ASK) . . . . . . . . . . . . . . . . . . . . . . . 77
4.3.2 Frequency Shift Keying (FSK) . . . . . . . . . . . . . . . . . . . . . . . . 77
4.3.3 Phase Shift Keying (PSK) . . . . . . . . . . . . . . . . . . . . . . . . . . 77
4.3.4 Amplitude Phase Shift Keying (APK) . . . . . . . . . . . . . . . . . . . 78
4.4 Detecci on de Se nales en la presencia de AWGN . . . . . . . . . . . . . . . . . . 79
4.4.1 Region de Decision . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79
4.4.2 Receptor de Correlaci on . . . . . . . . . . . . . . . . . . . . . . . . . . . 80
4.4.3 Detector por Matched-Filter . . . . . . . . . . . . . . . . . . . . . . . . . 84
4.5 Detecci on Coherente . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 86
iii
4.5.1 Deteccion Coherente para PSK . . . . . . . . . . . . . . . . . . . . . . . 86
4.5.2 Deteccion Coherente para PSK M ultiple . . . . . . . . . . . . . . . . . . 87
4.5.3 Deteccion Coherente de FSK . . . . . . . . . . . . . . . . . . . . . . . . . 89
4.6 Detecci on No-Coherente . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 90
4.6.1 Deteccion No-Coherente de FSK . . . . . . . . . . . . . . . . . . . . . . . 90
4.6.2 Deteccion de PSK Diferencial . . . . . . . . . . . . . . . . . . . . . . . . 94
4.7 Desempe no de Error en Sistemas Binarios . . . . . . . . . . . . . . . . . . . . . 96
4.7.1 Probabilidad de Error de Bit para BPSK Coherente . . . . . . . . . . . . 97
4.7.2 Probabilidad de Error de Bit para DPSK . . . . . . . . . . . . . . . . . . 99
4.7.3 Probabilidad de Error de Bit para FSK Coherente . . . . . . . . . . . . . 99
4.7.4 Probabilidad de Error de Bit para FSK No-Coherente . . . . . . . . . . . 100
5 Introduccion a la Codicaci on 103
5.1 Introducci on . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103
5.2 C odigos Lineales por Bloque . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 107
5.2.1 Matrices de Generaci on y Paridad . . . . . . . . . . . . . . . . . . . . . . 109
5.3 C odigos Convolucionales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111
iv
Captulo 1
Introducci on
1.1 Sistema de Comunicaciones Digitales
En el curso anterior de Sistemas de Comunicaciones, se introdujo el concepto b asico de un sis-
tema de comunicaci on.
Este consta de tres partes fundamentales: transmisor, canal y receptor.
A su vez, el transmisor est a compuesto por el codicador y el modulador. El canal es aquel que
agrega atenuacion, ruido, distorsi on e interferencia que deben ser compensadas en el receptor
mediante el proceso de detecci on (demodulacion y decocaci on) y posiblemente un proceso de
ltrado (ecualizaci on).
Resulta importante recordar que las limitaciones que se tienen para obtener comunicaciones
conables en un sistema de transmisi on de se nales an alogas, estan determinadas por el canal
de comunicaci on. En particular, dicho canal debe permitir el paso de la se nales, teniendo un
ancho de banda limitado para tales efectos.
El concepto de comunicaciones digitales nace de la necesidad de transmitir informacion que
no se encuentra como se nales continuas sino como un mensaje binario. Cuando se habla de
mensaje binario se hace referencia a una secuencia de dos tipos de pulsos de forma conocida
ocurriendo en intervalos regulares de tiempo, T. A pesar de que la forma de dichos pulsos es
conocida a-priori, la ocurrencia de ceros o unos es desconocida por lo que se consideran se nales
no determinsticas. La tasa a la que se muestran los pulsos es a R =
1
T
, siendo T la duraci on
de cada pulso tal como se dijo anteriormente.
El presente curso tiene entonces por objetivo, familirizar a los alumnos con el concepto de
enviar informacion en forma digital. Para lograr esto, el curso se subdividir a en dos grandes
partes. La primera parte considerar a como llegar de una se nal an aloga a una digital pasando por
el proceso de muestreo, cuantizacion y codicaci on. Esto se logra aplicando teora estadstica
sobre las fuentes de informaci on y el canal, para jar las cotas que se puedan lograr de la
comunicaci on en s. Entiendase como cotas, la maxima compresi on de datos y m axima tasa
de bits por segundo. Esta parte se concluye estudiando los modelos cl asicos para realizar esta
conversion analogo-digital, como lo son PCM o PAM.
La segunda gran etapa del curso incluye la transmision de esta informaci on mediante canales
pasabanda, de manera similar a lo que se estudi o en comunicaciones analogas. Esto quiere decir
que se estudiar a la modulaci on y demodulaci on digital en amplitud, frecuencia y fase (ASK,
FSK y PSK respectivamente), para concluir con una introduccion a la codicaci on que es muy
1
CAP
ITULO 1. INTRODUCCI
ON
importante al momento de hablar de una transmisi on segura de datos.
1.1.1 Por que comunicaciones digitales?
Existen muchas razones que hacen preferibles las comunicaciones digitales frente a las analogas.
La primera ventaja es que las se nales digitales, a diferencia de las analogas, pueden ser recon-
strudas (regeneradas) utilizando repetidores. Estos vuelven a amplicar la se nal recuperando
las modicaciones y la degradaci on que pudo haber sufrido dicha se nal en el canal de trans-
misi on. Por otra parte, los circuitos digitales son mas faciles de reproducir, mas econ omicos
y m as exibles, pues sin importar si la se nal es de televisi on, telefono o telegrafo, siempre se
tratar a de la misma forma para la transmisi on ya que un bit es un bit. Ademas los circuitos
digitales son menos propensos a distorciones de interferencia que los an alogos dados los rangos
que existen para cada estado digital; a esto se agrega que existen metodologas para detectar
errores en la transmisi on.
Las principales ventajas y desventajas que presentan las Comunicaciones Digitales se mues-
tran en la Tabla 1.1.
Tabla 1.1: Ventajas y Desventajas de las Comunicaciones Digitales
Ventajas Desventajas
Generalmente los errores pueden
ser corregidos.
Resulta sencillo implementar la
encriptaci on.
Se puede tener un alto rango
din amico de los datos.
Generalmente se requiere un
mayor ancho de banda que con
comunicaciones an alogas.
Requieren sincronizaci on.
1.2 Probabilidades
Como se dijo en la secci on anterior, dado que no se conoce a-priori la ocurrencia de ceros o unos
en una se na digital, entonces no se puede tratar como una se nal determinstica. Por lo tanto, es
necesario recordar algunos conceptos de estadstica como variables y procesos aleatorios, valor
esperado, autocorrelacion y estacionalidad de procesos aleatorios.
1.2.1 Revision Basica de Conceptos
Se llama Evento a un resultado en particular de un experimento, Espacio Muestral a la
colecci on de todos los resultados de eventos posibles.
2
CAP
ITULO 1. INTRODUCCI
ON
La probabilidad de que ocurra un evento A denotada por P(A), esta denida como
P(A) = lim
n
n
A
n
en donde n
A
es al n umero de veces que A aparece en los n intentos en que se realizo el ex-
perimento. As, P ser a una probabilidad si es una funcion de eventos y satisface las siguientes
condiciones:
1. P(A) 0 para cualquier evento A.
2. P() = 1.
3. Si A
1
, A
2
, . . . , A
n
son eventos disjuntos, entonces P(A
1
A
2
A
n
) =
n
i=1
P(A
i
)
4. P(A) < 1 para cualquier evento A.
El concepto de Probabilidad Condicional, busca cuanticar la probabilidad de que ocurra
un evento A, dado que ya ocurrio un evento B. Se denota por P(A[B) y est a denida por:
P(A[B) =
P(A, B)
P(B)
(1.1)
en donde p(B) ,= 0.
Por otro lado, el Teorema de Bayes dice que:
P(A, B) = P(B[A)P(A) = P(A[B)P(B) (1.2)
Luego, la probabilidad condicional estar a dada por
P(A[B) =
P(B[A)P(A)
P(B)
Se dice que dos eventos A y B son independientes si y solo si
P(A[B) = P(A) P(B[A) = P(B)
Ejemplo 1.1 - Probabilidad de Error.
Considere el canal de comunicacion digital de 1 bit. Determine la probabilidad del evento error,
considerando que el transmisor tiene la misma probabilidad de enviar un cero o un uno.
Sol. Los resultados posibles son: recibir un cero cuando se envio un cero o cuando se envi o un
uno, o recibir un uno cuando se envi o un cero o un uno, lo que podra ser resumido en =
(0t, 0r), (0t, 1r), (1t, 0r), (1t, 1r). As el evento error estara determinado por el subconjunto
E = (0t, 1r), (1t, 0r). Asumiendo que la probabilidad de recibir un error puntual es p, entonces
P(0r[1t) = P(1r[0t) = p, luego se tiene por Teorema de Bayes que P(0t, 1r) = P(0r[1t)P(0t) =
0.5p y de igual forma P(1t, 0r) = 0.5p. Ahora bien, la probabilidad del evento error sera
P(E) = P[(0t, 1r), (1t, 0r)] = P(0t, 1r) + P(1t, 0r) = 0.5p + 0.5p = p.
3
CAP
ITULO 1. INTRODUCCI
ON
1.2.2 Variables Aleatorias
Una variable aleatorioa X(A) corresponde a una relacion funcional entre un evento aleatorio
A y un n umero real. En general por notaci on simplemente se utiliza solo X como designaci on
para la variable aleatoria, dejando la relacion con el evento A de forma implcita.
La Funcion de Distribucion de Probabilidad denotada por F
X
(x) de la variable aleato-
ria X est a determinada por:
F
X
(x) = P(X x) (1.3)
en d onde P(X x) es la probabilidad de que el valor de la variable aleatoria sea menor o igual
que el n umero real x. La funcion de distribucion tiene las siguientes propiedades:
1. 0 F
X
(x) 1.
2. F
X
(x
1
) F
X
(x
2
), si x
1
x
2
.
3. F
X
() = 0.
4. F
X
(+) = 1.
La Funcion de Densidad de Probabilidad (PDF) denotada por f
X
(x) esta denida por:
f
X
(x) =
dF
X
(x)
dx
(1.4)
y recibe su nombre en base a que la probabilidad del evento x
1
X x
2
es:
P(x
1
X x
2
) = P(X x
2
) P(X x
1
)
= F
X
(x
2
) F
X
(x
1
)
=
_
x
2
x
1
f
X
(x) dx
La PDF tiene las siguientes propiedades:
1. Es siempre una funcion no negativa: f
X
(x) 0.
2. Tiene un area total unitaria:
_
f
X
(x) dx = F
X
(+) F
X
() = 1
1.2.3 Valor Esperado
Se dene el Valor Esperado o esperanza de una variable aleatoria continua X como
EX =
_
x p
X
(x) dx (1.5)
y a la vez corresponde a la media de X, m
X
, o primer momento. El operador E. tiene las
siguientes propiedades
4
CAP
ITULO 1. INTRODUCCI
ON
Linealidad. Si X
i
, i = 1, 2, . . . , n son diferentes variables aleatorioas y a
i
son escalares deter-
minsticos, entonces
E
_
i
a
i
X
i
_
=
i
a
i
EX
i
Y p
Y
(Y ) dY =
_
+
g(X)p
X
(X) dX ,
por lo que
EY = Eg(X) ,
aun cuando las integrales sean calculadas sobre diferentes funciones de densidad de prob-
abilidad.
Se dene tambien el n-esimo momento de la variable aleatoria mediante:
EX
n
=
_
x
n
p
X
(x) dx (1.6)
en donde se puede notar que la media corresponde al primer momento (n = 1) y la media
cuadr atica ser a el segundo momento. Adem as se pueden denir los Momentos Centrales que
corresponden a los momentos de la diferencia entre X y su media m
X
. La Varianza de X
corresponde al segundo momento central, por lo que esta denida por:
var X = E
_
(X m
X
)
2
_
=
_
(x m
X
)
2
p
X
(x) dx (1.7)
la que tambien se denota por
2
X
. Su raiz cuadrada,
X
, corresponde a la llamada desviacion
estandar de X. La relacion que existe entre la varianza y el valor medio cuadratico est a dada
por:
2
X
= E
_
(X m
X
)
2
_
= E
_
X
2
2m
X
X + m
2
X
_
= E
_
X
2
_
EX
2
, (1.8)
por lo que en variables de media nula, la varianza corresponde a la esperanza del valor cuadr atico
de la variable en s. Para cualquier constante a, se verican para la varianza:
1. var aX = a
2
var X
2. var a = 0
3. var X + a = var X .
Es importante mencionar que para variables aleatorias independientes, el valor esperado sera
dado por el producto de los valores esperados individuales, EXY = EX EY .
5
CAP
ITULO 1. INTRODUCCI
ON
1.3 Procesos Aleatorios
Un proceso aleatorio puede ser visto como una funci on de dos variables: un evento A y el
tiempo, por lo que para cada instante de tiempo se tienen diferentes funciones. As para un
instante t
k
, la funcion X(A, t) es una variable aleatoria X(t
k
). Por notaci on, simplemente se
hablar a de procesos aleatorios marcando la dependencia del tiempo, vale decir X(A, t) X(t)
dejando la dependencia funcional al evento A de forma implcita.
Dada la incertidumbre envuelta en los procesos aleatorios, solo se puede dar una descripci on
parcial de ellos. Para esto se utiliza el concepto de la media y de la funci on de autocorrelacion.
La media de un proceso aleatorio en tiempo continuo est a denido por la Ecuacion (1.5); para el
caso de procesos aleatorios en tiempo discreto, la integral cambia a sumatoria nita, y se tiene
que considerar que se eval ua en el instante t
k
, vale decir se calcula m
X
(t
k
). Indirectamente, esto
quiere decir que la variable aleatoria X corresponde a la observaci on del proceso aleatorio en el
instante t
k
.
La autocorrelacion de un proceso aleatorio se estudia en la siguiente secci on.
Ejemplo 1.2 - Procesos Aleatorios.
Considere un detector inal ambrico que se modela linealmente por la ecuaci on Y (t) = aX(t)+b+
U(t) en donde a y b son constantes determinsticas; X(t) es una variable aleatoria uniformemente
distribuida en el rango [X
min
, X
max
]. Considerando que U(t) es un ruido Gaussiano con media
nula y varianza conocida, se pide encontrar las constantes a y b.
Sol. Asumiendo que los procesos aleatorios son estacionarios, la media estar a determinada
por EY = EaX(t) + b + U(t) = aEx + b. Por otra parte, su varianza estara dada
por
2
Y
= a
2
2
X
+
2
u
. As, la ganancia sera a =
_
2
Y
2
u
/
X
, y el oset se puede despejar
directamente y obtener b = Ey aEx. Esto es valido pues los valores de Ex y
X
son
conocidas desde la distribuci on uniforme.
1.3.1 Estacionalidad
Autocorrelacion de Procesos Aleatorios
La autocorrelacion de un proceso aleatorio X(t) se dene como
R(t
1
, t
2
) = EX(t
1
)X(t
2
) (1.9)
en donde X(t
1
) y X(t
2
) corresponden a la observaci on del proceso aleatorio en los instante t
1
y
t
2
respectivamente.
Denici on de Estacionalidad
Un proceso aleatorio X(t) es llamado Estacionario en el Sentido Estricto si ninguna de sus es-
tadsticas dependen de ninguna forma del tiempo. Un proceso aleatorio es llamado Estacionario
en Sentido Amplio (wide-sense stationary, WSS) si su media y su funcion de autocorrelacion no
6
CAP
ITULO 1. INTRODUCCI
ON
varan ni dependen del tiempo. As un proceso es WSS si:
EX(t) = m
X
y, R
X
(t
1
, t
2
) = R
X
(t
2
t
1
) .
Considerando que para un proceso aleatorio WSS, la autocorrelacion dependera solo de
la diferencia temporal y no del instante de tiempo en s, cualquier par de valores de X(t)
que esten separados en el tiempo por = t
2
t
1
tienen el mismo valor de correlacion. As,
para sistemas estacionarios la autocorrelaci on se expresa mediante la relacion R(t
1
, t
2
) R().
Luego, para un proceso aleatorio real y WSS, su funci on de autocorrelacion, R(), tiene las
siguientes propiedades:
1. Es simetrica con respecto al origen: R() = R().
2. El m aximo ocurre en el origen: R() R(0) , .
3. El valor en el origen corresponde a la energa/potencia de la se nal
No resulta dicil notar que si un proceso es estrictamente estacionario, tambien lo es en
sentido amplio, pero no viceversa. En el presente curso se utilizar a el concepto de estacionalidad
para hablar de procesos WSS, dejando en forma explcita cuando se hable de estacionalidad
estricta.
Ejemplo 1.3 - Proceso Aleatorio Estacionario.
Sea el siguiente proceso aleatorio X(t) = Acos(
0
t + ), con A y
0
constantes y U[0, 2].
Determine su estacionalidad.
Sol. La media del proceso es EX = EAcos(
0
t + ) = 0 ya que se calcula la integral
sobre un periodo completo de la fase. La funcion de autocorrelacion para este proceso esta
determinada por
R(t
1
, t
2
) = EAcos(
0
t
1
+ )Acos(
0
t
2
+ )
= A
2
E
_
1
2
cos[
0
(t
1
t
2
)] +
1
2
cos[
0
(t
1
+ t
2
) + 2]
_
=
A
2
2
cos[
0
(t
1
t
2
)] ,
pues el segundo termino corresponde al calculo de la integral sobre el periodo completo de la
fase y se hace nulo. Dado que la funcion de autocorrelaci on depende de la diferencia de tiempo
y no del valor absoluto, entonces corresponde a un proceso aleatorio estacionario.
Las cantidades y par ametros electricos fundamentales pueden ser relacionados con los mo-
mentos de un proceso aleatorio de la siguiente manera
1. La media m
X
es igual al valor DC de la se nal.
2. La cantidad m
2
X
es igual a la potencia normalizada de la componente continua.
7
CAP
ITULO 1. INTRODUCCI
ON
3. El segundo momento de X(t), EX
2
(t), es igual a la potencia normalizada total.
4. La cantidad
_
EX
2
(t) es igual al valor rms de la se nal de corriente o voltaje.
5. La varianza es igual a la potencia normalizada promedio en la componente AC de la se nal.
6. La desviaci on est andar es el valor RMS de la componente alterna de la se nal.
1.4 Transformada y Series de Fourier
1.4.1 Series de Fourier
Las series de Fourier permiten descomponer cualquier se nal peri odica x(t) en una sumatoria
de exponenciales complejas (senos y cosenos), lo que es de gran ayuda en comunicaciones al
realizar an alisis de sistemas lineales e invariantes en el tiempo (LTI). Una serie de Fourier es la
expansi on ortogonal de una se nal peri odica con periodo T
0
, cuando el set de se nales e
jn
0
t
n=
es utilizado como base para dicha expansion. N otese que
0
= 2f
0
= 2
1
T
0
. Con esta base,
cualquier se nal peri odica
1
x(t) puede ser expresada como
x(t) =
n=
x
n
e
jn
0
t
, (1.10)
en donde los terminos x
n
son llamados coecientes de la serie de Fourier de la se nal x(t), y
est an denidos por
x
n
=
1
T
0
_
+T
0
x(t)e
jn
0
t
dt , (1.11)
La variable es cualquier n umero real elegido correctamente. La frecuencia f
0
es llamada
frecuencia fundamental de la se nal periodica, y las frecuencias f
n
= nf
0
son llamados los n-
esimos arm onicos. En la mayora de los casos, tanto = 0 como = T
0
/2 son buenas
elecciones dependiendo de la paridad de la se nal.
Este tipo de series de Fourier es conocido como forma compleja de la series de Fourier, y
puede ser aplicada tanto en se nales reales como complejas, mientras estas sean periodicas. En
general, los coecientes de la serie de Fourier x
n
son n umeros complejos aun cuando x(t) sea
una se nal real.
Ejemplo 1.4 - Series Complejas de Fourier.
Para la la se nal w(t) =
_
A , t (2k
T
0
2
, (2k + 1)
T
0
2
]
0 , i.o.c.
en donde el par ametro k asume los
valores k = 0, 1, 2, . . . , se pide encontrar su serie de Fourier.
Sol. Se comienza calculando el valor continuo: c
0
=
A
T
0
_
T
0
2
0
dt =
A
2
. Ahora, los otros valores de
1
En rigor, la condicion suciente para la existencia de una serie de Fourier, es que la se nal w(t) satisfaga las
condiciones de Dirchlet. Para mas informacion consultar este link.
8
CAP
ITULO 1. INTRODUCCI
ON
los coecientes ser an: c
n
=
A
T
0
_
T
0
2
0
e
jn
0
t
dt = j
A
2n
(e
jn
1). Dado que para n par, e
jn
= 1
y para n impar e
jn
= 1, los coecientes est an dados por:
c
n
=
_
_
_
A
2
, n = 0
j
A
n
, n impar
0 , n par
.
En el ejemplo anterior, se obtuvo que el valor continuo de la se nal es la mitad de la amplitud
m axima de la se nal cuadrada, lo que es concordante con la intuicion referente al valor medio
de dicha se nal. Si se considera que A = 2, T
0
= 20[ms], entonces x
0
= 1, x
n
= j
2
n
para
m ultiplos impares de la frecuencia fundamental f
0
=
1
T
0
= 50[Hz], y cero para el resto. Este
resultado se puede apreciar en la Fig. 1.1, en d onde se ha despreciado el termino de fase j y
s olo se dibuja el valor absoluto del espectro.
Fig. 1.1: Se nal y espectro discreto obtenido mediante la serie de Fourier del Ejemplo 1.4
Se puede demostrar que para una se nal peri odica real, x
n
= x
n
. En efecto, se tiene que
x
n
=
1
T
0
_
+T
0
x(t)e
j(n)
0
t
dt
=
1
T
0
_
+T
0
x(t)e
jn
0
t
dt
=
1
T
0
_
+T
0
x(t)
_
e
jn
0
t
dt
= x
n
.
Ahora bien, como el n-esimo coeciente es complejo, se puede descomponer en su parte real y
9
CAP
ITULO 1. INTRODUCCI
ON
compleja como sigue
x
n
=
a
n
jb
n
2
.
As, la parte negativa estar a determinada por x
n
= x
n
=
an+jbn
2
. Luego de usar la relaci on de
Euler dada por e
jn
0
t
= cos n
0
t j sin n
0
t , entonces se obtiene que
a
n
=
2
T
0
_
+T
0
x(t) cos n
0
t dt (1.12)
b
n
=
2
T
0
_
+T
0
x(t) sin n
0
t dt , (1.13)
y, por lo tanto
x(t) =
a
0
2
+
n=1
a
n
cos n
0
t + b
n
sin n
0
t . (1.14)
N otese que para n = 0, siempre se tiene que b
0
= 0, entonces a
0
= 2w
0
. Esta relaci on se conoce
como la serie de Fourier trigonometrica.
Deniendo c
n
=
_
a
2
n
+ b
2
n
y
n
= tan
1 bn
an
, y usando la relaci on a cos + b sin =
a
2
+ b
2
cos
_
tan
1 b
a
_
, entonces la Ecuaci on (1.14) se puede escribir de la forma
x(t) =
a
0
2
+
n=1
c
n
cos(n
0
t +
n
) , (1.15)
que es la tercera forma de la expansion en series de Fourier para se nales reales peri odicas.
Es importante considerar que si x(t) es real y par, vale decir x(t) = x(t), entonces b
n
= 0,
por lo que todos los coecientes x
n
son reales y la serie trigonometrica est a dada solamente por
la suma de cosenos. Similarmente, para una se nal real e impar, a
n
= 0 por lo que todos los x
n
son imaginarios y la serie est a determinada por la suma de senos.
La suma del producto entre los coecientes de la serie de Fourier y las exponenciales es
teoricamente innita, lo que resulta imposible de conseguir en la realidad. Es por esto que
en general se utilizan aproximaciones de la representaci on en series con un n umero nito de
arm onicos. La Fig. 1.2 muestra distintas aproximaciones del pulso rectangular para diferentes
valores de arm onicos. A medida que el n umero de arm onicos se incrementa, menos error se tiene
entre ambas se nales. Las oscilaciones que presenta la se nal aproximada en cada canto recibe
el nombre de fenomeno de Gibbs
2
y se origina porque la n-esima suma parcial de la serie de
Fourier tiene grandes oscilaciones cerca del salto, lo que a su vez incrementa el m aximo valor
de la suma sobre el de la funcion.
1.4.2 Transformada de Fourier
La transformada de Fourier corresponde a una extension de las series de Fourier para se nales
no periodicas. La transformada de Fourier de una se nal denotada por x(t) que satisface las
2
Para mas informacion, ud. puede visitar este link.
10
CAP
ITULO 1. INTRODUCCI
ON
Fig. 1.2: Aproximaciones para un pulso rectangular del Ejemplo 1.4, usando series de Fourier
condiciones de Dirichlet se denota por X(f), o, equivalentemente, F[x(t)], y est a denida por
F[X(t)] X(f) =
_
x(t)e
j2ft
dt . (1.16)
La transformada de Fourier inversa esta dada por
F
1
[X(f)] x(t) =
_
X(f)e
j2ft
df . (1.17)
Si la se nal x(t) es real, entonces su transformada de Fourier X(f) satisface la simetra
Hermitiana, es decir X(f) = X
i
x
i
(t)
_
=
i
F[x
i
(t)] .
2. Dualidad. Si X(f) es la transformada de Fourier de x(t), entonces
F [X(t)] = x(f) .
3. Corrimiento en el tiempo. Un desplazamiento en el dominio del tiempo, resulta en un
desplazamiento en la fase del dominio de la frecuencia:
F[x(t t
0
)] = e
j2ft
0
F[x(t)]
11
CAP
ITULO 1. INTRODUCCI
ON
4. Escalamiento. Una expansi on en el dominio del tiempo resulta en una contracci on en el
dominio de la frecuencia, y viceversa:
F[x(at)] =
1
[a[
F[x(t)] , a ,= 0
5. Modulacion. La multiplicacion por una exponencial en el dominio del tiempo, se mani-
esta como un desplazamiento en el dominio de la frecuencia.
F
_
e
j2f
0
t
x(t)
= X(f f
0
)
6. Derivacion. La derivacion en el dominio del tiempo corresponde a la multiplicacion por
j en el dominio de la frecuencia:
F
_
d
n
dt
n
x(t)
_
= (j2f)
n
F [x(t)]
7. Convoluci on. La convoluci on en el dominio del tiempo es equivalente a la multiplicaci on
en el dominio de la frecuencia, y viceversa.
F[x(t) y(t)] = F[x(t)] F[y(t)]
F [x(t)y(t)] = F[x(t)] F[y(t)]
Para una se nal periodica x(t) con periodo T
0
, cuyos coecientes de Fourier son denominados
por x
n
, vale decir
x(t) =
n=
x
n
e
jn
0
t
,
tiene por transformada de Fourier
X(f) = F
_
n=
x
n
e
jn
0
t
_
=
n=
x
n
F
_
e
jn
0
t
n=
x
n
(f nf
0
) .
En otras palabras, la transformada de Fourier de una se nal peri odica consiste en impulsos a los
multiplos enteros de la frecuencia fundamental (arm onicos) de la se nal original, con un peso igual
al valor de los coecientes de Fourier. En conclusi on, para una se nal peri odica, su transformada
de Fourier corresponden a los coecientes x
n
ubicados en los armonicos correspondientes al
n-esimo m ultiplo de la frecuencia fundamental.
12
CAP
ITULO 1. INTRODUCCI
ON
1.5 Densidad Espectral
La densidad espectral de una se nal, caracteriza la distribucion de la energa o potencia de
dicha se nal en el dominio de la frecuencia, dependiendo si se trabaja con se nales de energa o
potencia, respectivamente. Este concepto se torna muy importante con la presencia de ltros
en los sistemas de comunicaciones, pues se requerira evaluar la se nal y el ruido a la salida de
un ltro. Para realizar esta tarea, se utiliza la Densidad Espectral de Energa (ESD, Energy
Spectral Density) o la Densidad Espectral de Potencia (PSD, Power Spectral Density).
1.5.1 Se nales de Energa y Potencia
Una se nal electrica puede ser representada como un voltaje v(t) o una corriente i(t), con una
potencia instantanea p(t) a traves del resistor R, denida por p(t) = v
2
(t)R
1
= i
2
(t)R. En
sistemas de comunicaciones se trabaja con el concepto de potencia normalizada que involucra
asumir que el valor de la resistencia R es unitario (R=1), por lo que ambos lados de la ecuacion
anterior tienen la misma forma sin importar si se habla de se nales de voltaje o de corriente.
Entonces, el concepto de potencia normalizada permite expresar la potencia instantanea de la
forma
p(t) = x
2
(t) (1.18)
en donde x(t) representa indistintamente una se nal de voltaje o de corriente.
La energa y la potencia promedio disipada durante el intervalo de tiempo ]
T
2
,
T
2
[ por una
se nal real con potencia instantanea expresada por la Ecuacion (1.18), puede ser escrita como:
E
T
_ T
2
T
2
x
2
(t) dt y, P
T
1
T
_ T
2
T
2
x
2
(t) dt
El desempe no de un sistema de comunicaciones depende de la energa de la se nal detectada.
Mientras mayor sea la energa de las se nales detectadas, el proceso de detecci on se hara con
menos errores que si las se nales fueran de energa mas baja. Por otro lado, la potencia es la
tasa a la cual la energa es entregada y es importante porque determina las condiciones de
transmisi on/recepcion de las se nales. Entonces, en el an alisis de se nales de comunicaciones,
resulta preferible trabajar con se nales de energa. La se nal x(t) ser a considerada una se nal de
energia si y solo si 0 < E < , en donde
E lim
T
_ T
2
T
2
x
2
(t) dt =
_
x
2
(t) dt (1.19)
En el mundo real todas las se nales tienen energa nita, sin embargo como consecuencia de la
denici on matematica de las se nales peri odicas, estas existen para todo tiempo por lo que tienen
energa innita. Adem as, las se nales aleatorias tambien tienen energa innita, por lo que se
requiere denir una clase de se nales llamadas se nales de potencia, que ser an aquellas se nales
no nulas que tienen potencia promedio nita para todo el tiempo, en smbolos 0 < P < , en
donde:
P lim
T
1
T
_ T
2
T
2
x
2
(t) dt (1.20)
13
CAP
ITULO 1. INTRODUCCI
ON
Las deniciones de se nales de energa y potencia son mutuamente excluyentes, ya que una
se nal de energa tiene energa nita pero potencia media nula, en cambio una se nal de potencia
tiene potencia media nita pero energa innita. Como norma general, las se nales periodicas y
las se nales aleatorias son consideradas de potencia. Por otro lado, las se nales que a la vez son
no periodicas y determinsticas son clasicadas como se nales de energa.
1.5.2 Teorema de Parseval
Dada la importancia de este teorema en las se nales utilizadas en comunicaciones, es necesario
enunciarlo en forma independiente y en forma previa a las deniciones de ESD y PSD.
Este teorema est a dado por:
_
[x(t)[
2
dt =
_
[X(f)[
2
df (1.21)
en donde X(f) es la transformada de Fourier de la se nal no periodica x(t). N otese que el lado
izquierdo de la ecuaci on del teorema corresponde a la denici on de energa media denida en la
Ecuaci on (1.19)
La interpretaci on de la Ecuacion (1.21) y del teorema en s, es que la energa total contenida
en la se nal x(t) sumada a lo largo de todo el tiempo t es igual a la energa total de la transformada
de Fourier de x(t), X(f), sumada a lo largo de todas las componentes de frecuencia f.
1.5.3 Densidad Espectral de Energa (ESD)
La energa total de una se nal real x(t) denida para todos los n umeros reales, esta dada por la
Ecuaci on (1.19). Utilizando el Teorema de Parseval, se puede relacionar la energa de dicha se nal
expresada en el dominio del tiempo, con la energa expresada en el dominio de la frecuencia,
luego
E =
_
[X(f)[
2
df .
Esto signica que la energa media de una se nal x(t) esta dada por el area bajo la curva [X(f)[
2
.
Como consecuencia, la funci on en frecuencia [X(f)[
2
dene como la energa se distribuye para
todas las componentes de frecuencia f. As, en palabras m as formales, si se dene la magnitud
al cuadrado del espectro como:
(f) [X(f)[
2
, (1.22)
entonces la cantidad (f) es la forma de onda de la Densidad Espectral del Energa (ESD) de
la se nal x(t).
N otese que esta denici on de ESD requiere que la transformada de Fourier de la se nal
exista, lo que matem aticamente implica que las se nales sean integrables cuadraticamente. Por
esta raz on, es mas com un hablar de densidad espectral de potencia (PSD) que describe como
la potencia de la se nal esta distribuda en las distintas frecuencias.
14
CAP
ITULO 1. INTRODUCCI
ON
1.5.4 Densidad Espectral de Potencia (PSD)
La PSD es particularmente importante en sistemas de comunicaciones pues describe la dis-
tribuci on de una se nal de potencia en el dominio de la frecuencia, permitiendo determinar como
dicha se nal pasa atraves de una red de comunicaciones de respuesta en frecuencia conocida.
La potencia promedio P de una se nal real de potencia x(t) est a denita por la Ecuacion (1.20).
Tomando el teorema de Parseval sobre se nales reales y peri odicas se obtiene la relaci on
1
T
0
_
T
0
2
T
0
2
x
2
(t) dt =
n=
[x
n
[
2
, (1.23)
en donde el lado izquierdo correspnde a la denicion de la potencia media de una se nal peri odica
y los terminos [x
n
[ son los coecientes complejos de la serie de Fourier de dicha se nal. Nueva-
mente, planteando esta igualdad, se tiene que la potencia media de la se nal estar a dada por
suma de todas las componentes espectrales de ella a lo largo de la frecuencia. En smbolos
P =
n=
[x
n
[
2
.
As, se dene la Densidad Espectral de Potencia (PSD) de la se nal peri odica x(t) mediante
(f)
+
n=
[x
n
[2 (f nf
0
) . (1.24)
N otese que (f) es una funci on discreta en frecuencia, real, par y no-negativa
Para se nales no-peri odicas se requiere denir una versi on truncada de la se nal, mediante:
x
T
(t)
_
x(t) ,
T
2
< t <
T
2
0 , i.o.c.
= w(t)
_
t
T
_
.
Ahora, usando la Ecuaci on (1.20) y el teorema de Parseval dado por la Ecuacion (1.21) se
tiene que la potencia normalizada promedio est a determinada por:
P = lim
T
1
T
_
x
2
T
(t) dt = lim
T
1
T
_
[X
T
(f)[
2
df =
_
lim
T
[X
T
(f)[
2
T
df
Entonces, utilizando el mismo principio explicado para el caso de se nales periodicas, se dene
la PSD de una se nal no-periodica de una se nal como:
(f) = lim
T
[X
T
(f)[
2
T
, (1.25)
de donde se puede extraer directamente que la potencia promedio de la se nal estar a determinada
por el c alculo de la integral de la PSD a lo largo de todas las frecuencias. Este resultado es
de vital importancia para se nales aleatorias en donde no se puede calcular la transformada de
Fourier pero si su PSD mediante la funci on de autocorrelaci on como se vera en la siguiente
secci on.
15
CAP
ITULO 1. INTRODUCCI
ON
Ejemplo 1.5 - PSD se nal peri odica.
Encuentre la potencia promedio normalizada de la se nal x(t) = Acos(
0
t) usando el promedio
temporal y en base a las series de Fourier.
Sol. Usando la Ecuacion (1.23), se tiene P =
A
2
T
0
_
T
0
2
T
0
2
cos
2
(
0
t) dt =
A
2
2
. Por otra parte, al
usar la denicion de una PSD para se nal peri odica dada por la Ecuaci on (1.24), se obtiene
por mediante las series de Fourier que x
1
= x
1
=
A
2
y x
n
= 0, n = 0, 2, 3, . . . . Luego
(f) =
A
2
4
[(f +f
0
) +(f f
0
)], entonces P =
_
(f) =
A
2
2
, que es el mismo valor encontrado
mediante el calculo del valor medio.
Ejemplo 1.6 - PSD, Potencia media y valor RMS.
Determine la PSD, la potencia media y el valor RMS de la se nal x(t) = Asin(
0
t), mediante el
uso de la funci on de autocorrelaci on.
Sol. La funcion de autocorrelaci on estar a determinada por R() =
A
2
2
cos(
0
), entonces su
PSD estar a determinada por (f) = F[R()] = F
_
A
2
2
cos(
0
)
_
=
A
2
4
[(f +f
0
) +(f f
0
)]. La
potencia media ser a P = R(0) =
A
2
2
y el valor RMS x
RMS
=
P =
A
2
.
PSD de un Proceso Aleatorio
Anteriormente se dijo que un proceso aleatorio X(t) se clasicaba como una se nal de potencia,
por lo que tendra una PSD caracterstica
X
(f) que est a descrita por la Ecuaci on (1.25). El
problema con dicha denici on, es que requiere el calculo de transformada de Fourier del proceso
aleatorio, cosa que normalmente es imposible pues no se tiene una descripci on en el tiempo
que permita el c alculo de la integral. Por esta raz on se necesita recordar que la PSD y la
autocorrelaci on se relacionan mediante la transformada de Fourier como lo sentencia el Teorema
de Wiener-Khinchin.
Teorema Wiener-Khinchin. Para un proceso aleatorio estacionario X(t), su densidad es-
pectral de potencia (PSD) corresponde a la transformada de Fourier de la funcion de
autocorrelaci on, es decir
X
(f) = F [R
X
()] . (1.26)
Entonces, la PSD de una secuencia aleatoria de digitos binarios puede ser obtenida mediante
la transformada de fourier de la funci on de autocorrelacion. Debe recordarse que el area bajo
la curva de la PSD corresponde a la potencia promedio de la se nal.
Ejemplo 1.7 - PSD proceso aleatorio estacionario.
Sea el siguiente proceso aleatorio X(t) = Acos(
0
t + ), con A y
0
constantes y U[0, 2].
Determine la PSD de dicho proceso.
Sol. Anteriormente se obtuvo que la media del proceso es EX = 0 y que la funci on de
16
CAP
ITULO 1. INTRODUCCI
ON
(a) Se nal original y contaminada con ruido blanco (b) PSD de la se nal
Fig. 1.3: Estimaci on de la PSD de una se nal determinstica contaminada con ruido blanco.
autocorrelaci on para este proceso es R(t
1
, t
2
) =
1
2
A
2
cos[
0
(t
2
t
1
)] =
1
2
A
2
cos
0
, por lo
que corresponde a un proceso estacionario. Entonces la PSD estar a determinada por (f) =
A
2
4
[(f f
0
) + (f + f
0
)].
Aparte de permitir realizar an alisis espectral de los procesos aleatorios, la PSD permite tra-
bajar con se nales determinsticas contaminadas con ruido aleatorio. Por ejemplo, para una se nal
dada por x(t) = cos(250t) + cos(2250t) que se contamina con ruido blanco como se muestra
en la Fig. 1.3(a), la informacion a priori de las componentes espectrales resulta practicamente
imposible de obtener. Al calcular la funcion de autocorrelacion de la se nal y tomar la transfor-
mada de Fourier de dicho resultado, se obtiene la estimaci on de la PSD de la se nal. Como se
puede observar en la Fig. 1.3(b), se logran visualizar claramente las componentes espectrales en
50[Hz] y 250[Hz] conforme a la se nal original, a pesar de la presencia de ruido aleatorio en la
se nal a procesar.
1.6 Conversion Analogo-Digital
Hasta el momento, se ha hablado de conceptos y deniciones sobre se nales denidas en tiempo
y amplitud continuo, pudiendo esta ultima asumir innitos valores. El problema con estas
se nales es que no pueden ser transmitidas en su forma natural mediante un sistema digital,
por lo que deben ser muestreadas (llevar las se nales de tiempo continuo a tiempo discreto) y
cuantizadas (llevar los valores de amplitud a un numero nito). Este proceso se explicar a en
las siguientes secciones. Como resultado se tiene una se nal en tiempo y amplitud discretos que
puede codicarse como se ver a en el siguiente captulo.
17
CAP
ITULO 1. INTRODUCCI
ON
1.6.1 Muestro de una Se nal
Conforme a la experiencia previa, se puede decir que el muestrear una se nal, corresponde a
multiplicarla por un tren de impulsos discretos con periodo T
s
(o frecuencia de muestreo fs =
1
Ts
). As, considerando la funcion impulso unitario, (t), la se nal x(t) muestreada cada T
s
unidades de tiempo, estar a dada por
x
s
(t) =
n=
x(t)(t nT
s
) . (1.27)
Considerando que x(t) no depende de n y puede salir de la sumatoria, se aplica la trans-
formada de Fourier a ambos lados de la Ecuacion (1.27), para obtener el espectro de la se nal
muestrada.
X
s
(f) = X(f) F
_
n=
(t nT
s
)
_
= X(f)
1
T
s
n=
(f nf
s
)
=
1
T
s
n=
X(f nf
s
) (1.28)
en d onde representa la convolucion en tiempo-discreto, y se utiliz o la propiedad de la con-
voluci on de la se nal impulso, que dice: X(f) (f nf
s
) = X(f nf
s
). Este resultado muestra
que el espectro de la se nal muestreada X
s
(f) es una replica de la transformada de Fourier de la
se nal original que se repite a una tasa de f
s
[Hz] y que se aten ua en un factor de f
s
.
En la Fig. 1.4 se pueden observar las etapas en el proceso de muestreo ideal mediante la
utilizaci on de la funci on impulso unitario. La se nal an aloga de la Fig. 1.4(a) es una se nal de
banda limitada ya que se hace nula fuera del intervalo 15 < f < 15, como se puede observar en
la Fig. 1.4(b). Esto implica que el ancho de banda de la se nal es W = 15[Hz]. Utilizando una
frecuencia de muestreo de f
s
= 100[Hz] el criterio de Nyquist se satisface de forma completa,
por lo que no existir a aliasing tal como se puede observar en la Fig. 1.4(f). Esta misma gura
ratica el hecho de que en la se nal muestreada el espectro se repite cada f
s
[Hz] como se demostr o
matem aticamente.
1.6.2 Cuantizaci on
Despues del proceso de muestreo, se tiene una se nal de tiempo discreto, sin embargo las am-
plitudes a un son continuas y puede asumir cualquier valor real dentro de los lmites propios de
la se nal. Dado que la transmision de n umeros reales en n umero de base 2 tienen largo innito,
la transmisi on de esta se nal se hace imposible. Por esta raz on, posterior al muestreo se realiza
el proceso de cuantizaci on. En este proceso se realiza la discretizacion de la amplitud de las
se nales, lo que permite representar la se nal de forma valida con valores binarios de largo nito.
La forma m as basica de realizar el proceso de cuantizacion es mediante la subdivisi on del
rango din amico de la se nal muestreada en un n umero nito de valores. En terminos coloquiales,
18
CAP
ITULO 1. INTRODUCCI
ON
(a) Se nal Analoga Original (b) Espectro Se nal Analoga
(c) Tren de Impulsos (d) Espectro Tren de Impulsos
(e) Se nal Muestreada (f) Espectro Se nal Muestreada
Fig. 1.4: Diferentes etapas del muestreo de una se nal analoga.
19
CAP
ITULO 1. INTRODUCCI
ON
es como posicionar la se nal sobre un cuaderno de lineas. As los valores que la se nal asume en los
distintos instantes de tiempo, se redondean a un valor m aximo o mnimo de dicha subdivisi on.
Mediante esta tecnica se logran resultados aceptables, pero intuitivamente se puede decir que
se agregan errores propios al redondeo de valores. Este metodo de cuantizaci on as como otros
m as avanzados se estudiar an con m as detalle a partir de la secci on 3.3.1.
20
Captulo 2
Teora de la Informaci on
2.1 Introducci on
La Teora de la Informaci on busca contestar dos preguntas fundamentales en la teora de las
comunicaciones: Cu al es la m axima compresion de datos (Respuesta: La entropa, H) y cual es
la m axima tasa de transmisi on de la comunicacion (Respuesta: La capacidad del canal, C). Por
esta misma razon, la teora de la informacion se considera como una sub-materia de la teora de
las comunicaciones, sin embargo resulta ser un area muchsimo m as grande pues tiene mucho que
aportar en otras areas como Fsica Estadstica (Termodin amica), Ciencias de la Computacion
(Complejidad de Kolmogorov), Inferencia Estadstica, Probabilidad y Estadstica entre otras
materias.
2.2 Modelo de las Fuentes de Informacion
Ac a, se estudiar an solamente modelos simples para las fuentes de informacion ya que fuentes
complejas involucran matematicas avanzadas que escapan del n del curso. Sin embargo, estos
modelos simples igualmente permiten denir en forma precisa una medida de la informaci on y
de los lmites en la compresi on y transmisi on de la informacion.
El modelo m as simple para una fuente de informaci on es la fuente discreta sin memoria, Dis-
crete Memoryless Source (DMS), que es un proceso aleatorio en tiempo discreto y de amplitud
discreta en el cual todos los X
i
s son generados en forma independiente y con la misma dis-
tribuci on. Por lo tanto, un DMS genera una secuencia de variables aleatorias i.i.d. (independent
and identically distributed), que toman valores en un set discreto de posibilidades.
Permtase denir dicho set discreto de posibilidades que tomar a la variable aleatoria mediante
A = a
1
, a
2
, . . . , a
M
, y la funcion de probabilidades correspondientes denotadas por p
i
=
P(X = a
i
), para i = 1, 2, . . . , M. Una descripcion completa de una DMS est a determinada por
el set A, llamado alfabeto, y el set de probabilidades p
i
M
i=1
.
2.2.1 Concepto de Informacion
La informacion de forma general corresponde a un conocimiento especco o dato de interes,
que agrupado con un conjunto de datos extras constituye un mensaje sobre un determinado
21
CAP
ITULO 2. TEOR
IA DE LA INFORMACI
ON
ente o fenomeno. En otras palabras, se puede decir que el concepto de mensaje, viene a ser
como una materializacion de la informaci on.
La informaci on es transferida desde una fuente a un destinatario, s olo si este ultimo no la
conoca previamente. Por ejemplo, considere el escenario en que un grupo de gente mira por
la ventana. Esto involucra que todos saben (tienen la informacion) que el da esta soleado. Si
alguien dice El da esta soleado no es informaci on, pues no aporta ning un dato nuevo a lo
que todos conocen. Por otro lado si alguien dice En la noche llovera para muchos si ser a
informaci on pues no necesariamente todos sabr an dicho dato.
Pensando en se nales de voltaje, una batera de 1.5 volts no tiene mucha informaci on que
aportar, pues una vez sabido su voltaje mediante un voltmetro, este seguir a constante por
muchsimo tiempo lo que no aporta ning un dato nuevo La informaci on est a relacionada con
cambios.
Por otro lado, una se nal sinusoidal de voltaje vara en el tiempo, sin embargo una vez que est a
se ha caracterizado midiendo su amplitud, frecuencia y fase, no existe ninguna informaci on nueva
que esta se nal pueda aportar La informacion est a relacionada con cambios impredecibles.
2.2.2 Medida de la Informaci on
La cantidad de informaci on sobre un evento se relaciona estrechamente con la probabilidad de
su ocurrencia. Los mensajes que contienen noticias de gran probabilidad de ocurrencia, es decir
que indican muy poca incertidumbre en el resultado, llevan relativamente poca informaci on.
Por otro lado, aquellos mensajes que contienen noticias con baja probabilidad de ocurrencia
conducen grandes cantidades de informaci on. As mismo, un evento totalmente cierto (es decir
con probabilidad unitaria) lleva cero informaci on; en cambio un evento improbable (probabilidad
casi nula), su ocurrencia lleva una cantidad innita de informacion. Sobre esta base, la medida
de informacion asociada a un evento A que ocurre con una probabilidad P
A
se dene como:
I
A
= log
1
P
A
= log P
A
(2.1)
La Ecuaci on (2.1) se conoce como self-information y fue derivada por Claude E. Shannon
en 1948. Es importante tener en cuenta, que la denicion est a hecha con logaritmo en base 2,
por lo tanto la unidad de medida de I
A
es bits. Si se utiliza logaritmos naturales (base e), la
unidad sera nat y para logaritmo en base 10, se dice que se mide en hartley.
Ejemplo 2.1 - Autoinformacion.
Considerando el experimento de lanzar una moneda, la probabilidad de tener sello es 0.5.
Una vez que esto haya sucedido, se tiene I
sello
= log
2
(0.5) = 1 bit de informacion.
Ejemplo 2.2 - Autoinformacion.
Considerando el experimento de lanzar un dado, la probabilidad de que salga cualquier n umero
es 1/6. Suponiendo que sali o un 4, la cantidad de informaci on es: I
4
= log
2
(6) = 2.5850 bits de
informaci on.
22
CAP
ITULO 2. TEOR
IA DE LA INFORMACI
ON
Ejemplo 2.3 - Autoinformacion.
Los smbolos A, B, C y D ocurren con probabilidades 1/2, 1/4, 1/8 y 1/8 respectivamente.
Calcule la informaci on en el mensaje de tres smbolos X = BDA suponiendo que estos son
estadsticamente independientes.
Sol. Como los eventos son estadsticamente independientes, la medida de informacion (por
ser logartmica) resulta aditiva, luego: I
X
= log
2
(P
X
) = log
2
(P
B
P
D
P
A
) = log
2
(P
B
)
log
2
(P
D
) log
2
(P
A
) = log
2
4 + log
2
8 + log
2
2 = 2 + 3 + 1 = 6 bits de informaci on.
2.2.3 Entropa
Lo anteriormente discutido, dene la medida de la informacion para el caso en que todos los
mensajes son igualmente probables, lo que resulta ser s olo un caso particular. A modo de
generalizaci on se dene una informacion promedio de cada mensaje, llamada Entropa, H.
La entropa corresponde a una medida de la incertidumbre de una variable aleatoria. Defnase
X como una variable aleatoria discreta con alfabeto A y funci on de probabilidad p(x) = P(X =
x). As, se dene la Entropa H(X) de la variable aleatoria discreta X como:
H(X) =
xA
p(x) log p(x) (2.2)
en donde el logaritmo se utiliza en base 2 a menos que se especique lo contrario, y se asume
por convencion que 0 log 0 = 0, lo que se puede justicar por que la relacion x log x 0 cuando
x 0.
La entropa de X tambien puede ser interpretada como el valor esperado de log p(X) lo
que equivale a la esperanza de la self-information del mensaje, luego
H(X) = EI
X
= E
_
log
1
p(X)
_
que esta relacionada con la denici on de entropia en termodinamica.
Ejemplo 2.4 - Entropa.
Considere la variable aleatoria X 0, 1. Calcule la entropa de X, considerando que la fuente
de informacion es sin-memoria.
Sol. Considerando que la probabilidad de que X = 1 es p, la probabilidad de que X = 0 sera
1 p. Entonces su entropa ser a H(X) = p log p (1 p) log(1 p) H(p). Esta funci on es
conocida como la Funcion de Entropa Binaria y se muestra en la Fig. 2.1.
En particular H(p) = 1 bit cuando p = 0.5. Si la funci on H(p) se graca con respecto a
p se puede notar una de las propiedades b asicas de la entropa: es una funcion c oncava de la
distribuci on y nula para p = 0 o 1. Adem as el m aximo ocurre cuando p = 0.5 lo que es claro
pues corresponde al punto de m axima incertidumbre. Esto se puede corroborar observando la
Fig. 2.1.
23
CAP
ITULO 2. TEOR
IA DE LA INFORMACI
ON
Fig. 2.1: La funcion de entropa binaria H(p)
Ejemplo 2.5 - Entropa de DMS.
Una fuente con ancho de banda de 4kHz se muestrea en forma optima. Asumiendo que la
secuencia resultante se puede modelar como una fuente DMS con alfabeto A = 2, 1, 0, 1, 2
y con probabilidades correspondientes dadas por
_
1
2
,
1
4
,
1
8
,
1
16
,
1
16
_
, determine la tasa de la fuente
en bits por segundo.
Sol. La entropa estar a dada por H(X) =
15
8
bits por muestra. Dado que el muestreo optimo se
logra con la frecuencia de Nyquist, entonces la frecuencia de muestreo es f
s
= 2 4k = 8[kHz], o
en otras palabras, se tomaran 8000 muestras por segundo. As la fuente producira informacion
a una tasa de 8000
15
8
= 15 10
3
bits por segundo.
Ejemplo 2.6 - Entropa de DMS Equiprobable.
Una fuente de informacion discreta sin memoria tiene un alfabeto de tama no N y las salidas
son equiprobables. Encuentre la entropia de esta fuente.
Sol. Como los eventos son equiprobables, todos tienen una probabilidad de
1
N
, luego H(x) =
N
i=1
1
N
log
1
N
= log N.
2.2.4 Entropa Conjunta y Condicional
Cuando se trabaja con 2 o m as variables aleatorias, se introduce el concepto de entropia condi-
cional y conjunta de la misma forma en que se habla de probabilidades condicionales y conjuntas.
Este concepto es principalmente importante cuando se trabaja con fuentes con memoria.
24
CAP
ITULO 2. TEOR
IA DE LA INFORMACI
ON
As, se dene la Entropia Conjunta de dos variables aleatorias discretas (X, Y ) como:
H(X, Y ) =
x,y
p(x, y) log p(x, y) (2.3)
lo que tambien puede expresarse mediante H(X, Y ) = Elog p(X, Y ).
Para el caso de m variables aleatorias X = (X
1
, X
2
, . . . , X
m
), se tiene:
H(X) =
x
1
,x
2
,...,xm
p(x
1
, x
2
, . . . , x
m
) log p(x
1
, x
2
, . . . , x
m
)
por lo que se puede decir que la entropia conjunta es simplemente la entropia de una variable
aleatoria vectorial.
Ejemplo 2.7 - Entropia Conjunta.
Dos variables aleatorias binarias X e Y est an distribudas de acuerdo a una PMF conjunta dada
por P(X = 0, Y = 0) =
1
4
, P(X = 0, Y = 1) =
1
4
y P(X = 1, Y = 1) =
1
2
. Determine los valores
de H(X), H(Y ) y H(X, Y ).
Sol. Dada la distribucion, se tiene que P(X = 1, Y = 0) = 0. As P(X = 0) = P(X = 0, Y =
0) + P(X = 0, Y = 1) =
1
2
, entonces se tiene que P(X = 1) =
1
2
, luego H(X) = log
1
2
= 1.
Por otra parte, P(Y = 0) =
1
4
, lo que implica que P(Y = 1) =
3
4
, luego H(Y ) = 0.8113. Ahora
bien, H(X, Y ) =
1
4
log
1
4
1
2
log
1
2
1
4
log
1
4
=
3
2
.
La Entropia Condicional de la variable aleatoria X, dada la variable aleatoria Y , expre-
sada como H(X[Y ) puede ser denida como
H(X[Y ) =
x,y
p(x, y) log p(x[y) (2.4)
En general, se tiene que
H(X
m
[X
1
, X
2
, . . . , X
m1
) =
x
1
,x
2
,...,xm
p(x
1
, x
2
, . . . , x
m
) log p(x
n
[x
1
, x
2
, . . . , x
m1
)
El Teorema de la Regla de la Cadena, permite comprobar que
H(X, Y ) = H(X) + H(Y [X) (2.5)
lo que a su vez, como corolario, dice que esto se cumple en forma inversa, vale decir
H(X, Y ) = H(Y ) + H(X[Y ) .
Para comprobar esto, se puede considerar la denici on de probabilidad condicional
p(X, Y ) = p(X)p(Y [X)
log p(X, Y ) = log[p(X)p(Y [X)]
= log p(X) + log p(Y [X)
ahora, tomando la esperanza en ambos lados de la ecuaci on, se obtiene el resultado esperado.
25
CAP
ITULO 2. TEOR
IA DE LA INFORMACI
ON
Ejemplo 2.8 - Entropa Condicional.
Para el Ejemplo 2.7, calcule H(X[Y ) y H(Y [X).
Sol. Se tiene que H(Y [X) = H(X, Y ) H(X) =
1
2
, y H(X[Y ) = 1.5 0.8113 = 0.6887.
2.2.5 Informacion Mutua
Para variables aleatorias discretas, H(X[Y ) denota la entropa (o incertidumbre) de la variable
aleatoria X, luego de que la variable aleatoria Y es conocida. As, dado que la entropa de la
variable X es H(X), la cantidad H(X) H(X[Y ) representa la cantidad de incertidumbre que
ha sido removida al revelar la variable aleatoria Y . Esta cantidad juega un rol importante tanto
en la codicaciones de canales como de fuentes y es llamada Informaci on Mutua entre las 2
variables aleatorias.
Entonces, la informaci on mutua entre dos variables aleatorias discretas X e Y , es denotada
por I(X; Y ) y est a denida por
I(X; Y ) = H(X) H(X[Y ) (2.6)
por simetra, tambien se tiene que I(X; Y ) = H(Y ) H(Y [X). As se puede considerar que X
dice tanto de Y como Y lo dice de X.
Considerando ahora que H(X, Y ) = H(X) + H(Y [X), entonces la informaci on mutua
tambien puede ser calculada por:
I(X; Y ) = H(X) + H(Y ) H(X, Y ) (2.7)
Finalmente, se puede notar que
I(X; X) = H(X) H(X[X) = H(X)
2.3 Teorema de Codicacion de la Fuente
La entropa de una fuente de informacion, da una cota acerca de la tasa a la cu al la fuente
puede ser comprimida para una reconstrucci on exitosa. Esto signica que a tasas superiores
a la entropa es posible dise nar un c odigo con una probabilidad de error tan peque na como se
quiera, por otro lado, a tasas inferiores a la entropa dicho c odigo no existe.
Esto se justica en el Teorema de Codicaci on de la Fuente, propuesto por Shannon en 1948
y que dice:
Teorema de Codicacion de la Fuente. Una fuente de informaci on con entropa (o tasa de
entropa) H, puede ser codicada con una probabilidad de error arbitrariamente peque na
a cualquier tasa R [bits/simbolo], siempre que R > H. Consecuentemente, si R < H,
el error ser a muy lejano a cero, independiente de la complejidad utilizada en la codi-
caci on/decodicacion.
A pesar de la importancia de este resultado, este no da ning un algoritmo para dise nar
c odigos que se aproximen a esta condici on, por lo que se estudiar an algunas alternativas que
implementan esta idea.
26
CAP
ITULO 2. TEOR
IA DE LA INFORMACI
ON
2.3.1 Codigo Human
El objetivo del codigo Human es asignar una secuencia de bits a cada una de las posibles
salidas de una fuente discreta. En forma intuitiva, se basa en la probabilidad de ocurrencia de
dichas salidas para realizar la asignaci on de cada palabra, d ando a las salidas mas probables las
palabras m as cortas (con menos bits) y a las menos frecuentes las palabras m as largas. Este
c odigo busca ser de decodicaci on unica, instantaneo y de menor largo medio de palabra, que
est a determinado por
R =
x
p(x)l(x) , (2.8)
en donde l(x) es el largo del codigo de palabra asignado a la salida x. Se puede demostrar que
R
.
Algoritmo del Codigo Human
El algoritmo se puede describir mediante los siguientes pasos:
1. Ordenar las salidas de la fuente en orden de probabilidades decrecientes
2. Agrupar los menos probables y generar una nueva salida cuya probabilidad es la suma de
las probabilidades correspondientes a las salidas agrupadas
3. Si quedan 2 salidas disponibles, ir al paso 4; sino, volver al paso 1.
4. Asignar 0 y 1 como codigos de palabra a las 2 salidas. Por acuerdo, se asignar a un 0 a la
salida menos probable de las 2 disponibles.
5. Recorrer el arbol en forma inversa, asignando 0 o 1 a cada rama. Repetir hasta llegar a
las salidas originales.
Para claricar el algoritmo, se plantea el siguiente ejemplo.
Ejemplo 2.9 - Codigo Human.
Considere una fuente de 5 smbolos a
1
, a
2
, a
3
, a
4
, a
5
con probabilidades
1
2
,
1
4
,
1
8
,
1
16
,
1
16
respec-
tivamente. Encuentre el codigo Human para dicha fuente. Calcule ademas el largo promedio,
y la eciencia del codigo encontrado.
Sol. Las probabilidades se mantienen en orden, pues fueron asignadas en forma decreciente,
luego:
que corresponde al c odigo originalmente dado. El largo medio sera
R = 0.5 1 + 0.25 2 +
0.125 3 + 0.0625 4 + 0.0625 4 = 1.8750. La entropa de la fuente est a dada por H(X) =
27
CAP
ITULO 2. TEOR
IA DE LA INFORMACI
ON
a
1
(
1
2
) a
1
(
1
2
) a
1
(
1
2
) a
1
(
1
2
) 0 0
a
2
(
1
4
) a
2
(
1
4
) a
2
(
1
4
) 0| a
2345
(
1
2
) 1 10
a
3
(
1
8
) a
3
(
1
8
) 0| a
345
(
1
4
) 1| 110
a
4
(
1
16
) 0| a
45
(
1
8
) 1| 1110
a
5
(
1
16
) 1| 1111
0.5 log 0.5 0.25 log 0.25 0.125 log 0.125 0.0625 log 0.0625 0.0625 log 0.0625 = 1.875, as
la eciencia ser a = 100%.
A pesar de que el codigo Human es optimo en el sentido de que entrega palabras con un
largo medio mnimo, presenta dos grandes problemas en su implementacion:
1. El dise no del c odigo depende fuertemente de las probabilidades (estadsticas), las que se
debe saber con anterioridad. Esto implica que el c odigo Human se debe realizar en dos
pasos: primero se estiman las estadsticas de la fuente de informacion y luego se realiza la
codicaci on en si.
2. El otro problema que presenta el c odigo Human es que se dise na sobre bloques de la
fuente de largo uno, solo emplea variaciones en la frecuencia de las salidas de la fuente
y no la memoria. Si se quisiera utilizar tambien la memoria de la fuente, se requerira
utilizar bloques de largo 2 o m as, lo que incrementa en forma exponencial la complejidad
del algoritmo.
2.3.2 Codigo Lempel-Ziv
El algoritmo de Lempel-Ziv pertenece a la clase de algoritmos de codicacion de fuente uni-
versales, es decir, algoritmos que son independientes de las estadsticas de la fuente. Para una
ristra de bits, el algoritmo se procede como sigue
1. Se identican frases del mnimo largo que no hayan aparecido anteriormente en la ristra.
2. Mientras la nueva salida de la fuente despues de la ultima frase coincida con una de las
existentes, no se introduce una nueva frase y se considera una nueva letra de la fuente.
3. Apenas la nueva salida sea diferente de las frases previas, se reconoce como una nueva
frase y se codica. En terminos intuitivos se puede notar entonces que la nueva frase
corresponde a una frase previa m as alg un bit de innovaci on.
4. La codicaci on se realiza concatenando la posicion de la frase previamente encontrada con
el bit de innovacion.
Ejemplo 2.10 - Codigo Lempel-Ziv.
Codique mediante Lempel-Ziv la ristra dada por
01000011000010100000101000001100000101000010 .
28
CAP
ITULO 2. TEOR
IA DE LA INFORMACI
ON
Sol. En base a las reglas anteriores, se debe realizar la separaci on en frases diferentes, luego
0[1[00[001[10[000[101[0000[01[010[00001[100[0001[0100[0010 ,
que involucra tener 15 frases, con lo que, para representar cada salida de la fuente de informaci on,
se requieren 4 bits por frase m as el bit de innovacion. Entonces, se genera la tabla de asignacion
de posiciones para determinar la codicaci on que se muestra a continuaci on:
Ubicaci on Contenido Codigo
1 0001 0 0000 0
2 0010 1 0000 1
3 0011 00 0001 0
4 0100 001 0011 1
5 0101 10 0010 0
6 0110 000 0011 0
7 0111 101 0101 1
8 1000 0000 0110 0
9 1001 01 0001 1
10 1010 010 1001 0
11 1011 00001 1000 1
12 1100 100 0101 0
13 1101 0001 0110 1
14 1110 0100 1010 0
15 1111 0010 0100 0
Por lo que el problema se considera resuelto.
La representacion obtenida en el ejemplo, dicilmente se pueden considerar como compresi on
de datos ya que 44 bits fueron mapeados en una secuencia de 75 bits. Sin embargo al momento
de trabajar con ristras de bits mucho mas grandes, la compresion se torna m as evidente.
Un problema que presenta la codicaci on LZ es con respecto a que n umero de frases se deben
elegir, ya que cualquier n umero jo de frases eventualmente sera insuciente para una fuente
continua de bits, produciendose overow. Una forma de solucionarlo es que el par codicador-
decodicador debe eliminar de sus diccionarios las frases obsoletas y substituirlos por nuevos
elementos.
La decodicaci on, se realiza simplemente considerando que en la ubicaci on 0 siempre ir an
los dgitos binarios 0 o 1 y el bit de innovacion determinar a a cu al corresponde. Posteriormente
se realiza la recuperaci on traduciendo la mezcla ubicaci on + bit de innovaci on para armar la
ristra original de bits.
El algoritmo LZ es ampliamente utilizado en la practica para comprimir archivos. Los
comandos compress y uncompress del sistema operativo UNIX, as como tambien programas
de compresion (zip, gzip, etc) son implementaciones de diferentes versiones de este algoritmo.
29
CAP
ITULO 2. TEOR
IA DE LA INFORMACI
ON
2.3.3 Codigo ASCII
ASCII son las siglas de American Standar Code for Information Interchange. Su uso primordial
es facilitar el intercambio de informacion entre sistemas de procesamiento de datos y equipos
asociados y dentro de sistemas de comunicacion de datos.
En un principio cada car acter se codicaba mediante 7 dgitos binarios y fue creado para el
juego de caracteres ingleses mas corrientes, por lo que no contemplaba ni caracteres especiales
ni caracteres especcos de otras lenguas. Esto hizo que posteriormente se extendiera a 8 dgitos
binarios. El codigo ASCII se resume en la Tabla 2.1.
Tabla 2.1: C odigo ASCII
0 1 2 3 4 5 6 7
0 NUL DLE SPC 0 @ P p
1 SOH DC1 ! 1 A Q a q
2 STX DC2 2 B R b r
3 ETX DC3 # 3 C S c s
4 EOT DC4 $ 4 D T d t
5 ENQ NAK % 5 E U e u
6 ACK SYN & 6 F V f v
7 BEL ETB 7 G W g w
8 BS CAN ( 8 H X h x
9 HT EM ) 9 I Y i y
A LF SUB * : J Z j z
B VT ESC + ; K [ k
C FF FS , < L l [
D CR GS - = M ] m
E SO RS . > N n
F SI US / ? O o DEL
30
CAP
ITULO 2. TEOR
IA DE LA INFORMACI
ON
Tabla 2.2: Codigo ASCII (continuacion)
NUL Null, or all zeros DC1 Device Control 1
SOH Start of heading DC2 Device Control 2
STX Start of text DC3 Device Control 3
ETX End of text DC4 Device Control 4
EOT End of transmision NAK Negative acknowledge
ENQ Enquiry SYN Synchronous idle
ACK Acknowledge ETB End of trasmision block
BEL Bell o alarma CAN Cancel
BS Backspace EM End of medium
HT Horizontal tabulation SUB Substitute
LF Line feed ESC Escape
VT Vertical tabulation FS File separator
FF Form feed GS Group separator
CR Carriage Return RS Record separator
SO Shift out US Unit separator
SI Shift in SP Space
DLE Data link escape DEL Delete
Ejemplo 2.11 - Codigo ASCII.
Considere que se quiere enviar la palabra HOLA! usando el codigo ASCII de 8 bits. Se pide
encontrar la representaci on en dgitos 32- arios y sus respectivas formas de onda.
Sol. Conforme a la Tabla 2.1, se tiene que H:84x0, O:F4x0, L:C4x0, A:14x0 y !:12x0, entonces en
binario, el mensaje sera
H
..
10000100
O
..
11110100
L
..
11000100
A
..
00010100
!
..
00010010 . As, si se considera que
se quiere utilizar dgitos 32- arios, entonces la secuencia de dgitos ser a 16,19,26,12,8,5,9,18.
2.4 Representaci on de Canales
En esta secci on, se estudiar a el canal de comunicaci on que es uno de las partes mas importantes
de las comunicaciones pues resulta ser el factor limitante a la hora de lograr una buena tasa de
transmisi on.
Como se dijo anteriormente, un canal de comunicacion corresponde a cualquier medio sobre
el cual puede ser transmitida informaci on, o en el que informacion puede ser almacenada. As,
ejemplos de canales de comunicaciones seran: cables coaxiales, propagacion por la ionosfera,
espacio libre, bra optica, discos magneticos u opticos, etc. Lo que resulta com un en estos
ejemplos, es que ellos reciben se nales en sus entradas y entregan se nales en sus salidas en un
tiempo posterior (almacenamiento) o en otra ubicaci on (transmisi on). Por lo mismo, los canales
de comunicaci on son modelados mediante la relaci on entrada-salida que tengan; en este sentido,
un canal de comunicaci on puede ser considerado como un sistema.
Existen variados factores que producen que la salida de un canal de comunicaci on sea difer-
31
CAP
ITULO 2. TEOR
IA DE LA INFORMACI
ON
ente a su entrada, tales como atenuaci on, nolinealidades, limitaciones de ancho de banda, ruido,
etc. Todo esto contribuye a una relaci on entrada-salida bastante compleja, que generalmente
tiene que ser considerada como una relaci on estoc astica.
Al considerar el canal como un sistema con entrada X y salida Y , las probabilidades condi-
cionales p(Y [X) y p(X[Y ) son conocidas como Probabilidad de Transici on y Probabilidad
de Union, respectivamente. A su vez, la entropa de entrada H(X) corresponde a la incer-
tidumbre promedio de la fuente de informacion y la entropa de la salida H(Y ) corresponde a
la incertidumbre promedio de la recepcion de un smbolo. Para el caso de las entropas condi-
cionales, se tiene que H(Y [X) corresponde a la incertidumbre promedio respecto de que el smbolo
que se recibe, dado que se ha transmitido X. La entropa H(X[Y ) sera la Entropa de Equivo-
cacion, que corresponde a la incertidumbre promedio de que smbolo sera transmitido despues
de haber recibido un smbolo X. La entropa conjunta H(X, Y ) es la incertidumbre promedio
del sistema de comunicaciones como un todo.
Considere un canal sin memoria, lo que implica que la salida depende de la entrada en ese
momento y no de las previas a el. Este tipo de canales, est an denidos por un conjunto de
probabilidades condicionadas que relacionan la probabilidad de cada estado a la salida, con la
probabilidad de la entrada. Suponga un canal con dos entradas x
1
y x
2
, y con tres salidas y
1
,
y
2
e y
3
, como lo muestra la Fig 2.2.
Fig. 2.2: Canal de comunicaciones de 2 entradas y 3 salidas modelado como un sistema.
Las rutas entrada-salida se indican como una probabilidad condicional P
ij
= P(y
j
[x
i
), repre-
sentando la probabilidad de obtener a la salida y
j
, dado que a la entrada x
i
. Esta probabilidad
recibe el nombre de Probabilidad de Transicion del Canal.
Fig. 2.3: Rutas entrada-salida para el canal de comunicaciones de 2 entradas y 3 salidas.
A menudo, se preere especicar al canal por su Matriz de Probabilidades de Tran-
sicion, denotada por P(Y[X) = [P(y
j
[x
i
)], que para el caso particular que se est a evaluando
estar a dada por:
P(Y[X) =
_
P(y
1
[x
1
) P(y
2
[x
1
) P(y
3
[x
1
)
P(y
1
[x
2
) P(y
2
[x
2
) P(y
3
[x
2
)
_
.
32
CAP
ITULO 2. TEOR
IA DE LA INFORMACI
ON
Por otra parte, cada una de las entradas debe siempre conducir a una salida, por lo que la
suma de cada la de la matriz debe ser igual a 1. En smbolos,
P(y
1
[x
1
) + P(y
2
[x
1
) + P(y
3
[x
1
) = P(y
1
[x
2
) + P(y
2
[x
2
) + P(y
3
[x
2
) = 1 .
La Matriz del canal es util para encontrar probabilidades de salida de acuerdo a las probabil-
idades de entrada. Considere la matriz la de n entradas dada por P(X) = [P(x
1
) P(x
n
)].
Para una matriz de transici on dada por P(Y[X), la matriz de m salidas estara dada por
P(Y) = P(X) P(Y[X)
Resulta interesante mencionar que si la matriz P(X) es escrita en forma diagonal, el producto
dado por diag[P(X)]P(Y[X) dene la Matriz de Union de Probabilidades y es denotada
por P(X, Y). En palabras simples, el termino P(x
i
, y
j
) representa la probabilidad de uni on de
transmitir x
i
y recibir y
j
. Matem aticamente la matriz de union est a dada por:
P(X, Y) =
_
_
P(x
1
) 0 0
0 P(x
2
) 0
.
.
.
.
.
.
.
.
.
.
.
.
0 0 0 P(x
n
)
_
_
_
_
P(y
1
[x
1
) P(y
2
[x
1
) P(y
m
[x
1
)
P(y
1
[x
2
) P(y
2
[x
2
) P(y
m
[x
2
)
.
.
.
.
.
.
.
.
.
.
.
.
P(y
1
[x
n
) P(y
2
[x
n
) P(y
m
[x
n
)
_
_
.
Ejemplo 2.12 - Representaci on de Canales.
Considere un canal binario de dos entradas y dos salidas, en donde la fuente es equiprobable y
la matriz de transici on esta uniformemente distribuda al transmitir sin error. Se pide encontrar
la matriz de transici on, la matriz de salida, la matriz de uni on y la probabilidad de error.
Sol. Dada la equiprobabilidad de la fuente, la matriz de entrada est a dada por P(X) =
[0.5 0.5]. Considerando que P(1[0) = P(0[1) = , la matriz de transicion estar a dada por
P(Y[X) =
_
1
1
_
. As, la matriz de salida sera P(Y) = [0.5 0.5]. La matriz de uni on
ser a P(X, Y) =
_
0.5 0
0 0.5
_
P(Y[X) = 0.5 P(Y[X). La probabilidad de transmisi on con error
estar a dada por P(E) = P(0r, 1t) + P(1r, 0t) = P(1)P(0[1) + P(0)P(1[0) = 0.5 + 0.5 = .
2.4.1 Canales con Ruido Aditivo Gaussiano
Cuando se habla de canales de comunicaci on, se puede hacer referencia a cualquiera de las
muchas formas en que se puede realizar una transmisi on de datos tanto digitales como analogos.
Por ejemplo se habla de cablados, bras opticas, canales inalambricos por ondas electromagneticas
o incluso canales subacu aticos por ondas ac usticas.
Resulta evidente entonces, que los canales reales agregan siempre componentes de ruido que
no dependen de los datos que se esten transmitiendo. La principal componente que se da en
todo canal es el ruido aditivo, que tiene caracter aleatorio en el tiempo.
Entonces, considere que la se nal transmitida se representa por s(t) y que se contamina por un
proceso aleatorio de ruido aditivo n(t). Si este ruido es introducido por los elementos presentes,
33
CAP
ITULO 2. TEOR
IA DE LA INFORMACI
ON
entonces se habla de Ruido Termico. El ruido termico esta determinado por el movimiento
aleatorio de los portadores dentro de cualquier elemento electr onico en general producido por
la inuencia de agentes externos. En terminos m as tecnicos, el ruido termico recibe el nombre
de rudo Johnson. El voltaje aleatorio producido a traves de los terminales en circuito abierto
del dispositivo, tiene una distribuci on Gaussiana con media nula.
Entonces, el modelo matem atico que describe al canal de comunicaci on con ruido aditivo
gaussiano esta determinado por
r(t) = s(t) + n(t) , (2.9)
en donde es la atenuacion del canal y r(t) es la se nal recibida a la salida del canal.
Ejemplo 2.13 - Canal Gaussiano.
Considerando que se envia una se nal s(t) con funci on de autocorrelaci on dada por R
s
() =
2 exp([[) a traves de un canal Gaussiano, se pide encontrar la potencia de la se nal recibida.
Sol. Se sabe con anterioridad que la funcion de autocorrelaci on de un proceso AWGN es
R
n
() =
2
(), siendo () la funcion impulso unitario. Entonces, la funci on de autocorrelaci on
de la se nal recibida, r(t) = s(t) + n(t), esta determinada por:
R
r
() = Er(t)r(t + )
= E[s(t) + n(t)][s(t + ) + n(t + )]
= Es(t)s(t + ) + Es(t)n(t + ) + En(t)s(t + ) + En(t)n(t + )
= R
s
() + R
n
()
= 2e
||
+
2
() .
As, la potencia de la se nal recibida sera R
r
(0) = 2 +
2
, en donde
2
es la varianza del ruido
Gaussiano.
2.4.2 Canales con Ruido y Filtro
Por otra parte, al trabajar con lneas telef onicas se debe incluir el uso de un ltro lineal para no
exceder las limitaciones de ancho de banda, por lo que al ruido se suma la presencia de dicho
ltro.
Considerese que el ltro tiene una respuesta a entrada impulso dada por c(t), entonces el
modelo matematico que describe la salida del canal es
r(t) = s(t) c(t) + n(t) , (2.10)
en donde representa la convoluci on de se nales.
En general, la respuesta impulso del ltro no es invariante en el tiempo por lo que se debe
incluir una variable de edad, . As, se tiene que la respuesta es c(t, ). Por ejemplo, un buen
modelo para multitrayectorias (ionosfera f < 30MHz, canales de radio celulares en moviles,
etc) es de la forma
c(t, ) =
L
i=1
a
i
(t) (t
i
) ,
34
CAP
ITULO 2. TEOR
IA DE LA INFORMACI
ON
en donde a
i
(t) son las posibles atenuaciones variantes en el tiempo, y
i
corresponden a los
retardos de cada una de dichas trayectorias. Por lo tanto, para este caso particular, el modelo
matem atico a utilizar esta determinado por
r(t) =
L
i=1
a
i
(t) s(t
i
) + n(t) .
2.5 Capacidad del Canal
Ya se ha discutido que H(X) dene el lmite fundamental de la tasa a la que una fuente discreta
puede ser codicada sin errores en su reconstrucci on, y tambien se comento en un principio de
que el canal posee su propio lmite fundamental para la transmisi on de informacion a traves de
el.
Evidentemente, el objetivo principal cuando se transmite informaci on sobre cualquier canal
de comunicaci on es la conanza, la que puede ser medida por la probabilidad de una recepcion
correcta en el receptor. Un resultado muy importante de la teora de la informacion, es que
las comunicaciones conables Se entiende por comunicaci on conable como aquella en que
la transmision se logra con una probabilidad de error inferior a un valor pre-establecido son
posibles sobre canales ruidosos, mientras la tasa de transmision sea menor que cierto valor,
llamado Capacidad del Canal. Este importante resultado, fue dado a conocer inicialmente
por Shannon (1948) y es conocido como el Noisy Channel Coding Theorem.
Este teorema
enuncia que la limitacion basica que el ruido provoca en un canal de comunicacion no es en la
conabilidad de la comunicacion, sino en la velocidad de dicha comunicacion.
Se denio anteriormente un canal discreto como un sistema con alfabeto de entrada X,
alfabeto de salida Y , y matriz de probabilidades de transici on P(Y[X), que expresa la proba-
bilidad de observar un smbolo y a la salida, dado que se envio un smbolo x. Un canal se dice
sin-memoria si la distribuci on de probabilidades de la salida depende solo de la entrada en ese
tiempo y es condicionalmente independiente de las entradas o salidas anteriores.
As, se dene la Capacidad del Canal de informaci on de un canal discreto y sin memoria
(DMC) mediante la relaci on:
C = max
p(x)
I(X; Y ) (2.11)
en donde el m aximo es tomado sobre todas las posibles distribuciones de la entrada p(x). Se
debe entender por esta denicion que corresponde al m aximo valor de la informaci on mutua, que
es la informaci on promedio m axima por smbolo que puede ser transmitido a traves del canal.
N otese entonces, que si la tasa de transmision, R, es menor que la capacidad del canal, C,
entonces la comunicaci on conable a una tasa R es posible; por otro lado, si R > C, entonces
una comunicaci on conable a una tasa R es imposible. Tanto la tasa como la capacidad se
miden en bits por transmision, o bits por uso del canal.
La maximizaci on que se debe hacer, es con respecto a las probabilidades de la fuente, puesto
que las probabilidades de transicion son jadas por el canal. Sin embargo, la capacidad de canal
es una funci on solamente de las probabilidades de transici on del canal, puesto que el proceso de
la maximizacion elimina la dependencia de sobre las probabilidades de la fuente.
35
CAP
ITULO 2. TEOR
IA DE LA INFORMACI
ON
Ejemplo 2.14 - Capacidad del Canal Binario.
Encuentre la capacidad del canal para un canal binario simetrico, en donde la probabilidad de
recepci on erronea es p y la probabilidad de que se envie un cero es .
Sol. Para calcular la capacidad del canal, se maximiza I(X; Y ) = H(Y )H(Y [X). La entropa
condicional est a determinada por H(Y [X) =
j
p(x
i
, y
j
) log p(y
j
[x
i
) = (1 p) log(1
p)(1)p log pp log p(1)(1p) log(1p) = H(p), considerando la denici on de H(p)
dada en el Ejemplo 2.4. As I(X; Y ) = H(Y ) H(p). Entonces, la informaci on mutua ser a
m axima cuando la entropa de Y sea m axima, caso que se d a para una distribucion uniforme de
los smbolos. En pocas palabras, H(Y ) 1, por lo que I(X; Y ) 1 H(p), y C = 1 H(p).
Considerando este ultimo ejemplo, los resultados obtenidos implican que si p = 0 o p = 1 la
salida del canal esta completamente determinado por la entrada, y la capacidad ser a de 1 bit
por smbolo. Por otro lado, si p = 0.5, un smbolo en la entrada nos lleva a cualquier salida con
igual probabilidad y la capacidad del canal es nula. Adem as, la probabilidad del error estar a
determinada por
P
E
=
i
p(x
i
, e) =
i
p(x
i
)p(e[x
i
) = [p(x
1
) + p(x
2
)]p = p
lo que establece que la probabilidad de error no condicional P
E
, es igual a la probabilidad de
error condicional p(y
j
[x
i
), i ,= j.
Ejemplo 2.15 - Capacidad del Canal DMC sin ruido.
Encuentre la Capacidad del Canal para un DMC sin ruido.
Sol. Para un canal sin memoria y sin ruido, las probabilidades de error son nulas, lo que equivale
a decir que la conexion es uno-a-uno entre las entradas y salidas. Luego p(x
i
[y
j
) = 0 i ,= j y por
lo mismo p(x
i
[y
j
) = 1 i = j. Considerando que H(X[Y ) =
N
i=1
N
j=1
p(x
i
, y
j
) log p(x
i
[y
j
),
se tiene que H(X[Y ) = 0. As, la informaci on mutua ser a I(X; Y ) = H(X)H(X[Y ) = H(X).
Para maximizar la entropa de la fuente, anteriormente se dijo que todos los smbolos de la fuente
deban ser equiprobables, entonces C = I
max
(X; Y ) = H
max
(X) =
N
i=1
1
N
log
1
N
= log N, en
donde N es el n umero de smbolos de la fuente.
2.5.1 Capacidad de Canal Gaussiano
La relaci on entrada-salida para un canal Gaussiano discreto con potencia limitada esta dada
por
Y = X + Z ,
en donde Z es una variable aleatoria Gaussiana de media cero y varianza
2
Z
. Shannon demostr o
que el n umero de mensajes que pueden ser conablemente transmitidos est a determinado por
la raz on que existe entre los vol umenes de hiperesferas, y llego al resultado que la capacidad del
canal Gaussiano est a determinada por
36
CAP
ITULO 2. TEOR
IA DE LA INFORMACI
ON
C = W log
_
1 +
P
N
0
W
_
bits/seg. , (2.12)
en donde W es el ancho de banda del canal, P es la potencia de la se nal y
N
0
2
es la densidad
espectral de potencia del ruido del canal.
37
Captulo 3
Modulacion en Banda Base
3.1 Introducci on
Como se menciono en el Captulo 1, la transmisi on de informacion es mejor realizarla en forma
digital que hacerlo de forma analoga, por lo que el transformar una se nal analoga en una digital
es un tarea de vital importancia en el curso. Para realizar esta tarea, se deben realizar tres
etapas: La se nal analoga debe ser muestreada en el tiempo, por lo que se genera una se nal de
tiempo discreto y amplitud continua. Se dice que la amplitud es continua pues su valor puede
tener cualquier n umero real dentro del rango en el que se mueve la se nal an aloga original. La
siguiente etapa corresponde a la cuantizaci on de estos valores reales a un n umero nito de
posibles valores, con el n de poder representarlos mediante n umeros binarios. Ambas etapas
fueron introducidas en el Captulo 1 de este curso.
La tercera etapa en el proceso de conversi on an alogo-digital es la codicacion, en donde
una secuencia de bits es asignada a cada uno de los diferentes valores posibles de la salida del
cuanticador, como se estudio en el Captulo 2. Dado que el n umero de salidas es nito, cada
muestra puede ser representada por un n umero nito de bits; por ejemplo 256 valores posibles
podran ser representados por 8 bits (256 = 2
8
), razon por la cual se utiliza un n umero de niveles
que sea potencia de dos. A continuaci on se retomar an los conceptos de muestreo, cuantizacion
y codicacion, ahondando mas en ellos y presentando alternativas que materializan esta labor.
3.2 Muestreo de Se nales
3.2.1 Recuperacion de Se nales Muestreadas
Si se considera que la se nal x(t) es de espectro acotado con ancho de banda W, y se elige la
frecuencia de muestro como f
s
= 2W, cada una de las replicas estar a separada de sus vecinas
por una banda de frecuencias ex actamente igual a f
s
[Hz], tal como se observa en la Fig. 1.4(f).
Resulta entonces evidente, que si la frecuencia de muestreo es f
s
< 2W, los espectros se
traslapar an y la reconstrucci on de la se nal original sera imposible. Esta distorsi on es conocida
como aliasing. Si se garantiza una frecuencia de muestreo superior al doble del ancho de banda,
este fen omeno no ocurre y la reconstrucci on de la se nal se puede realizar f acilmente con el ltro
apropiado, ya que las replicas espectrales se alejan entre s. Cuando se utiliza exactamente el
38
CAP
ITULO 3. MODULACI
ON EN BANDA BASE
doble del ancho de banda de la se nal, se dice que se trabaja con la Frecuencia de Muestreo
de Nyquist.
En efecto, para recuperar la se nal original, basta que el ltro tenga una respuesta dada por
H(f) =
_
T
s
, [ f [< W
0 , [ f [ f
s
W
(3.1)
Para el rango W [ f [< f
s
W, el ltro puede tener cualquier caracterstica que permita una
f acil implementacion, siendo un ltro pasabajos ideal el metodo menos pr actico en terminos de
simplicidad, pero el mas sencillo para realizar un estudio de desempe no. Entonces, considerese
que el ltro tiene una respuesta en frecuencia dada por
LPF(f) = T
s
_
f
2W
_
con W
< f
s
W. Ahora bien, la
reconstrucci on de la se nal se lograra tomando la convoluci on entre la se nal discreta y dicho ltro
en el tiempo, por lo tanto en el plano de la frecuencia se tiene,
X(f) = X
s
(f) T
s
_
f
2W
_
.
Tomando la transformada de Fourier inversa, se tiene:
x(t) = x
s
(t) 2W
T
s
sinc(2W
t) =
n=
2W
T
s
x(t) sinc(2W
(t nT
s
)) (3.2)
en d onde sinc(t) =
sin t
t
. La relaci on dada por la Ecuaci on (3.2), demuestra que la recon-
strucci on de la se nal puede ser perfectamente hecha al utilizar la funci on sinc() para la inter-
polaci on.
En sistemas pr acticos, el muestreo siempre se realiza a frecuencias superiores a la tasa de
Nyquist, lo que a su vez implica un dise no de ltro mucho mas relajado. En dichos casos la
distancia entre dos espectros replicados, que est a dada por (f
s
W)W = f
s
2W es conocida
como banda de guarda. Por lo tanto, en sistemas con banda de guarda, la frecuencia de
muestreo esta dada por f
s
= 2W +W
G
, en d onde W es el ancho de banda de la se nal de banda
limitada. Al observar la Fig. 1.4(f), se puede notar que para el ejemplo, la banda de guarda
ser a de W
G
= 70[Hz].
3.2.2 Errores en el Muestreo
De acuerdo a lo visto hasta ahora, una se nal x(t) puede ser perfectamente recuperada de sus
muestras siempre cuando esta sea de espectro acotado y se realice el muestreo a una tasa superior
al doble de su ancho de banda. Esto se conoce en la literatura con el nombre de Teorema del
Muestreo. El teorema del muestreo es llamado tambien Teorema de Shannon o Teorema de
Kotelnikov, y su demostraci on m as simple es la realizada en la secci on anterior mediante la
utilizaci on de la transformada de Fourier de la se nal muestreada.
39
CAP
ITULO 3. MODULACI
ON EN BANDA BASE
En la practica, el muestreo tiene tres grandes fuentes de errores: redondeo, truncamiento y
aliasing. Los errores de redondeo ocurren cuando varios valores de muestras son redondeados
en un sistema de comunicaci on. Este error recibe el nombre formal de ruido de cuantizacion y
se estudiar a con mas detalle en los pr oximos captulos. El teorema del muestreo requiere que
las muestras sean tomadas durante un tiempo innito, por lo que cada una de estas muestras es
utilizada para la reconstruccion de cualquier valor de la se nal en cualquier instante de tiempo.
Sin embargo, en sistemas reales las se nales son observadas durante un intervalo nito de tiempo,
apareciendo el error de truncamiento; para realizar un an alisis de este error, normalmente se
dene un funcional de error como la diferencia entre la se nal reconstruda y la se nal original,
permitiendo denir cotas superiores en el error y como consecuencia, intervalos de tiempo de
observacion mnimos requeridos.
Un tercer error ocurre cuando la frecuencia de muestreo no es lo sucientemente alta. Este
recibe el nombre tecnico de aliasing y como se explico anteriormente corresponde al traslape
que existe en los espectros de la se nal original y sus replicas originadas por el muestreo. Existen
principalmente dos formas de solucionar este problema. La primera es aumentar la frecuencia de
muestreo a un valor muy por encima de la frecuencia de Nyquist con el n de alejar lo suciente
cada una de las replicas del espectro original. Como ejemplo observe la Fig. 3.1; si al muestrear
a f
s
se produce aliasing, al aumentar la frecuencia de muestreo a f
s
> f
s
entonces las replicas
se alejaran lo suciente para eliminar el problema.
Fig. 3.1: Soluci on inmediata al aliasing mediante el muestreo a frecuencias superiores
Otra soluci on es incluir un ltro antialiasing cuando la frecuencia de muestreo no se puede
modicar por alguna raz on puntual como, por ejemplo, disponibilidad tecnica. La primera
forma es realizar un preltrado para reducir el ancho de banda de la se nal original de W a
W
. Esta es una
buena pr actica de ingeniera, sin embargo, dependiendo de las caractersticas de la se nal original,
puede haber perdida importante de informaci on. Esta solucion se representa en la Fig. 3.2 en
donde la linea segmentada corresponde a la se nal original y su espectro muestreado sin realizar
el preltrado. La otra forma de implementar un ltro es realizando un postltrado en el cual se
realiza el muestreo a la tasa disponible y luego se ltra el espectro en W
ITULO 3. MODULACI
ON EN BANDA BASE
Fig. 3.2: Filtrado de la se nal original para eliminar el aliasing. Se nal continua y muestrada
luego del muestreo
Fig. 3.3: Filtrado de la se nal muestreada para eliminar el aliasing.
41
CAP
ITULO 3. MODULACI
ON EN BANDA BASE
3.2.3 Muestreo Natural
A pesar que el muestreo instantaneo mediante impulsos es un modelo conveniente para entender
el concepto, una forma m as pr actica de implementaci on es mediante la multiplicaci on de la se nal
an aloga x(t) por un tren de pulsos x
p
(t), mostrada en la Fig. 3.4(a). Cada pulso en x
p
(t) tiene un
ancho T
p
, una amplitud 1/T
p
y evidentemente su duraci on total es T
s
. Esta multiplicaci on puede
ser vista como el proceso de apertura/cerrado de un switch. La se nal muestreada resultante
x
s
(t) se muestra en la Fig. 3.4(c) y se puede expresar mediante la relaci on
x
s
(t) = x(t) x
p
(t) . (3.3)
Ac a se habla de muestreo natural pues cada pulso mantiene la forma de su segmento analogo
correspondiente durante el intervalo de duracion de cada uno de los pulsos. Utilizando series de
Fourier, el tren de pulsos se puede representar mediante
x
p
(t) =
n=
x
n
e
jnst
,
en d onde
s
= 2f
s
, siendo f
s
= 1/T
s
la frecuencia de muestreo que se elige igual a 2W para
satisfacer el criterio de Nyquist. Los coecientes de Fourier, x
n
, estaran determinados por
x
n
=
1
Ts
sinc
_
nTp
Ts
_
. Su representaci on en el plano de la frecuencia se puede ver en la Fig. 3.4(b)
en donde se ha marcado la envolvente de magnitud con una lnea segmentada (funci on [sinc()[).
Combinando esta expansion en series de Fourier con la denicion de x
s
(t) se tiene
x
s
(t) = x(t) x
p
(t) = x(t)
n=
x
n
e
jnst
.
Tomando la transformada de Fourier a esta ultima denici on, el espectro de la se nal muestrada
en forma natural, X
s
(f), se puede calcular mediante
X
s
(f) = F
_
x(t)
n=
x
n
e
jnst
_
=
n=
x
n
F
_
x(t) e
jnst
n=
x
n
X(f nf
s
) , (3.4)
en donde se utiliz o el hecho de que, para sistemas lineales, se puede intercambiar las operaciones
de suma y transformada de Fourier. Al igual que la Ecuaci on (1.28), la Ecuaci on (3.4) demuestra
que X
s
(f) es un replica de X(f) repetida peri odicamente cada f
s
[Hz]. Sin embargo al realizar
el muestreo natural, las amplitudes est an atenuadas por la envolvente x
n
=
1
Ts
sinc
_
nTp
Ts
_
como
se observa en la Fig. 3.4(d). Se puede demostrar que en el lmite, mientras el ancho del pulso T
p
tiende a cero, x
n
tiende a 1/T
s
para todos los valores posibles de n, por lo tanto la Ecuacion (3.4)
tiende a la Ecuaci on (1.28).
42
CAP
ITULO 3. MODULACI
ON EN BANDA BASE
(a) Tren de Pulsos (b) Espectro Tren de Pulsos
(c) Se nal Muestreada (d) Espectro Se nal Muestreada
Fig. 3.4: Muestreo natural de se nal an aloga mediante tren de pulsos
3.2.4 Sample-and-Hold
El m as simple y m as popular metodo de muestreo y cuantizacion conocido como Sample-and-
Hold (muestreo y retencion) puede ser descrito mediante la convoluci on de la se nal muestreda
dada en la Fig. 1.4(e) con un pulso rectangular de amplitud unitaria y ancho de pulso T
s
, p(t).
Esta convoluci on en el tiempo se puede expresar de la forma
x
sh
(t) = p(t) x
s
(t) = p(t) [x(t)x
(t)]
= p(t)
_
x(t)
n=
(t nT
s
)
_
.
Estos resultados se puden observar en la Fig. 3.5(a). La transformada de Fourier de la se nal S/H
se ve afectada por la presencia del pulso p(t) y su transformada de Fourier dada por T
s
sinc(fT
s
).
As, el espectro resultante tiene una apariencia similar al espectro del muestreo natural, tal como
se puede observar en la Fig. 3.5(b).
43
CAP
ITULO 3. MODULACI
ON EN BANDA BASE
(a) Operacion Sample-and-Hold (b) Espectro se nal Sample-and-Hold
Fig. 3.5: Sample-and-Hold para la se nal an aloga
3.3 Cuantizaci on
Como se explico anteriormente, en este proceso se realiza la discretizaci on de la amplitud de las
se nales, lo que permite representar la se nal de forma valida con valores binarios de largo nito.
En la presente secci on se estudiara la cuantizaci on escalar uniforme y no-uniforme, adem as de
la cuantizaci on vectorial.
3.3.1 Cuantizaci on Escalar
En la cuantizacion escalar cada muestra es cuanticada como un valor puntual dentro de un
rango nito de valores posibles, lo que se traduce en una acci on de redondeo de las cifras.
Para esto, el espacio de n umeros reales 1 se particiona en M subconjuntos denotados por
R
m
, 1 m M que se llamar an Regiones de Cuantizacion. Asociado a cada subset R
m
, un
Punto de Representacion x
m
es elegido, vale decir que para el instante k, si la muestra x(k)
pertenece a R
m
, entonces es redondeado al valor x
m
.
Dado que se tienen M posibles valores de cuantizaci on, entonces se requieren log
2
M bits
para poder hacer la codicaci on en secuencias binarias. De igual forma, el n umero de bits que
se requieren para transmitir cada muestra de la fuente, sera: v = log
2
M bits.
Resulta facil notar que al incluir estos redondeos, la se nal resultante tiene cierta distorsi on
con respecto a la se nal original, tal como se discuti o anteriormente. Este error recibe el nombre
de error de cuantizacion. Para su descripci on, es necesario considerar la funcion de cuantizaci on
denida por
Q(x) = x
i
, x R
i
,
que resume el hecho de que si el valor a cuantizar, x, cae dentro de la i-esima regi on R
i
=
(a
i1
, a
i
], entonces se aproximar a (redondear a) por el valor x
i
. En general, al denir un error
se considera la diferencia cuadr atica entre una referencia y el valor bajo estudio que para este
caso est an dados por el valor sin cuantizar y cuantizado respectivamente. Por esto, el error, que
44
CAP
ITULO 3. MODULACI
ON EN BANDA BASE
recibe el nombre de error cuadratico de distorsion, esta denido por
d(x
i
, x
i
) = (x
i
x
i
)
2
. (3.5)
Considerando que d(x
i
, x
i
) es la distorsi on medida por letra, entonces la distorsi on entre una
secuencia de n muestras, X
n
, y sus correspondientes n muestras cuantizadas,
X
n
, est a deter-
minada por el promedio sobre las n muestras de las salidas de la fuente, es decir,
d(X
n
,
X
n
) =
1
n
n
i=1
d(x
i
, x
i
) .
Dado que las salidas de la fuente, X
n
, son variables aleatorias, entonces d(X
n
,
X
n
) tambien
es una variable aleatoria. As, para tener una cantidad representativa para todas las posibles sal-
idas es necesario especicar el error cuadratico de distorsion medio. Este error esta determinado
por
D = E
_
d(X
n
,
X
n
)
_
=
1
n
n
k=1
Ed(x
k
, x
k
) = Ed(x
k
, x
k
) . (3.6)
lo que es v alido al considerar que se trabaja con una fuente estacionaria.
En la Figura 3.6 se puede ver un ejemplo de un esquema de cuantizacion de 8 niveles, en
los cuales la variable x es seccionada en sus respectivas aproximaciones x
1
, x
2
, . . . , x
8
, para los
subintervalos dados por R
1
= (, a
1
], R
2
= (a
1
, a
2
], . . . , R
8
= (a
7
, +) respectivamente. No
resulta dicil notar que este gr aco corresponde a la representaci on de la funci on de cuantizacion
Q(x).
Ejemplo 3.1 - Error de Distorsion.
Considere una fuente X(t), Gaussiana, con media cero, estacionaria y con una PSD dada por:
X
(f) =
_
2 , [ f [< 100Hz
0 , i.o.c.
Esta fuente es muestrada a la frecuencia de Nyquist y que cada muestra est a cuantizada
usando un cuantizador de ocho niveles como en la Figura 3.6. Los niveles utilizados son
a
i
60, 40, 20, 0, 20, 40, 60, que se redondean a x
i
70, 50, 30, 10, 10, 30, 50, 70.
Se pide calcular la distorsion y tasa resultante.
Sol. Dado el ancho de banda de la fuente, su frecuencia de muestreo sera f
s
= 2W = 200Hz
para satisfacer la condicion de muestreo a la frecuencia de Nyquist. Considerando entonces
un cuantizador de 8 niveles, entonces se requieren 3 bits para realizar la descripci on de cada
muestra. As, la tasa estar a dada por R = 3f
s
= 600 bits/s. La varianza de la fuente es
2
X
=
EX
2
= R(0) =
_
+
X
(f)df =
_
100
100
2df = 400, ya que es un proceso con media cero. Esto
permite denir la funci on de distribuci on de probabilidad dada por f
X
(x) =
1
2400
exp(
x
2
800
),
pues es una fuente Gaussiana. Ahora bien, la distorsi on estar a dada por:
D = E
_
(X
X)
2
_
=
_
+
(x Q(x))
2
f
X
(x) dx =
8
i=1
_
R
i
(x Q(x))
2
f
X
(x) dx
=
_
a
1
(x x
1
)
2
f
X
(x) dx +
_
a
2
a
1
(x x
2
)
2
f
X
(x) dx + +
_
+
a
7
(x x
8
)
2
f
X
(x) dx.
45
CAP
ITULO 3. MODULACI
ON EN BANDA BASE
Fig. 3.6: Ejemplo de un esquema de cuantizacion de 8 niveles
Reemplazando los valores de a
i
, x
i
y utilizando la denici on de f
X
(x) se obtiene que D
33.345.
Es muy interesante comparar el resultado anterior con la distorsi on m axima que se podra
obtener en el mismo sistema. Dicha distorsion maxima se logra al no utilizar ning un bit por
cada salida de la fuente, caso en el cual la se nal reconstruida ser a siempre cero. As, la maxima
distorsi on ser a D
max
= E(X 0)
2
= EX
2
=
2
X
= 400. Este ultimo resultado permite
deducir que al utilizar 3 bits por salida de la fuente, la distorsi on se ha reducido en un factor
de 12.
A pesar de lo descriptivo del error de cuantizacion, existe una metrica m as exacta pues
est a normalizada con respecto a la potencia de la se nal original. Recibe el nombre de Raz on
Se nal-Ruido de Cuantizacion (SQNR, Signal-to-Quantization Noise Ratio) y se basa en
la comparacion anteriormente hecha con respecto a la distorsion maxima. Esta metrica esta
denida por:
SQNR =
EX
2
E(X Q(X))
2
. (3.7)
Cabe destacar que considerando las deniciones de potencia de la se nal original y de la cuanti-
zada, el SQNR est a determinado por la raz on entre la potencia de la se nal (P
X
) y la potencia
de la se nal obtenida al realizar la diferencia entre la se nal original y la cuantizada (P
X
), con
X = X
X.
46
CAP
ITULO 3. MODULACI
ON EN BANDA BASE
Ejemplo 3.2 - Razon Se nal-Ruido de Cuantizaci on.
Determine el SQNR para el esquema de cuantizaci on utilizado en el Ejemplo 3.1.
Sol. Se determin o previamente que P
X
=
_
X
(f) df = 400. Ademas la potencia del ruido de
cuantizaci on est a dado por P
X
= 33.345, entonces SQNR = 400/33.345 = 11.995 10.79dB.
Cuantizaci on Uniforme
La cuantizacion uniforme es la mas simple de todas las tecnicas de cuantizacion ya que todas
las particiones, excepto R
1
y R
M
, estan equidistante en un valor denotado por , por lo que el
i-esimo borde estara dado por a
i
= a
1
+ (i 1). En general y por simplicidad, se asume que
los niveles de cuantizacion se encuentran a una distancia de
2
de los M 1 bordes, luego los
niveles de cuantizaci on estan dados por x
i
= a
i
2
= a
1
+ (i
3
2
). Se puede notar que la
Figura 3.6 muestra un ejemplo de un cuantizador uniforme ya que cumple las condiciones recien
expuestas. En un cuantizador uniforme, el error de distorsi on medio est a determinado por
D =
M
i=1
_
R
i
[x Q(x)]
2
f
X
(x) dx
=
_
a
1
[x x
1
]
2
f
X
(x) dx +
M2
i=1
_
a
i+1
a
i
[x x
i+1
]
2
f
X
(x) dx +
_
a
M
[x x
M
]
2
f
X
(x) dx
=
_
a
1
_
x
_
a
1
2
__
2
f
X
(x) dx +
M2
i=1
_
a
1
+i
a
1
+(i1)
_
x
_
a
1
+ i
2
__
2
f
X
(x) dx +
_
a
1
+(M2)
_
x
_
a
1
+ (M 2) +
2
__
2
f
X
(x) dx . (3.8)
Conforme a esto, el error de distorsi on ser a una funci on de dos parametros a
1
y , por lo
que para obtener un dise no optimo del cuantizador uniforme se debe minimizar este funcional
D D(a
1
, ). La minimizaci on se realiza tomando derivadas parciales del funcional con
respecto a ambas variables e igualando a cero. En general esta es una tarea compleja por lo que
se realiza mediante metodos n umericos. En la Tabla 3.1 se muestra el espaciado optimo de los
niveles de cuantizaci on para una fuente aleatoria Gaussiana con media nula y varianza unitaria.
Cuantizaci on No-uniforme
Si se relaja la condici on de que la separacion sea igual para todas las regiones, entonces se logra
minimizar la distorsion con menos apremios. As, el cuantizador no-uniforme tiene un mejor
rendimiento que el uniforme para un mismo n umero de niveles. Primero que todo, se ver a
intuitivamente el porque.
Suponga una pieza musical en donde su forma de onda se mueve en un rango de voltajes de
-2 a 2[V]. Suponga ademas que se utilizan 3 bits en la cuantizaci on de dicha se nal an aloga. Si
se realiza cuantizacion uniforme, entonces todos los voltajes entre 0 y 0.5[V] ser an codicados
como 100, que corresponde a un valor de reconstrucci on de 0.25[V]. De igual forma, todas las
47
CAP
ITULO 3. MODULACI
ON EN BANDA BASE
Tabla 3.1: Cuantizador Uniforme
Optimo para una fuente Gaussiana
Niveles de Cuantizaci on Espaciado entre bordes Error medio cuadratico Entropa
M D H(
X)
1 1.000 0.0
2 1.596 0.3634 1.000
4 0.9957 0.1188 1.904
8 0.5860 0.03744 2.761
16 0.3352 0.01154 3.602
32 0.1881 0.003490 4.449
muestras entre 1.5 y 2[V] se codicar an como 111, que se reconstruir a como 1.75[V]. Ahora
bien, durante pasajes suaves de m usica en donde la se nal an aloga no supere los 0.5[V], se tendra
una gran perdida de la denicion de la m usica. En otras palabras, la cuantizacion otorga la
misma resolucion tanto para altos como para bajos niveles, aun cuando el oido humano es
menos sensible a los cambios que se producen en altos niveles. Dado que la respuesta del oido
humano es no-lineal, entonces es preferible tener una cuantizaci on de pasos peque nos a bajos
niveles y con pasos m as grandes en los niveles m as altos.
Considerando que se quiere dise nar un cuantizador de M niveles, optimo en el sentido del
error medio cuadratico, se tiene que la distorsion media es:
D =
_
a
1
(x x
1
)
2
f
X
(x) dx +
M2
i=1
_
a
i+1
a
i
(x x
i+1
)
2
f
X
(x) dx +
_
+
a
M1
(x x
M
)
2
f
X
(x) dx ,
en donde existen 2M 1 variables de las que D depende: (a
1
, a
2
, . . . , a
M1
, x
1
, x
2
, . . . , x
M
) y la
minimizaci on del error D se tiene que hacer con respcto a estas variables. Tomando derivadas
parciales con respecto a todos los a
i
e igualando a cero, se tiene
D
a
i
= f
X
(a
i
)
_
(a
i
x
i
)
2
(a
i
x
i+1
)
2
= 0
lo que resulta en
a
i
=
x
i
+ x
i+1
2
(3.9)
Este resultado signica que en un cuantizador optimo los bordes de las regiones de cuanti-
zacion son los puntos medio de los niveles de cuantizacion. Dado que la cuantizaci on se realiza
bas andose en una mnima distancia entonces cada valor de x es cuantizado al x
i
M
i=1
m as
cercano.
Para determinar los niveles de cuantizaci on x
i
, se toman derivadas parciales con respecto a
todos los x
i
, se denen a
0
= y a
M
= + y se iguala a cero para obtener
D
a
i
=
_
a
i
a
i1
2(x x
i
)f
X
(x) dx = 0
lo que resulta en
x
i
=
_
a
i
a
i1
xf
X
(x) dx
_
a
i
a
i1
f
X
(x) dx
. (3.10)
48
CAP
ITULO 3. MODULACI
ON EN BANDA BASE
Esto signica que para un cuantizador optimo, el valor de cuantizacion para una region, debe
ser elegido como el centroide de dicha region. Ambas condiciones impuestas para el cuantizador
escalar optimo se conocen como las condiciones de Lloyd-Max y pueden ser resumidas como
1. Los bordes de las regiones de cuantizaci on son los puntos medios de los valores de cuan-
tizaci on correspondientes (ley del vecino mas cercano)
2. Los valores de cuantizaci on son los centroides de las regiones de cuantizacion.
A pesar de que estas reglas son muy sencillas, no resultan ser soluciones analticas para
el dise no de un cuantizador optimo. El metodo usual para dise nar un cuantizador optimo es
comenzar con un set de regiones de cuantizacion y luego usar el segundo criterio para encontrar
los valores de cuantizaci on. Luego se realiza el calculo de las nuevas regiones de cuantizacion
para los valores antes encontrados y se procede repetidamente haste que la distorsion no cambie
signicativamente entre un paso y otro. Utilizando este metodo se puede dise nar el cuantizador
no-uniforme optimo para diferentes fuentes aleatorias. La Tabla 3.2 muestra el cuantizador
nouniforme optimo para varios niveles de cuantizaci on de una fuente Gaussiana de media cero y
varianza unitaria. En caso de trabajar con con una fuente Gaussiana con media y varianza
2
entonces los valores de a
i
y de x
i
deben ser reemplazados por +a
i
y + x
i
respectivamente
y el valor del error de distorsion medio, D, debe ser reemplazado por
2
D.
Tabla 3.2: Cuantizador No-uniforme
Optimo para una fuente Gaussiana
Niveles Bordes Valores Distorsion Entropa
M a
i
x
i
D H(
X)
1 0 1 0
2 0 0.7980 0.3634 1
4
0 0.4528
0.1175 1.911
0.9816 1.510
8
0 0.2451
0.03454 2.825
0.5006 0.7560
1.050 1.344
1.748 2.152
16
0 0.1284
0.009497 3.765
0.2582 0.3881
0.5224 0.6568
0.7996 0.9424
1.099 1.256
1.437 1.618
1.844 2.069
2.401 2.733
En general, la cuantizaci on no uniforme presenta menor error de distorsi on principalmente
por que las regiones no son estrictas y se pueden adecuar mejor a las aplicaciones particulares
que exige cada se nal. En la Fig. 3.7 se muestra la comparacion entre una se nal debil y una
fuerte, utilizando para ambas las dos opciones de cuantizaci on; a la izquierda se usa cuantizaci on
49
CAP
ITULO 3. MODULACI
ON EN BANDA BASE
uniforme y a la derecha no-uniforme. Se puede observar que para ambas se nales, se logra una
mejor aproximaci on mediante la cuantizaci on nouniforme. Por esta razon, se estudia el concepto
de Companding en la siguiente secci on.
Fig. 3.7: Comparaci on entre Cuantizacion Uniforme y No-uniforme
Ejemplo 3.3 - Cuantizaci on No-uniforme.
Bas andose en el resultado del Ejemplo 3.1, se pide estudiar el SQNR al utilizar un cuantizador
no-uniforme para la misma fuente Gaussiana.
Sol. Para realizar la comparaci on se utilizaran los mismos niveles de cuantizaci on (M = 8) en
la Tabla 3.2. Como la fuente es Gaussiana y se obtuvo anteriormente que = 0 y
2
= 400,
entonces los valores de a
i
y x
i
se deberan multiplicar por = 20 y la distorsion debe multiplicarse
por 400. As los valores obtenidos seran: a
1
= a
7
= 34.96; a
2
= a
6
= 21; a
3
= a
5
=
10.012; y a
4
= 0 para los bordes de las regiones, y x
1
= x
8
= 43.04; x
2
= x
7
= 26.88;
x
3
= x
6
= 15.12; y x
4
= x
5
= 4.902 para los valores de cuantizaci on. La distorsi on ser a
D = 13.816 lo que es signicativamente menor a lo obtenido para el cuantizador uniforme. El
SQNR sera
SQNR =
2
D
=
400
13.816
= 28.95 14.62dB ,
que es 3.84 dB mejor que el SQNR de un cuantizador uniforme.
Companding
La forma mas com un de realizar cuantizacion no-uniforme es conocida como companding, nom-
bre que se origina por la combinaci on de los terminos comprensi on-expansi on en ingles. Su
50
CAP
ITULO 3. MODULACI
ON EN BANDA BASE
funcionamiento se puede ejemplicar como la conexi on en cascada de un amplicador de com-
presion, F(x) y un cuantizador; para la recuperaci on se tendr a un decodicador y un ampli-
cador de expansion, F
1
(x). Se entender a entonces que la se nal original es comprimida usando
un dispositvo no-lineal y sin memoria. As, antes de realizar la cuantizaci on, la se nal se distor-
ciona por una funci on similar a la que se muestra en la Fig. 3.8. Esta operacion comprime los
valores extremos de la forma de onda, mientras que mejora los valores peque nos en el mismo
sistema de ejes. Ahora, si la se nal analoga comprimida es cuantizada en forma uniforme, el
resultado es equivalente a cuantizar con peque nos pasos en valores bajos de la se nal y pasos
m as grandes para los valores superiores.
Fig. 3.8: Curva tpica de compresi on
La principal aplicacion de companding se da en la transmision de se nales de voz o audio
en general. Como antecedente, se deja constancia de que el sistema Dolby Noise Reduction
corresponde a una implementacion de esta tecnica. En USA y Jap on se adopto como est andar
de compresion la llamada ley-, en cambio en Europa se utiliz o el est andar conocido como ley-A.
La formula de compresi on de la ley- est a determinada por
F(x) = sgn(x)
ln(1 + [x[)
ln(1 + )
, (3.11)
y su curva para distintos valores de se muestra en la Fig. 3.9. Notese que el valor de = 0
corresponde a una situacion sin compresi on. Un valor utilizado con frecuencia es el de = 255
(8 bits) ya que presenta una alta compresion, sin embargo la aplicabilidad dependera de las
condiciones de contorno jadas por la se nal a tratar.
Por su parte, la formula de compresi on de la ley-A est a determinada por
F(x) = sgn(x)
1
1 + lnA
_
A [x[ , [x[ <
1
A
1 + ln(A [x[) ,
1
A
[x[ 1
, (3.12)
en donde A es el parametro de compresi on. En Europa es frecuente utilizar A = 87.7 como
est andar de compresi on.
51
CAP
ITULO 3. MODULACI
ON EN BANDA BASE
Fig. 3.9: Curva de Compresion de la Ley-
3.3.2 Cuantizaci on Vectorial
En el proceso de cuantizaci on escalar, se toma cada una de las salidas de la fuente en tiempo
discreto y se cuantiza en forma separada. En esta seccion se estudiara la cuantizaci on conjunta
de un bloque de muestras que recibe el nombre de cuantizacion vectorial o por bloque y que
es ampliamente utilizada en codicaci on de la voz para sistemas de celulares digitales. Uno de
los puntos m as importantes a considerar, es que la cuantizacion vectorial, en general, presenta
mejor desempe no que la cuantizaci on escalar aun c uando la fuente de amplitud continua no
posea memoria. Adem as, si por alguna raz on las muestras son estadsticamente dependientes,
al utilizar cuantizaci on vectorial se puede aprovechar dicha condici on; lo que equivale a decir
que al cuantizar un conjunto de muestras se lograr a una mejor eciencia (menor tasa de bits)
que al hacerlo en forma independiente mediante cuantizacion escalar
La cuantizaci on vectorial puede ser formulada como sigue. Considerese que el espacio m-
dimensional se subdivide en M regiones o celdas distintas que se notaran por C
i
. Considerese
tambien un vector m-dimensional de dicho espacio x = [x
1
x
2
. . . x
m
] con componentes reales
y de amplitud continua. Este vector representa uno de los bloques de salida de la fuente y
est a decrito por la PDF conjunta p(x
1
, x
2
, . . . , x
m
). El vector x es cuantizado en otro vector
m-dimensional denotado por x = [ x
1
x
2
. . . x
m
] bajo la condici on de que si x C
i
, entonces
es cuantizado en Q(x) = x
i
. B asicamente la cuantizaci on vectorial puede ser vista como un
problema de reconocimiento de patrones, que involucra la clasicacion de bloques de datos en
un n umero discreto de categoras (celdas), con el n de optimizar alg un criterio de calidad (error
de distorsion cuadr atico medio).
Por ejemplo, considere la cuantizaci on de vectores bidimensionales x = [x
1
x
2
]. El espacio
de dos dimensiones es particionado en celdas como se muestra en la Fig. 3.10, en donde se
eligi o arbitrariamente una forma hexagonal para las celdas C
i
. Todos los vectores de entrada
que caigan dentro de la i-esima celda C
i
ser an cuantizados en el vector x
i
que en la gura se
52
CAP
ITULO 3. MODULACI
ON EN BANDA BASE
Fig. 3.10: Cuantizaci on vectorial para espacio bidimensional
representan como el centro de cada hex agono. En este ejemplo existen L = 37 vectores, uno
para cada una de las 37 celdas en que se ha particionado el espacio bidimensional, por lo que
las posibles salidas del cuantizador vectorial se representan por x
i
L
i=1
.
Conforme a lo explicado anteriormente y lo estudiado para cuantizaci on escalar, la cuanti-
zaci on de un vector m-dimensional x en otro x generar a un error de cuantizacion d(x, x) cuyo
valor medio sobre el set de vectores de entrada x ser a:
D =
L
i=1
P(x C
i
)Ed(x, x
i
)[x C
i
=
L
i=1
P(x C
i
)
_
xC
i
d(x, x
i
)p(x) dx , (3.13)
en donde P(x C
i
) es la probabilidad de que el vector x caiga en la celda C
i
y p(x) es la PDF
conjunta que dene las m variables aleatorias anteriormente descrita. Tal como se realiz o para
cuantizaci on escalar, para una PDF dada se puede realizar la minimizaci on de D seleccionando
las celdas x
i
L
i=1
.
Una medida de distorsi on com unmente utilizada es el error medio cuadratico con norma 2
denido por
d
2
(x, x) =
1
m
(x x)
T
(x x) =
1
m
m
i=1
(x
i
x
i
)
2
,
o, mas generalmente, el error medio cuadratico ponderado
d
2W
(x, x) = (x x)
T
W(x x)
en donde W es una matriz de ponderacion denida positiva. Usualmente W se elige como la
inversa de la matriz de covarianza del vector de datos de entrada x. En la codicacion de la
voz, una medida apropiada para la distorsion fue propuesta por Itakura y Satio (1968, 1975) y
corresponde a elegir la matriz de ponderacion como la matriz de autocorrelacion normalizada
de los datos observados.
53
CAP
ITULO 3. MODULACI
ON EN BANDA BASE
3.4 Codicacion
El proceso de codicaci on o encoding, corresponde a la asignacion de una secuencia de bits a
los diferentes niveles de cuantizaci on. Dado que se tiene un total de M = 2
v
niveles, entonces v
bits son sucientes para el proceso de encoding. Basado en lo mismo, como se tienen v bits por
muestra, que se tomo a un frecuencia de muestreo de f
s
[Hz], entonces la tasa de bits esta dada
por R = vf
s
bits por segundo, tal como se obtuvo en el Ejemplo 3.1.
La asignaci on de bits a los niveles de cuantizaci on puede ser realizada de diferentes maneras.
En cuantizacion escalar, una forma natural de realizar el encoding, es asignando valores de 0 a
M 1 a los diferentes niveles de cuantizaci on comenzando desde el nivel m as bajo hacia el m as
alto de manera creciente. Esto implica que el nivel mas bajo tendr a el valor 00. . . 0 y el mas
alto de 11. . . 1, ambos de largo v. Esta asignacion, recibe el nombre de Codicacion Binaria
Natural. A pesar de ello existen tecnicas mejoradas como la Codicacion Grey, que se estudi o
en cursos anteriores.
3.5 Fuentes de Corrupcion
Hasta ahora, se ha centrado el estudio en la se nal analoga que se muestrea, cuantiza y codica
para ser transmitida mediante el canal digital. De la secuencia de bits recibidos, se generara
una se nal an aloga tipo escalera que corresponde a la se nal recuperada en el receptor. Esta
se nal recuperada puede estar corrupta por m ultiples fuentes presentes tanto en el proceso de
muestreo-cuantizacion, como en el canal por el que la secuencia de bits fue transmitida. A
continuacion se presentan los efectos mas importantes.
3.5.1 Efectos del Muestreo y la Cuantizaci on
Aparte de los problemas que se estudiaron en la Seccion 3.2.2, existen errores asociados al
cuantizador, que se mencionaran a continuaci on.
Ruido de Cuantizaci on
La distorsi on inherente en la cuantizaci on es el error de redondeo o truncamiento. El proceso
de transformar una se nal de amplitud continua en una se nal con un n umero nito de posibles
valores hace que cierta informaci on se deseche. Esta distorsi on, que en denitiva es agregada
por la necesidad de trabajar con amplitud discreta, recibe el nombre de Ruido de Cuantizacion,
como se ha estudiado hasta ahora. Resulta intuitivo notar que la cantidad de este ruido es
inversamente proporcional al n umero de niveles utilizados en el proceso de cuantizaci on.
Saturaci on del Cuantizador
El cuantizador asigna M niveles a la tarea de aproximar el rango continuo de entradas con un
n umero nito de salidas. El rango de entradas para los cuales la diferencia entre la entrada y la
salida del cuantizador es peque na, recibe el nombre de rango de operacion de dicho cuantizador.
Si la entrada excede tal rango, la diferencia entre la entrada y la salida crecera y el convertidor
54
CAP
ITULO 3. MODULACI
ON EN BANDA BASE
an alogo-digital estar a en saturacion. En general los errores de saturacion son m as problematicos
que el ruido de cuantizaci on, por lo que preferentemente se utiliza un control de autom atico de
ganancia (AGC, en ingles) que extiende efectivamente el rango de operacion del convertidor.
3.5.2 Efectos del Canal
Ruido del Canal
El ruido termico, la interferencia desde otros usuarios y la interferencia desde un circuito de
switching pueden producir errores en la detecci on de los pulsos que llevan las muestras digital-
izadas, como se observa en la Fig. 3.11. Los errores introducidos por el canal, que reciben el
nombre de efecto umbral, pueden degradar la calidad de la se nal reconstruda muy r apido.
Fig. 3.11: Distorsi on de un pulso al transmitirlo por un canal ruidoso
Si el ruido del canal es peque no no habran problemas al momento de detectar las se nales, sin
embargo si el ruido del canal es tan grande para afectar la habilidad de detectar las formas de
onda, la detecci on resultante tendr a errores de reconstrucci on. M as aun, por peque nos cambios
en los niveles de ruido de un canal, se pueden tener grandes diferencias en el comportamiento
de dicho canal.
Interferencia entre Smbolos
El canal siempre es de banda limitada por lo que dispersa o extiende a los pulsos que pasan
a traves de el. Cuando el ancho de banda del canal es mucho m as grande que el del pulso,
entonces la extensi on del pulso es leve; sin embargo cuando ambos ancho de banda son cercanos,
la extensi on sobrepasara la duraci on de los smbolos y hara que los pulsos se traslapen. Este
traslape es llamado interferencia entre smbolos (ISI, en ingles). Como cualquier otra fuente
de interferencia la ISI produce degradacion del sistema (altas tasas de error), pero resulta muy
caracterstica pues el aumentar la potencia de la se nal no mejorar a el desempe no frente al error.
La forma en que se maneja las ISI se ver a m as adelante.
3.6 Pulse-Amplitude Modulation (PAM)
En la modulacion de amplitud de pulso (PAM, pulse-amplitude modulation), la amplitud de
un tren de pulsos de ancho constante vara en proporci on a los valores muestreados de una
se nal moduladora. En general, los pulsos se toman en intervalos de tiempo equidistantes. En
primera instancia se considera la se nal naturalmente muestrada (sin S/H) como lo muestra la
Fig. 3.4(c). Resulta evidente que esta se nal no es compatible con un canal digital pues existen
55
CAP
ITULO 3. MODULACI
ON EN BANDA BASE
innitos valores posibles para la amplitud de los pulsos, ya que varan proporcionalmente a
los valores de las muestras de la se nal moduladora. De manera especca, las pendientes de
las crestas de los pulsos varan con las pendientes de la se nal moduladora en los puntos de
muestreo. A diferencia del muestreo natural, en PAM las crestas de los pulsos deben ser planas;
esto mismo implica que se requiere inclur un proceso de cuantizacion posterior para llevar estos
valores a M valores posibles de amplitud que se puedan representar por v = log M bits. Por
ejemplo, se habla de una modulacion PAM-4 al trabajar con 2 bits, y de PAM-16 al trabajar
con 4 bits, etc.
Todo el analisis te orico realizado para el proceso de muestreo natural y para S/H resulta
aplicable en modulaci on PAM, por lo que su espectro corresponde al de la Fig. 3.4(d) para una
se nal naturalmente muestreada o al de la Fig. 3.5(b) para un esquema con S/H. Al evaluar esta
respuesta espectral, se puede notar que la demodulacion se debe implementar mediante un
ltro pasa bajos como primera etapa. Como el espectro est a afectado por la presencia del tren
de pulsos, entonces es necesario agregar un ecualizador con respuesta en frecuencia dada por
X
1
p
(f), en donde X
p
(f) es la transformada de Fourier de tren de pulsos de la Ecuacion 3.3.
A pesar de que esto es bastante dicil de implementar, en la pr actica solo se requiere una
ecualizaci on para el rango de frecuencias en que el mensaje es v alido: [W, +W]. As, el dise no
es mucho mas relajado y la dicultad de implementacion se ve reducida.
Por otra parte, si el tiempo de duraci on del pulso T
p
es lo sucientemente peque no con
respecto al periodo de este, T, entonces cada pulso se asemeja a un impulso y la se nal de salida
del modulador ser a cada vez mas parecida a un sistema de muestreo mediante impulsos, caso
en el que no se requiere ecualizacion. Por esto, se asume como cota para requerir o no un
ecualizador, que la relaci on
Tp
T
sea menor al 1%.
3.7 Pulse-Code Modulation (PCM)
La idea de la codicaci on por forma de onda, es reproducir una forma de onda de la fuente
en el destino con la menor distorsi on posible. En estas tecnicas no se presta atenci on en la
manera en que se produce la forma de onda, sino que todos los esfuerzos son dedicados en la
reproducci on ledigna de la forma de onda de la fuente. Por lo mismo, los codicadores de
forma de onda pueden ser utilizados con una gran variedad de formas de onda, mientras que
estas tengan ciertas similitudes.
La modulaci on PCM es el m as simple y viejo esquema de codicacion por forma de onda.
Consiste b asicamente en tres secciones: un sampleador, un cuantizador y un codicador. En
PCM se realizan las siguientes suposiciones:
1. La se nal es de banda limitada, con una frecuencia m axima de W, por lo que puede ser
completamente reconstruda de muestras tomadas a una tasa f
s
2W.
2. La se nal tiene amplitud nita, vale decir que existe un m aximo de amplitud x
max
tal que
[ x(t) [ x
max
< .
3. La cuantizacion se realiza para un n umero alto de niveles de cuantizaci on M, que es una
potencia de 2 (M = 2
v
).
56
CAP
ITULO 3. MODULACI
ON EN BANDA BASE
Muestreo de Se nal Analoga. El muestreo se realiza de la forma en que se estudi o en el
presente captulo. Dado que la se nal debe ser de banda limitada, para poder trabajar
con se nales periodicas, se necesita incluir un LPF con ancho de banda W a la entrada del
muestreador, evitando as arm onicos sobre dicha frecuencia.
Cuantizaci on. Dependiendo del cuantizador utilizado, uniforme o nouniforme, se tiene una
modulaci on PCM uniforme o nouniforme y esto se selecciona dependiendo de las carac-
tersticas de la salida de la fuente.
Dentro del proceso de cuantizacion, se debe tener en mente que mientras m as niveles
se utilicen para realizar PCM, mas cercana resulta ser la se nal aproximada. En otras
palabras, el n umero de niveles utilizados determina la resolucion de la se nal. Esto es, la
medida de cuan peque no puede ser el cambio en la se nal original para poder ser visto en
la cuantizaci on.
Codicacion. Una vez que se ha realizado el proceso de muestreo y redondeo a un n umero
apropiado de niveles, se necesita realizar la transmision. Esta transmisi on debe ser solo
de la informaci on justa, que permita que el receptor pueda comprender que nivel de se nal
se est a enviando. Por esto, en PCM se codica cada uno de los niveles en n umeros bina-
rios, para luego enviarlos dependiendo del nivel que vaya presentando la se nal. Ademas
considerando la suposici on 3, siempre se tendran una represencacion mediante v bits, con
v Z.
Los n umeros binarios resultantes, pueden ser transmitidos con gran variedad de tecnicas
y representaciones. Por ejemplo se pueden tener representaciones unipolares, bipolares, con
o sin retorno a cero, etc. Resulta claro entonces, que un modulador PCM viene a ser un
conversor Analogo-Digital (A/D). As, la demodulacion (en rigor, decodicacion) se realiza con
un conversor Digital-An alogo (D/A).
3.7.1 Representaci on de Dgitos Binarios
Los digitos binarios obtenidos tras un modulador PCM necesitan ser representados mediante
pulsos electricos de forma de transmitirlos por un canal en banda base. Una representacion de
esto se muestra en la Fig. 3.12, en donde se muestran las palabras generadas por PCM y dos
alternativas de representaci on. Los slot de tiempo de palabra se muestran en la Fig. 3.12(a),
en donde el largo de cada una de estas palabras es 4 bits por muestra quantizada. En la
Fig. 3.12(b), cada 1 binario es representado por un pulso de duracion T
ITULO 3. MODULACI
ON EN BANDA BASE
(a) Secuencia PCM
(b) Representacion pulsatil de PCM
(c) PCM mediante transiciones entre dos niveles
Fig. 3.12: Ejemplos de representacion para digitos binarios en PCM
a diferencia de la forma de onda anterior esta forma de onda puede ser descrita como una
secuencia de transiciones entre dos niveles: cuando se ocupa el valor m as alto de voltaje se est a
representando un 1 binario y cuando se utiliza el mas bajo se representa un cero.
En la Fig. 3.13 se ilustran las formas de onda mas utilizadas en PCM, las que pueden
clasicarse en los siguientes grupos:
Sin retorno a cero (NRZ). El grupo NRZ es probablemente el grupo mas utilizado en modu-
laci on PCM. Puede ser subdividido en: NRZ por nivel (NRZ-L), NRZ por marca (NRZ-M)
y NRZ por espacio (NRZ-S). NRZ-L es usado extensamente en l ogica digital. Un uno dig-
ital es representado por un nivel y un cero por otro nivel, por lo que habr a un cambio
ya sea que se pase de uno a cero o de cero a uno. Con NRZ-M, el uno (o marca) es
representado con un cambio de nivel, y el cero (o espacio) es representado sin un cambio
de nivel. Esto comunmente es conocido como codicacion diferencial y es utilizado prin-
cipalmente en grabaciones en cintas magneticas. En el caso de NRZ-S se realiza la accion
complementaria de NRZ-M: el uno se representa sin cambios y el cero por un cambio en
el nivel.
Con retorno a cero (RZ). Las formas de onda con retorno a cero consisten en la unipolar-
RZ, la bipolar-RZ y RZ-AMI. Todas estas alternitivas se utilizan en transmisi on en banda
base y grabaci on magnetica. En la unipolar-RZ, el uno es representado por un pulso de
un ancho igual a la mitad del tiempo que dura un bit, y el cero se representa por la
ausencia de tal pulso. Con la bipolar-RZ, los unos y ceros se representan por pulsos en
58
CAP
ITULO 3. MODULACI
ON EN BANDA BASE
Fig. 3.13: Formas de onda mas comunes utilizadas en la modulacion PCM
niveles opuestos con una duraci on de la mitad del tiempo disponible por bit, por lo que
existe un pulso presente en cada intervalo de bit. El caso de RZ-AMI recibe su nombre
de inversion alternada de marca (alternate mark inversion, AMI) y es un esquema de
codicaci on usado principalmente en sistemas de telemetra. Los unos son representados
por pulsos alternados de igual amplitud y los ceros por la ausencia de pulsos.
Fase codicada. El grupo de fase codicada consiste en bi-fase por nivel (bi--L), mejor cono-
cida por codicacion Manchester; bi-fase por marca (bi--M); bi-fase por espacio (bi--S);
y modulacion por retardo (DM), o codicacion Miller. El grupo de fase codicada es us-
ado en sistemas de grabacion magnetica, en comunicaciones opticas y en algunos enlaces
de telemetra satelital. Al trabajar con bi--L, el uno es representado por un pulso de la
mitad del ancho disponible, ubicado en la primera mitad del tiempo de duracion; el cero se
representa por el mismo pulso pero ubicado en la segunda mitad del intervalo del bit. Con
59
CAP
ITULO 3. MODULACI
ON EN BANDA BASE
bi--M, ocurre una transicion al comienzo de cada intervalo de bit; el uno es representado
por una segunda transici on en el punto medio del intervalo, y el cero se representa sin
realizar esta transicion media. Para el caso de bi--S tambien se producen transiciones
al comienzo de cada intervalo, sin embargo el uno se representa sin transici on media y el
cero se hace mediante una transicion en el punto medio del intervalo. En la modulacion
por retardo, el uno se representa por una transici on en el punto medio del intervalo; el
cero es representado sin transici on a menos que sea seguido por otro cero, caso en el cual
se incluye una transici on al nal del intervalo del primer cero.
La raz on por la que existen tantas formas de onda posibles para realizar la transmision de
datos PCM es que cada una de estas formas de onda tiene un desempe no caracterstico para una
aplicaci on en particular. Al momento de elegir el esquema de codicaci on para esta aplicaci on,
los parametros que deben examinarse son los siguientes:
Componente DC. Al eliminar la componente DC de la PSD de la se nal puede originar
problemas en sistemas con alta sensibilidad a las bajas frecuencias, por lo que se puede
perder informacion de baja frecuencia.
Autosincronizacion. En cualquier sistema de comunicaci on digital se requiere sicronizacion
por smbolo o por bit. Algunos codigos PCM tienen una sincronizacion inherente o car-
actersticas de sincronizacion que ayudan en la recuperacion del reloj de la se nal. Por
ejemplo, el c odigo Manchester tiene una transici on en el medio de cada intervalo ya sea
que se envio un cero o un uno, lo que provee una se nal de sincronizacion.
Deteccion de errores. Algunos esquemas de codicaci on proveen los medios de detectar
errores sin introducir bits adicionales para la detecci on de errores.
Compresion del ancho de banda. Existen esquemas que incrementan la eciencia del ancho
de banda ya que permiten una reducci on del ancho de banda requerido por una tasa de
datos dada. As, mas informaci on es transmitida por unidad de ancho de banda.
Codicacion diferencial. Realizar la codicacion de alguna forma diferencial es util pues
permite invertir la polaridad de las formas de onda codicadas sin afectar la deteccion
de datos. Esto es una ventaja en sistemas de comunicacion en donde las formas de onda
pueden sufrir inversi on.
Inmunidad al ruido. Las distintas formas de onda de PCM pueden ser caracterizadas por
la probabilidad de error versus la raz on se nal-a-ruido (signal-to-noise ratio, SNR). Algunos
de los esquemas son m as inmunes que otros al ruido; por ejemplo, las formas de onda NRZ
tienen mejor desempe no de error que las formas de onda RZ unipolar.
En denitiva, la forma de onda que es seleccionada para cada aplicacion depender a de
factores importantes como la caracterstica espectral, capacidad de sincronizaci on de bit, ca-
pacidades de deteccion de errores, inmunidad a la interferencia o al ruido, y costo/complejidad
de implementaci on.
60
CAP
ITULO 3. MODULACI
ON EN BANDA BASE
3.7.2 Tipos de Cuantizadores
Existen tres formas genericas de cuantizadores:
1. Cuantizadores por conteo, que cuentan uno a uno los niveles de cuantizaci on.
2. Cuantizadores Seriales, que generan un c odigo de palabra bit-a-bit desde el bit m as signi-
cativo (MSB) hasta el menos signicativo (LSB).
3. Cuantizadores Paralelos, que generan todos los bits en forma simultanea.
Cuantizadores por Conteo
El cuantizador por conteo basa su funcionamiento en un contador binario capaz de llevar la
cuenta desde 0 hasta v bits y en un Sample-and-Hold. El diagrama en bloques de este cuanti-
zador se muestra en la Figura 3.14.
Fig. 3.14: Cuantizador por conteo
El generador de rampa comienza a cada punto de muestreo y el contador binario es si-
mult aneamente iniciado. La salida del bloque S/H corresponde a una salida tipo escalera,
en donde cada uno de los escalones permanece en el valor muestrado para cada intervalo de
muestreo. El tiempo de duracion de la rampa -y por ende del contador binario- es proporcional
al valor de la muestra, pues la pendiente de la rampa permanece constante. Consideando que
la frecuencia de reloj es tal, que permite que el contador alcance su m axima cuenta (111. . . 1)
para un tiempo de duracion de la rampa correspondiente al maximo valor muestreado, entonces
la cuenta nal en el contador correspondera a los niveles de cuantizaci on.
Ejemplo 3.4 - Cuantizador por conteo.
Considere que se esta dise nando un cuantizador por conteo, con un generador de rampa con
pendiente 10
6
V/s. La se nal de entrada vara de 0 a 10V y se tiene un contador binario de 4
bits. Calcule la frecuencia del reloj para cuantizar una se nal de voz.
61
CAP
ITULO 3. MODULACI
ON EN BANDA BASE
Sol. En general, se puede considerar que la voz alcanza valores m aximos cercano a los 3kHz,
por lo que trabajamos con una se nal de banda limitada. As, la frecuencia de muestreo para
reconstrucci on perfecta debera ser de a lo menos 6kHz, lo que equivale a un periodo de muestreo
de
1
6
ms. Dado que la rampa alcanza los 10V en t
max
=
10V
10
6
V/s
= 0.01ms < T
s
, entonces tenemos
suciente tiempo para evitar problemas de sobrecarga. El contador deber a contar desde 0000
hasta 1111 en este tiempo, y dado que se tienen 16 valores posibles, t
count
=
0.01ms
16 valores
; en otras
palabras, se requiere una f
CLK
= t
1
count
= 1.6MHz.
Cuantizadores Serial
El cuantizador serial, divide sucesivamente la entrada en mitades, determinando en que mitad
se encuentra dicha entrada. En el primer paso, la entrada se divide a la mitad y se observa si
se encuentra en la mitad superior o inferior. El resultado de esta observaci on, genera el bit m as
signicativo del codigo de palabra.
La mitad en la cual se encuentre la muestra, se vuelve a subdividir en 2 regiones y nuevamente
se realiza la comparaci on, esto genera el siguiente bit. As, el proceso se repite tantas veces como
bits se utilicen en el encoding.
La Fig. 3.15 muestra un cuantizador serial de 3 bits. Los rombos representan comparadores,
que realizan una comparacion de su entrada con un valor jo, dando una salida si la entrada
excede dicho valor, u otra salida diferente si es menor. Es importante tener en mente que esta
gura est a pensada para una se nal con valores entre 0 y 1, por lo que en el caso de no tener esta
condici on, se requiere una normalizaci on previa. De necesitar mas (o menos) bits, los bloques
comparativos pueden ser f acilmente agregados (o quitados).
Fig. 3.15: Cuantizador Serial de 3 bits
Para la Fig. 3.15, el bit b
1
es el primer bit de la ristra y corresponde al bit m as signicativo
(most signicant bit, MSB), por lo que b
3
es el bit menos signicativo (least signicant bit,
LSB).
Ejemplo 3.5 - Cuantizador Serial.
Ilustre la operaci on del cuantizador serial de la Fig. 3.15 para los valores de entrada de 0.2V y
0.8V.
Sol. Para 0.2V, la primera comparacion resulta en un NO por respuesta, por lo que b
1
= 0.
62
CAP
ITULO 3. MODULACI
ON EN BANDA BASE
De la misma forma, la segunda comparacion da un NO, por lo que b
2
= 0. Para la tercea
comparaci on, el resultado es SI, teniendo que b
3
= 1. As, el c odigo para el valor 0.2V es 001.
Para los 0.8V, la primera comparaci on da un SI por respuesta, por lo que b
1
= 1 y se le restan
0.5, teniendo 0.3V para la segunda etapa. En esta, el resultado tambien es SI, entonces b
2
= 1
y la se nal es 0.05. La tercera comparaci on resulta en NO, por lo que b
3
= 0. Entonces el c odigo
para 0.8V es 110.
Cuantizadores Paralelo
El cuantizador paralelo es el cuantizador mas rapido pues genera todos los bits del c odigo de
palabra en forma simultanea. Lamantablemente resulta ser el mas complejo de todos, ya que
requiere un gran n umero de comparadores por ejemplo, para M-niveles de comparacion, se
requieren M 1 comparadores. Adem as, se necesita un codicador de M = 2
v
entradas y v
salidas, que a pesar de ser un simple circuito combinacional, agrega complejidad y retardo al
bloque total.
La Fig. 3.16 muestra un diagrama de bloques de un cuantizador paralelo de 3 bits. El bloque
marcado como Codicador toma la salida de los 7 comparadores y genera el n umero binario
correspondiente. Por ejemplo para un valor de se nal superior a
7
8
V, todos los comparadores
tendr an sus salidas en 1 (SI). El codicador debera entonces generar el c odigo 111.
Fig. 3.16: Cuantizador Paralelo de 3 bits
Dadas las condiciones del problema, el dise no del Codicador es muy sencilla, pues solo 8
de los 128 (2
8
) opciones posibles de entrada se utilizan: una se nal no podra ser mayor que un
valor, pero menor que otro nivel inferior.
Mientras que los cuantizadores seriales toman ventaja de la estructura de los n umeros bina-
rios cuando se cuentan en secuencia, el cuantizador paralelo no requiere dicha estructura. De
hecho, el c odigo para regiones de cuantizaci on puede ser asignado de cualquier forma que resulte
c omoda y util para la aplicaci on particular. Un problema con la asignacion secuencial es que
la transmisi on de errores en los bits genera errores de reconstrucci on no-uniforme, y particular-
63
CAP
ITULO 3. MODULACI
ON EN BANDA BASE
mente si dicho error se produce en el MSB. Por esto, es preferible que en muchos casos se utilice
el codigo Gray, en donde solo se produce un cambio de estado por cada una de las salidas.
3.7.3 PCM Diferencial
Como se discuti o anteriormente, en un sistema PCM, luego de muestrear la se nal de informaci on,
cada muestra es cuantizada independientemente usando un cuantizador escalar. Esto signica
que la muestra anterior no tiene ning un efecto sobre la cuantizaci on de las muestras nuevas. Sin
embargo, cuando un proceso aleatorio de banda limitada es muestreado a una frecuencia igual
o superior a la de Nyquist, los valores de las muestras son variables aleatorias correlacionadas
1
.
Esto signica que en la gran mayora de los casos, las muestras anteriores dan algun tipo
de informacion acerca de las venideras; informaci on que puede ser utilizada para mejorar el
desempe no de un sistema PCM. Por ejemplo, si la muestra anterior tena un valor peque no
existe una alta probabilidad de que el valor de la siguiente muestra sea tambien peque no, por
lo que no es necesario cuantizado un alto rango de valores para tener un buen desempe no.
En la forma m as sencilla de implementar esta modulaci on PCM diferencial (DPCM), se
cuantizan las diferencias entre dos muestras adyacentes X
k
X
k1
. Dado que estas dos muestras
adyacentes estan altamente correlacionadas, su diferencia tiene variaciones peque nas; por lo
tanto, para lograr un cierto nivel de performance, solo se requieren unos pocos niveles (y por
ende, unos pocos bits) en la cuantizaci on. En palabras simples, DPCM logra un determinado
desempe no a una tasa de bits menor que lo que necesitara PCM.
En la Fig.(Hecha en clases) se muestra una forma de realizar DPCM de una manera simple.
Como se puede observar en dicha gura, la entrada en el cuantizador no es X
k
X
k1
sino que
Y
k
= X
k
k1
, en donde
Y
k1
es una variable altamente relacionada con X
k1
como se vera a
continuacion. La ventaja de la utilizacion de esta nueva variable es que previene la acumulacion
de ruido de cuantizacion. La entrada del cuantizador, Y
k
se cuantiza en forma escalar (uniforme
o no uniforme) para generar
Y
k
en base a las relaciones
Y
k
= X
k
Y
k1
, (3.14)
k
=
Y
k
+
Y
k1
. (3.15)
El error de cuantizaci on entre la entrada y salida del cuantizador estar a determinada por
Y
k
Y
k
=
Y
k
(X
k
Y
k1
)
=
Y
k
X
k
+
Y
k1
=
Y
k
X
k
(3.16)
La salida del receptor esta dada por la relaci on
X
k
=
Y
n
+
X
k1
. (3.17)
Comparando las Ecuaciones (3.15) y (3.17) se puede ver que
Y
k
y
X
k
satisfacen la misma
ecuacion de diferencias con la misma funcion de exitacion,
Y
k
. Por lo tanto, si las condiciones
1
La unica excepcion a esto se produce cuando el espectro del proceso es plano dentro de su ancho de banda.
64
CAP
ITULO 3. MODULACI
ON EN BANDA BASE
inciales de
Y
k
y
X
k
son elegidas iguales, estas tambien seran iguales para todo tiempo k. En
efecto, al juntar ambas ecuaciones se obtiene la relaci on
X
k
=
Y
k
Y
k1
+
X
k1
por lo que al
jar, por ejemplo,
Y
1
=
X
1
= 0 se tiene:
X
0
=
Y
0
Y
1
+
X
1
=
Y
X
1
=
Y
1
Y
0
+
X
0
=
Y
1
.
.
.
X
k
=
Y
k
Y
k1
+
X
k1
=
Y
k
.
Reemplazando este resultado en la Ecuacion (3.16) se obtiene que el ruido de cuantizaci on que
estaba dado por
Y
k
Y
k
cumple la relacion
Y
k
Y
k
=
X
k
X
k
. (3.18)
Esto demuestra que el error de cuantizacion que existe entre la muestra X
k
y su replica
en el receptor
X
k
es la misma que el error de cuantizacion entre la entrada y la salida del
cuantizador. Sin embargo, el rango de variaci on que normalmente presenta Y
k
es mucho menor
que el presentado por X
k
, por lo que Y
k
se cuantiza con menos bits.
3.8 Modulacion Delta
De acuerdo a lo estudiado de PCM, el c odigo binario resultante debe ser capaz de proveer una
medida de la muestra dentro de todo el rango dinamico de la se nal. Por ejemplo, al trabajar con
se nales en un rango -5V a +5V, el c odigo digital debe ser capaz de indicar muestras sobre un
rango de 10V. Adem as, el ruido de cuantizacion resultante es proporcional al rango dinamico
de los datos originales por lo que rangos menores son siempre preferibles. Por ende, si de
alguna forma se pudiese reducir el rango dinamico de los n umeros que se tratan de comunicar,
el performance frente al ruido se mejorara tambien. La Modulacion Delta es una tecnica
sencilla para realizar esta tarea. En vez de enviar el valor de cada una de las muestras, se envia
la diferencia entre la muestra y el valor previo. Si el muestreo se est a realizando a la frecuencia
de Nyquist, esta diferencia tiene un rango din amico igual al de las muestras originales, por lo
que cada muestra es independiente de la anterior. En caso contrario, al muestrear a frecuencias
superiores a la de Nyquist, las muestras resultan ser dependientes entre ellas, por lo que el rango
din amico de la diferencia entre 2 muestras puede ser menor que el de las muestras como tales.
As, al aumentar la frecuencia de muestreo se logra una reducci on en el rango dinamico, por lo
que se puede enviar la misma informacion usando una menor cantidad de digitos binarios para
el mismo ruido de cuantizaci on. Dado esto, se lograra una mejora en la transmision.
En otras palabras, la modulacion delta es una tecnica de conversion analogo-digital usada
para la transmisi on de informacion en la cual la calidad de las se nales no es de vital importancia,
permitiendo realizar una reduccion del rango din amico. Por lo mismo, su utilidad principal es
con se nales de voz. Esta modulaci on reduce el proceso de cuantizaci on a 1 bit. Por ejemplo un
1 representa una diferencia positiva y un 0 una diferencia negativa. Esto a su vez involucra
que solo se trabaja con 2 niveles de codicaci on, a los que se referenciar a como + o . En
terminos generales, la se nal solo podr a aumentar o disminuir en unidades.
Sus principales caractersticas en la generaci on de la ristra de bits son:
65
CAP
ITULO 3. MODULACI
ON EN BANDA BASE
1. La se nal an aloga es aproximada en una serie de segmentos.
2. Cada segmento de la se nal aproximada, es comparada con la se nal original para determinar
aumento o disminuci on en la ampliud relativa.
3. Los bits sucesivos se determinan conforme a esta comparacion.
4. Solo el cambio de informacion es enviada. Esto quiere decir que solo se realiza un cambio
del estado anterior si la se nal de entrada decrece o aumenta, ya que una condicion de
no-cambio involucra la continuidad del 0 o 1 de la muestra anterior.
La Fig. 3.17 muestra una se nal an aloga y la aproximaci on mediante Modulaci on Delta. Dado
que la cuantizacion solo se puede incrementar o decrementar en en cada punto de muestreo,
se trata de realizar la aproximacion a la se nal original mediante una se nal tipo escalera.
Fig. 3.17: Forma de onda analoga (rojo) y su aproximaci on en la Modulaci on Delta (azul).
Como se dijo con anterioridad, se realiza la comparaci on entre ambas se nales: si la escalera
est a bajo la muestra de la se nal analoga, entonces se debe incrementar positivamente en una
unidad; si se encuentre sobre la muestra de la se nal, entonces se debe decrementar en una
unidad. Asumiendo que se realiza la asociacion de que los incrementos valen 1, la ristra de
bits para la gura, esta dada por:
111111111000000011111111111000
As, se tiene que la implementacion de la modulacion Delta es realmente sencilla, pues est a
compuesta por un comparador y un generador de se nal escalera, como se muestra en la Fig. 3.18.
Resulta evidente que existe una clara dependencia entre la calidad de la codicacion con el
valor del incremento . De hecho, para usar efectivamente la modulacion delta se debe realizar
una elecci on inteligente de dos parametros: valor del incremento, , y tasa de muestreo, T
s
. La
elecci on debe ser realizada de tal forma que la se nal escalera sea una buena aproximaci on de la
se nal an aloga original. Dado que la se nal tiene una frecuencia m axima conocida, entonces se
66
CAP
ITULO 3. MODULACI
ON EN BANDA BASE
Fig. 3.18: Diagrama de Bloques de un conversor Delta A/D
sabe a la m axima tasa a la cual esta puede cambiar, lo que permite elegir apropiadamente una
buena frecuencia de muestreo. Ahora bien, si el paso es demasiado peque no, se experimenta
el problema de sobrecarga de pendiente en d onde la escalera no es capaz de seguir los rapidos
cambios que presenta la se nal an aloga. Este problema se muestra en la Fig. 3.19(a). Por otra
parte, si el paso es demasiado grande se tendran considerables sobrepasos durante periodos
en los que la se nal se mantiene practicamente constante. Para este caso, se tiene un ruido
de cuantizaci on muy grande, y se conoce como Ruido Granular. Este problema se puede
observar en la Fig. 3.19(b). El resultado de una buena eleccion del parametro de incremento
para el mismo tiempo de muestreo se puede observar en la Fig. 3.19(c), en donde se observa
que la se nal escalera sigue bien a la original y se puede considerar una buena aproximaci on.
3.8.1 Modulacion Delta Adaptiva
La modulaci on delta adaptiva es un esquema en el cual se permite un ajuste del valor de
incremento dependiendo de las caractersticas de la se nal analoga. Es, por supuesto, de caracter
crtico que el receptor sea capaz de adaptar el valor de los pasos exactamente de la misma
forma en que lo hace el transmisor, ya que si no se da esta situaci on, nunca se podr a hacer una
buena recuperacion de la se nal original cuantizada (funci on tipo escalera). Dado que todo es
transmitido a traves de una serie de dgitos binarios, el tama no del paso debe ser derivado de
dicho tren de bits.
Si un string de bits de largo dado contiene un n umero casi igual de ceros y unos, se puede
asumir que la escalera est a oscilando en torno a una se nal analoga de variaci on muy lenta; en
este caso, se podra reducir el tama no del paso. Por otra parte, un exceso de ceros o unos dentro
del string de bits podra indicar que la escalera est a tratando de alcanzar la funcion; en este
caso, se podra incrementar el tama no del paso. En una implementaci on el control del tama no
del paso se obtiene por un integrador digital, que suma los bits sobre un periodo jo. Si la suma
se desva de aquella que corresponde a un n umero igual de ceros y unos, entonces se realiza la
modicaci on del tama no del paso.
Existen muchos algoritmos de modulacion delta adaptiva que son m as sencillos de imple-
mentar que el discutido arriba. Por ejemplo dos implementaciones son el algoritmo song y el
algoritmo space shuttle.
El algoritmo song compara el bit transmitido con el anterior; si son iguales el paso se
67
CAP
ITULO 3. MODULACI
ON EN BANDA BASE
(a) Pasos muy peque nos (b) Pasos muy grandes
(c) Eleccion
Optima
Fig. 3.19: Consecuencias de una buena o mala elecci on del valor del incremento .
incrementa en una cantidad ja, . Si los dos bits son difentes entonces el paso de disminuye
en la misma cantidad ja, . As el tama no del paso est a siempre cambiando y puede crecer y
crecer sin lmite si es necesario. Un caso extremo de esta implementacion es cuando se quiere
seguir una funci on escalon, ya que al alcanzar la se nal, se debe volver en cantidades jas por lo
que existe una peque na oscilacion en torno al valor m aximo. As, si se espera que una funcion
tenga varios cambios abruptos, entonces dicha oscilaci on del algortimo song puede resultar
problem atica.
El algoritmo space shuttle es una modicaci on del algoritmo song y busca eliminar dichas
oscilaciones. Al igual que antes, cuando dos bits son iguales, se realiza el incremento en el valor
jo, . Sin embargo, cuando los bits son distintos, el tama no del paso se reinicia inmediatamente
a su mnimo valor, que tambien es . Resulta de interes entonces, notar de que este algoritmo
se ajustar a mejor en casos de tener una funcion escal on.
68
Captulo 4
Modulaciones Digitales Pasabanda
4.1 Introducci on
La modulaci on pasabanda de se nales tanto analogas como digitales es un proceso por el cu al
una se nal de informacion es contenida en una forma sinusoidal que sea capaz de transmitirse en
un canal con respuesta pasabanda. Para el caso de las modulaciones digitales, estos sinusoides
de duracion T son referidos como smbolos digitales. As, el modulador en un sistema de
comunicaci on digital, mapea las secuencias de dgitos binarios en sus correspondientes formas
de onda para ser transmitidos en un canal pasabanda.
C omo se estudi o en cursos anteriores, una se nal sinusoidal tiene tres par ametros que iden-
tican una se nal de otra: amplitud, frecuencia y fase. As, la modulaci on pasabanda se puede
denir como el proceso por el cual la amplitud, la frecuencia o la fase de una se nal portadora,
o una combinaci on de ellos, es variada conforme con la informaci on que quiere ser transmitida.
La forma general de una se nal portadora est a determinada por
s(t) = A(t) cos[
c
t + (t)]
en donde A(t) es la amplitud variante en el tiempo,
c
= 2f
c
es la frecuencia angular de la
portadora, y (t) es la fase.
Los tipos b asicos de modulaci on y demodulaci on digitales se muestra en la Tabla 4.1. Cuando
el receptor explota cierto conocimiento de la fase de la portadora para realizar el proceso de
detecci on de la se nal, se habla de deteccion coherente; por otro lado, si no se utiliza ese tipo de
informaci on, el proceso es llamado detecci on no-coherente. Bajo el alero de comunicaciones
con deteccion coherente, en la columna izquierda de la Tabla 4.1 se listan Phase Shift Keying
(PSK), Frecuency Shift Keying (FSK), Amplitude Shift Keying (ASK), Modulaci on de Fase
Continua (CPM) y combinaciones hbridas. La demodulaci on no-coherente se reere a sistemas
que emplean demoduladores que est an dise nados para operar sin conocimiento de la fase de
la se nal de entrada, por lo que no se requiere estimaci on de la fase. As, la ventaja de un
sistema no-coherente frente a uno coherente es su menor complejidad, pero al precio de tener una
probabilidad de error mayor. En la columna derecha de la Tabla 4.1 se listan las demodulaciones
no-coherentes: DPSK y versiones de FSK, ASK, CPM e hbridos que son similares a las listadas
en la columna de coherentes. Resulta interesante decir que la deteccion de DPSK se realiza
mediante la informacion de la fase del smbolo anterior, lo que da origen a su nombre.
69
CAP
2
2
exp
_
n
2
2
2
_
, (4.1)
en donde
2
es la varianza del ruido. La distribuci on Gaussiana es comunmente utilizada como
modelo del ruido de un sistema por el teorema del lmite central. Este teorema establece que,
bajo condiciones muy generales, la distribuci on de probabilidades de la suma de k variables
1
Nyquist, H., Thermal Agitation of Electric Charge in Conductors, Phys. Rev., vol 32, Julio de 1928, pp
110-113
70
CAP
n
(f) =
N
0
2
,
en donde el factor de 2 es includo para indicar que
n
(f) es una PSD bilateral. Dado que su
densidad espectral de potencia es constante, se reere al ruido termico como un ruido blanco.
La funci on de autocorrelaci on del ruido blanco, est a determinada por la transformada inversa
de Fourier de la PSD, luego
R
n
() = F
1
[
n
(f)] =
N
0
2
() .
As, como la funcion de autocorrelacion es nula para ,= 0, se puede concluir que sin importar
cuan cerca en el tiempo esten dos muestras tomadas, ellas siempre ser an no-correlacionadas.
La potencia promedio del ruido blanco, P
n
, es innita pues su ancho de banda es innito.
A pesar de que el ruido blanco es una abstraccion util, ningun proceso de ruido puede ser
realmente blanco; sin embargo en muchsimos sistemas se puede asumir que el ruido presente
puede ser aproximadamente blanco, ya que su espectro es practicamente constante en el rango
de frecuencias de interes. Adem as, como el ruido termico est a presente en todos los sistemas
de comunicaciones y es la fuente de ruido predominante en la mayora de los sistemas, las
caractersticas del ruido blanco (aditivo, blanco y Gaussiano) se utilizan para modelar el ruido
en el proceso de deteccion y en el dise no de receptores optimos.
Por ende, el modelo matem atico que se utiliza para representar los efectos del ruido en una
se nal transmitida por un canal pasabanda esta determinada por la relaci on
r(t) = s
i
(t) + n(t) . (4.2)
Sin embargo, un modelo m as descriptivo incluira las modicaciones dadas por la respuesta
espectral del canal, h
c
(t), que se reejaran como la convoluci on entre s
i
(t) y dicha respuesta.
Como resultado de esta consideraci on se tendr a una entrada en el receptor dado por la relacion
r(t) = s
i
(t) h
c
(t) +n(t). En este curso se obviar an las modicaciones producidas por el canal
con la base de que en la mayora de los casos esta respuesta es conocida.
4.2.2 Representaci on Geometrica de Se nales
Se sabe con anterioridad de que una base de un espacio tiene que cumplir dos condiciones: que
sus elementos sean linealmente independientes y a su vez que generen de alguna forma dicho
espacio. As, se estudi o en el curso de algebra lineal que el conjunto (1, 0, 0), (0, 1, 0), (0, 0, 1)
corresponda a la base can onica de R
3
y que en general cualquier conjunto ordenado de n-uplas
e
1
, e
2
, . . . , e
n
donde e
i
es uno en la i-esima posici on y cero en el resto, es la base can onica de
R
n
. Adicionalmente se obtuvo que las funciones
2
tambien poseen un conjunto base, tal como
2
Funciones en matematica, se nales en ingeniera.
71
CAP
1
(t) =
1
E
1
s
1
(t) .
La segunda se nal ortonormal se construye desde s
2
(t), proyectando
1
(t) sobre ella mediante
a
21
=
_
s
2
(t)
1
(t) ,
para luego aplicar la relaci on
2
(t) = s
2
(t) a
21
1
(t) .
Esta se nal es ortogonal a
1
(t) pero no necesariamente tendr a energa unitaria por lo que se
normaliza por su energa E
2
para tener
2
(t) =
2
(t)
E
2
.
Generalizando el procedimiento, se puede obtener que la ortogonalizacion de la l-esima
funci on est a determinada por
l
(t) =
1
E
l
l
(t) , (4.3)
en donde
l
(t) = s
l
(t)
l1
j=1
a
lj
j
(t) . (4.4)
Entonces, defnase un espacio ortogonal N-dimensional como un espacio caracterizado por
un set de N funciones linealmente independientes,
j
(t), j = 1, 2, . . . , N, llamadas funciones
72
CAP
j
(t)
k
(t) dt = K
j
jk
,
0 t T
j, k = 1, 2, . . . , N
, (4.5)
siendo
jk
(t) el operador conocido como Funcion Delta de Kronecker, y que est a denido por
jk
=
_
1 , j = k
0 , i.o.c.
. (4.6)
Cuando las constantes K
j
son distintas de cero, el espacio de se nales es llamado ortogonal.
Cuando las funciones estan normalizadas de forma que cada K
j
= 1, entonces el espacio es
llamado ortonormal. El proceso de ortogonalidad se puede entender que cualquier funcion
j
(t)
debe ser mutuamente perpendicular a cada una de las otras
k
(t), con k ,= j.
Conforme al procedimiento anteriormente explicado, se puede demostrar que cualquier set
de se nales s
i
(t), i = 1, 2, . . . , M, en donde cada miembro del set puede ser sicamente real-
izable y de una duraci on T, puede ser expresada como una combinaci on lineal de N funciones
ortogonales,
1
(t),
2
(t), . . . ,
N
(t), con N M, vale decir
s
i
(t) =
N
j=1
a
ij
j
(t),
i = 1, 2, . . . , M
N M
, (4.7)
en donde
a
ij
=
1
K
j
_
T
0
s
i
(t)
j
(t) dt,
i = 1, 2, . . . , M
j = 1, 2, . . . , N
0 t T
. (4.8)
Ejemplo 4.2 - Ortogonalizacion de Gram-Schmidt.
Considere las se nales dadas por
s
1
(t) =
_
1 , t [0, 2]
0 , i.o.c.
, s
2
(t) =
_
_
_
1 , t [0, 1]
1 , t ]1, 2]
0 , i.o.c.
, s
3
(t) =
_
1 , t [0, 2]
1 , i.o.c.
, s
4
(t) = 1 ,
todas de duraci on T = 3. Se pide ortonormalizar el set de se nales.
Sol. La primera se nal ortonormal est a siempre determinada por la normalizaci on de la se nal
original, por lo tanto
1
(t) =
s
1
(t)
E
1
=
s
1
(t)
2
. El coeciente necesario para la segunda se nal
ortonormal se calcula mediante a
21
=
_
T
0
s
2
(t)
1
(t) dt = 0, por lo tanto
2
(t) =
s
2
(t)
2
. Para
la tercera se nal se calcula a
31
=
2 y a
32
= 0, luego
3
(t) = s
3
(t) a
31
1
(t) a
32
2
(t) =
s
3
(t) s
1
(t). Como esta se nal resultante tiene energa unitaria, no se requiere dividir por la
energa de la se nal, por lo tanto
3
(t) = s
3
(t) s
1
(t). Similarmente, se obtiene a
41
=
2,
a
42
= 0 y a
43
= 1, luego
4
(t) = s
4
(t) +
2
1
(t)
3
(t) = 0. Este resultado implica que s
4
(t)
es una combinacion lineal de
1
(t) y
3
(t), por lo que
4
(t) = 0.
Dado que, para un set jo de se nales las funciones base seran las mismas, el set completo
s
i
(t) puede ser visto como un set de vectores s
i
= a
i1
, a
i2
, . . . , a
iN
, ya que cada se nal
73
CAP
j
a
ij
j
(t)
_
2
dt
=
_
T
0
j
a
ij
j
(t)
k
a
ik
k
(t) dt
=
k
a
ij
a
ik
_
T
0
j
(t)
k
(t) dt
=
k
a
ij
a
ik
K
j
jk
E
i
=
j
a
2
ij
K
j
i = 1, 2, . . . , M . (4.10)
La Ecuaci on (4.10) es un caso especial del teorema de Parseval, que relaciona la integral del
cuadrado de una forma de onda, con la suma del cuadrado de coecientes ortogonales. Como
en la mayora de los casos se trabaja con bases ortonormales, el c alculo de la energa se limita
a la sumataria del cuadrado de los coecientes ortonormales.
Representaci on del Ruido Blanco
Utilizando como base el set de se nales
j
, el ruido Gaussiano blanco aditivo (AWGN) tambien
puede ser representado como una combinaci on lineal de ellas, de la misma forma en que se
representan las se nales s
i
(t). Sin embargo, como el ruido no tiene inferencia en la obtenci on
de las se nales base, no necesariamente podra ser completamente representado por dicha base.
Esto quiere decir que existir a una parte del ruido que caer a dentro del espacio de se nales generado
por
j
y otra parte que no. Por lo mismo es conveniente denir
n(t) = n(t) + n(t) , (4.11)
en donde n(t) es la componente del ruido que cae dentro del espacio de se nales y n(t) aquella
parte que cae fuera. Decir que una parte del ruido cae dentro del espacio de se nales equivale a
74
CAP
j=1
n
j
j
(t) ,
y, por ende, n(t) = n(t) n(t) ser a el ruido fuera del espacio de se nales. Se puede inferir de lo
explicado anteriormente que la relaci on entre el ruido vestigial y las se nales base est a dado por
_
T
0
n(t)
j
(t) dt = 0.
Dado que n(t) es un proceso aleatorio Gaussiano con media nula, entonces las componentes
de ruido n
j
tambien son Gaussianas de media nula. En efecto
En
j
= E
_
1
K
j
_
T
0
n(t)
j
(t) dt
_
=
1
K
j
_
T
0
En(t)
j
(t) dt = 0 ,
para todo j.
Adem as, estas componentes no est an mutuamente correlacionadas lo que se puede demostrar
calculando la covarianza
En
j
n
k
= E
_
1
K
j
1
K
k
_
T
0
_
T
0
n(t)n()
j
(t)
k
() dt d
_
=
1
K
j
1
K
k
_
T
0
_
T
0
En(t)n()
j
(t)
k
() dt d
=
N
0
2
jk
.
En resumen, las N componentes del ruido son variables aleatorias Gaussianas de media cero y
no correlacionadas con varianza com un dada por
N
0
2
.
Como se demostrara m as adelante, al utilizar un esquema de correlacionador en la detecci on
de se nales, el remanente de ruido, n(t), es rechazado efectivamente por el detector en s; entonces,
n(t) ser a el ruido que afectar a directamente el proceso de detecci on. Por lo tanto, de ahora en
adelante la porci on de ruido n(t) ser a referenciado simplemente como n(t), y se podr a representar
mediente su vector de coecientes de forma similar a lo que se dijo para las se nales, luego
n = [n
1
, n
2
, . . . , n
N
] , (4.12)
en donde n es un vector aleatorio con media cero y distribucion Gaussiana, en la que las
componentes n
j
, j = 1, . . . , N son independientes.
As, la se nal recibida a la entrada del detector tambien podr a representarse mediante un
vector r de la forma r = s
i
+ n. El problema tpico de la deteccion se ve convenientemente
en termino de estos vectores como se muestra en la Fig. 4.1. Los vectores s
j
y s
k
representan
prototipos o se nales de referencia pertenecientes al set de M se nales s
i
(t). El receptor sabe,
a priori, la ubicacion de cada una de estos prototipos en el espacio de se nales. Durante la
transmisi on de cualquiera de estas se nales, estas se perturban por el ruido generando una difusion
en torno a la posicion original; por lo mismo el vector resultante corresponde a una versi on
75
CAP
i
(t) =
2i
M
, i = 1, 2, . . . , M . (4.16)
77
CAP
c
t +
2i
M
_
=
_
2E
T
_
cos
c
t cos
_
2i
M
_
sin
c
t sin
_
2i
M
__
=
_
2E
T
A
mc
cos
c
t
_
2E
T
A
ms
sin
c
t (4.18)
en donde indirectamente se ha denido A
mc
= cos
_
2i
M
y A
ms
= sin
_
2i
M
.
78
CAP
E cos
_
2i
M
E sin
_
2i
M
E sin
M
(4.19)
y su importancia es que juega un papel importante en la determinacion del desempe no de la
tasa de error (error-rate performance) de un receptor que detecta la se nal PSK con presencia
de ruido gaussiano aditivo (AWGN).
Ejemplo 4.3 - Distancia Mnima.
Determine la distancia mnima para modulaciones PSK-2, 4 y 8 considerando que todas tienen
la misma energa transmitida E. Adem as, calcule en cu antos decibeles se debe incrementar la
se nal de energa para que PSK-8 tenga el mismo performance que PSK-4.
Sol. Para M = 2, d
min
2
= 2
E. Para M = 4, d
min
4
=
2E y para M = 8, d
min
8
=
0.5858E.
Para mantener la misma distancia mnima entre 4 y 8 niveles, se requiere incrementar la energa
en un factor de 2/0.5858 = 3.4142. En dB, esto es 5.33dB.
Para valores grandes de M, se puede realizar la aproximaci on sin
M
M
, luego la distancia
mnima ser a aproximadamente
d
min
2
M
E, M >> 2 (4.20)
Consecuentemente, al aumentar M al doble -lo que permite enviar un bit m as de informaci on
por cada smbolo entonces la energa debe ser aumentada en 6dB para asegurar la misma
distancia mnima entre puntos adyacentes.
4.4 Detecci on de Se nales en la presencia de AWGN
4.4.1 Region de Decision
Considere un espacio bidimensional como el dado en la Fig. 4.2 en las que se tiene dos prototipos
corruptos por ruido (s
1
+n) y (s
2
+n). El vector de ruido, n, es un vector aleatorio de media
nula, por lo que el vector de recepci on, r, es un vector aleatorio de media s
1
o s
2
. La tarea
del receptor, luego de recibir r es decidir cual de las se nales fue originalmente transmitida. El
metodo para esta decisi on usualmente corresponde a decidir cu al de las se nales especicadas
arroja la menor probabilidad de error, sin embargo existen otras formas de realizarlo.
Para el caso de M = 2 en donde ambas se nales posibles son equiprobables y sobre el cual
el ruido es un proceso de ruido aditivo Gaussiano (AWGN), se puede demostrar que el error
79
CAP
= E n(t) n
j
= E
__
n(t)
j
n
j
j
(t)
_
n
j
_
= En(t) n
j
E
_
k
n
k
k
(t) n
j
_
= E
_
n(t)
_
T
0
n(t)
j
(t) dt
_
E
_
k
n
k
k
(t) n
j
_
=
_
T
0
En() n(t)
j
(t) dt
k
En
k
n
j
k
(t)
= 0 .
Dado que n(t) y z
j
(T) son gaussianos y no correlacionados, entonces tambien son es-
tadsticamente independientes. Consecuentemente, n(t) no contiene ninguna informaci on que
82
CAP
a
2
T
g(t) =
_
1
T
0 t T
0 i.o.c.
. Ahora,
la salida del correlacionador, estar a determinado por r =
_
T
0
r(t)(t) dt =
1
T
_
T
0
r(t) dt. Reem-
plazando r(t) = s
i
(t) + n(t), se obtiene que r = s
i
+ n. Dado que En = 0, entonces
Er = Es
i
= s
i
, pues s
i
es determinstica. La varianza
2
r
=
2
n
=
1
2
N
0
, por lo que nal-
mente la funci on de probabilidades sera p(r[s
i
) =
1
N
0
exp
_
(rs
i
)
2
N
0
_
por la gaussianeidad del
proceso.
Receptor de Correlaci on Binario
Como se estudio anteriormente, la estadstica de prueba sera una variable aleatoria Gaussiana
con media a
1
o a
2
dependiendo si se envi o un 0 o un 1 binario. Considerando que el ruido tiene
varianza
2
0
, entonces las funciones de densidad de probabilidades (pdfs) estaran determinadas
por
p(z[s
1
) =
1
_
2
2
0
exp
_
(z a
1
)
2
2
2
0
_
(4.24)
p(z[s
2
) =
1
_
2
2
0
exp
_
(z a
2
)
2
2
2
0
_
. (4.25)
Gr acamente, ambas pdfs estan entrelazadas por lo que debe haber un criterio de decisi on
conforme a realizar una buena eleccion del smbolo, determinando en que region se encuentra la
se nal recibida. En la Fig. 4.4 se puede observar esto, marcando las regiones, la linea de decisi on
y el umbral (denotado por
0
).
Para obtener el valor del umbral, se requiere considerar que la decisi on se toma en torno a
las probabilidades conjuntas p(z, s
i
). Esto quiere decir que una buena regla de decision es: si
p(z, s
1
) > p(z, s
2
) entonces lo m as probable es que se haya transmitido s
1
(t); en caso contrario,
lo m as probable es que se haya transmitido s
2
(t). Matem aticamente esto se puede representar
mediante la relacion
p(z, s
1
)
s
1
s
2
p(z, s
2
) .
Ahora bien, al utilizar el teorema de Bayes y la condici on de que la probabilidad de que se
transmita s
1
(t) es q, es decir p(s
1
) = q y p(s
2
) = 1 q, entonces se tiene que p(z, s
1
) =
83
CAP
(z a
1
)
2
2
2
0
_
s
1
s
2
(1 q)
1
_
2
2
0
exp
_
(z a
2
)
2
2
2
0
_
2z(a
1
a
2
) (a
2
1
a
2
2
)
s
1
s
2
2
2
0
ln
_
1 q
q
_
,
por lo que si las se nales son equiprobables, entonces ln
_
1q
q
_
= 0 y por ende
z
s
1
s
2
a
1
+ a
2
2
=
0
, (4.26)
lo que quiere decir que para se nales equiprobables, la mejor alternativa para tomar la decisi on es
mediante la elecci on del punto medio de las medias como el umbral de decision. As, se plantea
la regla de decisi on dada por
z(T)
H
1
H
2
a
1
+ a
2
2
=
0
(4.27)
que determina que la hipotesis H
1
debe ser seleccionada
3
si z(T) >
0
, e hipotesis H
2
deber a
seleccionarse
4
si z(T) <
0
. Para el caso de trabajar con se nales antipodales, entonces s
1
(t) =
s
2
(t), y a
1
= a
2
, por lo que el umbral queda determinado por
z
s
1
s
2
0 ,
tal como se discuti o anteriormente al realizar la deteccion mediante un solo correlacionador.
4.4.3 Detector por Matched-Filter
En vez de utilizar un banco de N correlacionadores para generar las variables de decision, se
puede utilizar un banco de N ltros lineales. Para entender esto de forma especca, suponga
que la respuesta a entrada impulso de cada uno de esos ltros es
h
j
(t) =
j
(T t) , 0 t T
3
Equivalente a decir que la se nal s
1
(t) fue enviada.
4
Equivalente a decir que la se nal s
2
(t) fue enviada.
84
CAP
2
0
_
T
0
h
2
(T t) dt
=
_
_
T
0
h()s(T ) d
_
2
2
0
_
T
0
h
2
(T t) dt
;
dado que el denominador depende de la energa en h(t), el m aximo SNR sobre h(t) se obtiene
maximizando el numerador con el respaldo de que el denominador se mantiene constante. Esta
maximizaci on se puede realizar utilizando la inecuacion de Cauchy-Schwarz, la que indica que,
en general, si g
1
(t) y g
2
(t) son se nales de energa nita, entonces
__
g
1
(t)g
2
(t) dt
_
2
g
2
1
(t) dt
_
g
2
2
(t) dt ,
siendo iguales cuando se satisface que g
1
(t) = Cg
2
(t), para una constante arbitraria C. Fijando
entonces g
1
(t) = h(t) y g
2
(t) = s(T t), resulta claro que el SNR es maximo cuando h(t) =
Cs(T t), vale decir cuando el ltro esta encuadrado a s(t).
Luego, el m aximo SNR a la salida estar a determinado por
SNR
max
=
1
2
0
_
T
0
s
2
(t) dt =
2E
N
0
, (4.28)
en donde E es la energa de la se nal de entrada s(t).
Es interesante notar que para la elecci on de h(t) = (T t), entonces h(T ) = (),
luego el SNR estar a determinado por la raz on
SNR
max
=
_
_
T
0
s()h(T ) d
_
2
2
0
_
T
0
h
2
(T t) dt
=
_
_
T
0
s()() d
_
2
2
0
_
T
0
2
() d
=
a
2
i
2
0
,
pues es un sistema base ortonormal y () genera los coecientes de la se nal transmitida s(t).
4.5 Deteccion Coherente
4.5.1 Detecci on Coherente para PSK
El detector de la Fig. 4.3 puede ser utilizado para detecci on coherente de cualquier forma de
onda que se tenga en la entrada. Para ejemplicar esto, se considera el ejemplo de modulaci on
BPSK, cuyas se nales, por denici on, seran
s
1
(t) =
_
2E
T
cos(
c
t + ), 0 t T ,
s
2
(t) =
_
2E
T
cos(
c
t + + ) =
_
2E
T
cos(
c
t + ), 0 t T ,
por lo que se tiene que s
1
(t) = s
2
(t). El ruido n(t) es un proceso AWGN. El termino de fase
es una constante arbitaria, por lo que el analisis no se vera afecto al asumirla cero. El par ametro
86
CAP
E(t)
s
2
(t) = a
2
(t) =
E(t)
Las se nales prototipo en el receptor son la misma que la funci on base, pero normalizada
por el factor
_
2
T
, lo que implica que la se nal prototipo del correlacionador 1, sera (t) y la
del correlacionador 2, ser a (t). Ahora, asumiendo que se transmite s
1
(t), entonces r(t) =
s
1
(t) + n(t), y los valores esperados a tener a la salida del integrador son:
Ez
1
[s
1
= E
__
T
0
r(t)(t) dt
_
= E
__
T
0
[s
1
(t) + n(t)] (t) dt
_
= E
__
T
0
E
2
(t) + n(t)(t) dt
_
E{n(t)}=0
= E
__
T
0
2
T
E cos
2
c
t dt
_
=
E .
Similarmente, la salida del correlacionador 2 es
Ez
2
[s
1
= E
__
T
0
r(t)[(t)] dt
_
= E
__
T
0
[s
1
(t) + n(t)] [(t)] dt
_
= E
__
T
0
E
2
(t) n(t)(t) dt
_
E{n(t)}=0
= E
__
T
0
2
T
E cos
2
c
t dt
_
=
E .
La etapa de decisi on debe elegir cu al se nal fue transmida mediente la determinacion de la
ubicaci on en el espacio de las se nales. La eleccion de (t) =
_
2
T
cos
c
t normaliza las salidas
de los correlacionadores, por lo que el valor medio obtenido sera siempre Ez
i
=
E. La
etapa de decision elige la se nal con el mayor valor de z
i
(T), por lo que para este ejemplo, a la
salida se tendr a s
1
(t).
4.5.2 Detecci on Coherente para PSK M ultiple
PSK M ultiple (M- aria PSK, MPSK) es expresada conforme a la Ecuacion (4.18). Asumiendo
un espacio ortonormal para las funciones base, de acuerdo a la Ecuaci on (4.7) se pueden elegir
convenientemente los ejes:
1
(t) =
_
2
T
cos
c
t
87
CAP
2
(t) =
_
2
T
sin
c
t
en d onde la amplitud
_
2
T
se elige para mantener la salida normalizada conforme a lo estudiado
anteriormente. Ahora, el set completo de se nales se puede expresar de la forma
s
i
(t) = a
i1
1
(t) + a
i2
2
(t),
i = 1, 2, . . . , M
0 t T
=
E cos
i
1
(t) +
E sin
i
2
(t) (4.30)
con
i
=
2i
M
. Notese que la Ecuacion (4.30) describe un set de M se nales de fase m ultiple
(intrinsecamente no-ortogonales) en terminos de solo dos componentes portadores ortogonales.
El caso de M = 4 (QPSK, quadriphase shift keying) es unico dentro de las se nales MPSK en el
sentido de que las formas de onda QPSK son representadas por una combinacion de miembros
antipodales y ortogonales. Los contornos de decision dividen el espacio de las se nales en M = 4
regiones. La regla de decisi on para el detector es decidir que s
1
(t) fue transmitida si el vector
de la se nal recibida cae en la regi on 1, que se transmiti o s
2
(t) si cae en la region 2, etc. En
otras palabras, se debe elegir la i-esima forma de onda si z
i
(T) es la m axima salida de los
correlacionadores, conforme a lo estudiado anteriormente.
La forma del correlacionador de la Fig. 4.3, muestra que siempre se requieren M correla-
cionadores de producto al demodular se nales MPSK. Sin embargo, como se discutio anterior-
mente, en la practica la demodulacion MPSK se implementa con N = 2 correlacionadores dado
que la base de la modulacion es conforme a las funciones base
1
(t) y
2
(t). La se nal recibida,
r(t), puede ser expresada como
r(t) =
_
2E
T
[cos
i
cos
c
t + sin
i
sin
c
t] + n(t) (4.31)
en donde n(t) es un proceso de ruido blanco Gaussiano con media cero. La Fig. 4.5 ilustra el
demodulador con las consideraciones hechas. Las se nales X y Y corresponden al c alculo de los
correlacionadores superior e inferior respectivamente, y se denen mediante:
X =
_
T
0
r(t)
1
(t) dt (4.32)
Y =
_
T
0
r(t)
2
(t) dt . (4.33)
La variable
es la estimacion ruidosa
5
de la fase real transmitida
i
. La forma en la
que se ha implementado en el demodulador es mediante el calculo de la arcotangente de las
componentes en fase (X) y en cuadratura (Y ) del vector de la se nal recibida r. El resultado
obtenido de dicho c alculo es comparado con cada una de los prototipos almacenados,
i
. El
demodulador elige el
i
m as cercano al angulo estimado. En otras palabras, el demodulador
calcula la distancia [
i
j
(t) =
_
2
T
cos
j
t, j = 1, 2, . . . , N (4.34)
para lograr una salida esperada normalizada, al igual que lo visto para la modulaci on PSK.
De la Ecuaci on (4.8) se puede escribir:
a
ij
=
_
T
0
_
2E
T
cos
i
t
_
2
T
cos
j
t dt =
_
E , i = j
0 , i.o.c.
. (4.35)
En otras palabras, el i-esimo vector del prototipo de la se nal, esta ubicado en i-esimo eje
coordenado a un desplazamiento de
2E, i ,= j .
La Fig. 4.6 muestra los vectores de las se nales prototipo y las regiones de decision para un
sistema FSK-3 coherentemente detectado. Como en el caso de PSK, el espacio de las se nales es
particionado en M regiones distintas, cada una conteniendo un vector de se nal prototipo; aca,
dado que las regiones de decisi on son tridimensionales, los lmites de decision son planos en vez
de lneas. La regla de decisi on optima es decidir que la se nal transmitida pertenece a la clase
cuyos ndices corresponden a la regi on en donde la se nal recibida se encuentra. Por ejemplo, en
la Fig. 4.6, el vector de la se nal recibida r est a en la regi on 2. Utilizando la regla de decision
impuesta arriba, el detector clasica r como la se nal s
2
.
Dado que el ruido es un vector aleatorio Gaussiano, existe una probabilidad mayor que cero
de que r pueda haberse producido por una se nal distinta a s
2
. Por ejemplo, si el transmisor
89
CAP
1
+
2
+
sin(
1
2
)T
2
_
...
+
1
2
sin
_
cos(
1
+
2
)T 1
1
+
2
+
cos(
1
2
)T 1
2
_
.
Asumiendo que f
1
+ f
2
>> 1, se puede realizar la aproximacion
sin(
1
+
2
)T
1
+
2
cos(
1
+
2
)T
1
+
2
0 ,
91
CAP
2
)T + sin [cos(
1
2
)T 1] = 0 . (4.36)
Para obtener el resultado nal, se deben analizar dos casos: FSK coherente y no coherente.
Para el caso de FSK no-coherente, no se puede realizar ninguna consideraci on sobre la fase ,
por lo que ambos terminos solo podr an sumar cero cuando ambos sean cero, es decir
sin(
1
2
)T = 0 cos(
1
2
)T = 1
(
1
2
)T = n (
1
2
)T = 2k n, k Z
(
1
2
)T = 2k
f
1
f
2
=
k
T
,
por lo tanto el mnimo se logra con k = 1, dando un espaciado mnimo de f
1
f
2
=
1
T
, que
corresponde a la tasa de smbolos.
Para el caso de FSK coherente, se tendr a algun conocimiento sobre la fase de la se nal
utilizando, por ejemplo, un lazo PLL. Dado dicho conocimiento, la etapa de correlacion se hara
con la se nal de referencia de fase conocida, lo que permite jar = 0 sin perdida de generalidad.
Reemplazando esto en la Ecuaci on (4.36), la igualdad a cero se traduce en sin(
1
2
)T = 0.
Entonces f
1
f
2
=
n
2T
, con n Z, por lo que el mnimo espaciado requerido est a determinado
por f
1
f
2
=
1
2T
. Por lo tanto, para la misma tasa de smbolos, la modulaci on FSK detectada en
forma coherente, puede ocupar menos ancho de banda que la detectada en forma no-coherente,
y aun asi mantener el requerimiento sobre la ortogonalidad de las se nales. Se puede decir, que
FSK coherente es mas eciente en ancho de banda que FSK no-coherente.
A modo de explicar este resultado en forma mas pr actica, considere un tono con frecuencia
f
i
que es encendido por un intervalo de tiempo de duracion T y luego es apagado. Luego esta
descrito por la relaci on
s
i
(t) = cos(
i
t) rect
_
t
T
_
,
en donde
rect
_
t
T
_
=
_
1 ,
T
2
t
T
2
0 , [ t [>
T
2
.
La transformada de Fourier de la se nal s
i
(t) sera entonces F [s
i
(t)] = Tsinc[(f f
i
)T]. Ahora
bien, si se gracaran dos tonos adyacentes de frecuencias f
1
y f
2
, como en la Fig. 4.8, entonces
la atenci on se centra en que ambos no se intereran entre s durante la deteccion. Esto se logra
si el valor peak del tono 1 coincide con uno de los puntos en que el espectro del tono 2 se hace
cero, y similarmente, que el peak del espectro del tono 2 coincida con una de las pasadas por
cero del espectro del tono 1. Entonces, la distancia que existe entre l obulo principal y el primer
cruce con cero, representa el espaciado mnimo requerido. Esto dice que la separaci on mnima
entre los tonos debe ser de
1
T
Hertz, tal como se obtuvo anteriormente.
Detecci on en Cuadratura de FSK
El metodo de detecci on de envolvente es una solucion bastante simple, pero el uso de ltros
usualmente resulta en mayores costos y peso que otras metodologas como el detector por
92
CAP
E
2
T
__
T
0
cos(
i
t + ) cos
k
t dt +
_
T
0
n(t) cos
k
t dt
_
=
2
E
T
_
cos
_
T
0
cos
i
t cos
k
t dt sin
_
T
0
sin
i
t cos
k
t dt
_
+ n
(I)
k
=
E
_
sin(
i
k
)T
(
i
k
)T
cos
cos(
i
k
)T 1
(
i
k
)T
sin
_
+ n
(I)
k
,
para la componente en lnea, y
z
(Q)
k
=
E
_
cos(
i
k
)T 1
(
i
k
)T
cos +
sin(
i
k
)T
(
i
k
)T
sin
_
+ n
(Q)
k
,
para la componente en cuadratura. Los terminos n
(I)
k
y n
(Q)
k
denotan las componentes de ruido
Gaussiano en la salida del correlacionador. Es facil observar que cuando i = k, entonces los
93
CAP
E cos + n
(I)
k
y
E sin + n
(Q)
k
, mientras que
para i ,= k, las componentes practicamente desaparecen independiente del valor que tenga la
diferencia de fase . Esto ultimo se da por que la separaci on frecuencial entre muestras se elige
como m ultiplos de la tasa de bits, conforme a lo que se estudio anteriortemente. Entonces, para
el resto de los 2(M 1) correlacionadores, la salida ser a simplemente la componente de ruido
en fase y cuadratura.
En base a estos resultados, se incluye la etapa de decisi on posteror al banco de estos cor-
relacionadores, eligiendo evidentemente el par de correlacionadores con mayor salida.
4.6.2 Detecci on de PSK Diferencial
El nombre PSK diferencial en ocaciones necesita ser claricado pues se puede estar haciendo
referencia a dos aspectos diferentes en el proceso de modulacion/demodulaci on: el encoding
y la detecci on. El termino encoding difencial se reere al proceso por el cual el encoding se
realiza de forma tal, que la presencia de un uno o un cero se maniestra como una similitud
o diferencia de smbolos cuando se compara con el smbolo anterior. El termino deteccion
coherente diferenciada de una modulaci on PSK con encoding diferencial es el signicado com un
de DPSK.
Esta se reere a un esquema de detecci on clasicado como no-coherente pues no
requiere fase de referencia para la portadora del receptor. A pesar de ello, una se nal PSK con
encoding diferencial, tambien puede ser coherentemente detectada.
En sistemas no-coherentes, no se realiza ning un esfuerzo en estimar el valor actual de la fase
de la se nal entrante. Por lo tanto, si la forma de la se nal transmitida es
s
i
(t) =
_
2E
T
cos[
c
t +
i
(t)] ,
entonces la se nal recibida estara caracterizada por
r(t) =
_
2E
T
cos[
c
t +
i
(t) + ] + n(t),
i = 1, 2, . . . , M
0 t T
,
en donde es una constante arbitaria y tpicamente es asumida como una variable aleatoria
uniformemente distribuda entre cero y 2; en smbolos, U[0, 2]. El termino n(t) es un
proceso AWGN.
Si se asume que vara lentamente con respecto al tiempo de dos periodos, 2T, entonces la
diferencia de fase entre dos se nales de entrada consecutivas,
j
(T
1
) y
k
(T
2
) resulta ser indepen-
diente de , esto es:
[
k
(T
2
) + ] [
j
(T
1
) + ] =
k
(T
2
)
j
(T
1
) =
i
(T
2
) . (4.37)
La fase de la portadora del intervalo anterior, se puede usar como referencia de fase para
la demodulaci on. Su uso requiere un encoding diferencial de la secuencia del mensaje en el
transmisor, dado que la informacion es acarreada por diferencias de fases entre dos formas
de onda consecutivas. As, para enviar el i-esimo mensaje (i = 1, 2, . . . , M), la se nal actual
debe tener un incremento de
i
= 2i/M radianes por sobre la se nal previa. El detector, en
general, calcula las coordenadas de la se nal entrante correlacionandola con las se nales internas
94
CAP
Indice de Muestreo, k 0 1 2 3 4 5 6 7 8 9 10
Mensaje de Informaci on, m(k) 1 1 0 1 0 1 1 0 0 1
Encoding Diferencial del mensaje, c(k) 1 1 1 0 0 1 1 1 0 1 1
Fase, (k) 0 0 0
En la Fig. 4.9 se muestra el diagrama en bloques de un demodulador DPSK binario. N otese
que el multiplicador-integrador similar al utilizado en la Fig. 4.3, es la escencia de este proceso
de detecci on; como en PSK coherente, aun se trata de correlacionar la se nal entrante con alguna
se nal de referencia. La diferencia interesante, es que aqu la se nal de referencia es simplemente
una version retardada de la se nal entrante en T unidades de tiempo, con T como la duraci on
95
CAP
E (t) (4.40)
s
2
(t) =
E (t) (4.41)
en donde 0 t T. La etapa de decisi on del detector, escogera la se nal s
i
(t) que entregue la
mayor correlacion z
i
(T) a la salida del correlacionador, o en este caso simplemente se debera
implementar la regla de decisi on de la Ecuaci on (4.27). En esta etapa se pueden cometer dos
errores posibles. El primero coresponde a que se envi o la se nal s
1
(t) pero el ruido es tal, que
el detector mide valores negativos de z(T), eligiendo la hip otesis H
2
. La otra opci on, es que
ocurra lo contrario: se eliga H
1
a pesar de que se transmitio s
2
(t). As la probabilidad de error
estar a determinada por
P
B
= P[(H
2
, s
1
), (H
1
, s
2
)]
= P(H
2
, s
1
) + P(H
1
, s
2
)
= P(H
2
[s
1
)P(s
1
) + P(H
1
[s
2
)P(s
2
)
P
B
=
1
2
P(H
2
[s
1
) +
1
2
P(H
1
[s
2
) (4.42)
en donde se ha considerado que la transmisi on de las se nales es equiprobable.
Dada la naturaleza de las se nales recibidas (variables aleatorias Gaussianas con media nula y
varianza ja) y la simetra de sus funciones de densidad de probabilidad en la Fig. 4.4, entonces
se puede decir que:
P
B
= P(H
2
[s
1
) = P(H
1
[s
2
) .
As, la probabilidad de error de bit es numericamente igual al area bajo la cola de alguna de
las pdf, p(z[s
1
) o p(z[s
2
) que cae en el lado incorrecto del umbral ( area achurada en Fig. 4.4).
En otras palabras, el calculo de P
B
se hace integrando p(z[s
1
) entre los lmites y
0
o, como
se muestra aca, integrando p(z[s
2
) entre los lmites
0
y . Luego
P
B
=
_
0
p(z[s
2
) dz
en donde p(z[s
2
) tiene distribuci on Gaussiana con media a
i
, y el umbral optimo,
0
, est a dado
por (a
1
+ a
2
)/2 como se demostr o anteriormente.
Se puede demostrar que
P
B
=
_
(a
1
a
2
)/2
0
1
2
exp
_
u
2
2
_
du = Q
_
a
1
a
2
2
0
_
(4.43)
97
CAP
2
_
x
exp
_
u
2
2
_
du . (4.44)
Para se nales antipodales de igual energa, como el caso de BPSK, las salidas del receptor
son a
1
=
E
b
cuando s
1
(t) fue enviada y a
2
=
E
b
cuando se envio s
2
(t), en donde E
b
es
la energa de la se nal por smbolo binario. Para AWGN, la varianza se puede reemplazar por
N
0
/2 como se demostr o anteriormente. Entonces, se puede obtener que
P
B
= Q
_
_
2E
b
N
0
_
. (4.45)
Ejemplo 4.5 - Probabilidad de Error de Bit para BPSK.
Encuentre la probabilidad de error para un sistema BPSK con un bit rate de 1Mbit/s. Las
formas de onda recibidas tienen una amplitud de 10mV y se detectan de forma coherente.
Asuma que la PSD del ruido es 10
11
W/Hz y tanto la potencia de las se nales como la energa
por bit est an normalizadas a una carga de 1.
Sol. Dado que la tasa de bits es 1Mbit/s, el tiempo de duraci on por smbolo est a determinado
por T = 1/R = 1s. La amplitud de la se nal esta determinada por
_
2E
b
T
= 10
2
, por lo que se
obtiene que E
b
= 5 10
11
J. Ahora, P
B
= Q
__
2E
b
N
0
_
= Q(
10) = 8 10
4
.
Ejemplo 4.6 - Probabilidad de Error BPSK.
Encuentre el n umero de bits erroneos en un da para un receptor BPSK coherente con las
siguientes caractersticas: Tasa de bits: 5000 bits por segundo, formas de onda de entrada
s
1
(t) = Acos
0
t y s
2
(t) = Acos
0
t, con A = 1mV . La densidad espectral de potencia del
ruido es N
0
= 10
11
W/Hz. Asuma que la potencia de las se nales como la energa por bit est an
normalizadas a una carga de 1.
Sol. La energa por bit es E
b
= P T =
A
2
2
T, luego P
B
= Q
__
2E
b
N
0
_
= Q
_
A
N
0
R
_
=
Q(
20) 4.05 10
6
errores por bit. Ahora, el n umero totales de bits errados en un da es:
5000
bit
s
86400
s
dia
4.05 10
6
= 1750 bits erroneos en un da de transmision.
Ejemplo 4.7 - Probabilidad de Error BPSK.
Un sistema de detecci on coherente para BPSK de operacion continua, tiene errores a una tasa
media de 100 errores por da. Asumiendo una tasa de datos de 1000 bits por segundo y una
potencia de ruido de N
0
= 10
10
W/Hz, calcule la probabilidad de error de bit promedio.
Sol. El n umero total de bits por da que recibe el sistema esta dado po 1000
bit
s
86400
s
dia
=
8.64 10
7 bit
dia
. Entonces, la probabilidad de error por bit promedio estara determinada por
P
B
=
100
errores
dia
8.6410
7 bit
dia
= 1.1574 10
6
errores por bit.
98
CAP
2
(t) dt = (a
1
a
2
)
2
.
Por lo tanto, el numerador del argumento original corresponde a la raiz de la energa E
d
.
Recordando que
2
0
es la varianza del ruido AWGN y que N
0
/2 es su densidad espectral de
potencia, entonces la razon del argumento de la funcion de coerror es simplemente
_
E
d
2N
0
.
Entonces, en terminos m as generales la Ecuacion (4.43) se puede expresar de la forma
P
B
= Q
_
_
E
d
2N
0
_
. (4.47)
Para generalizar a un mas este resultado y poder aplicarlo en se nales que no necesariamente
son antipodales, se trabaja directamente sobre la energa de la diferencia de se nales. Anteri-
ormente se dijo que era normal elegir un set de se nales con la misma energa, por lo que el
desarrollo de la energa diferencial es
E
d
=
_
T
0
[s
1
(t) s
2
(t)]
2
dt
=
_
T
0
s
2
1
(t) dt +
_
T
0
s
2
2
(t) dt 2
_
T
0
s
1
(t)s
2
(t) dt
= 2E
b
2
_
T
0
s
1
(t)s
2
(t) dt
= 2E
b
(1 ) ,
6
Disponible en: Lindsey and Simon, Telecommunication Systems Engineering, Prentice-Hall, Inc., Englewood
Clis, 1973
99
CAP
(1 )E
b
N
0
_
_
. (4.49)
Para = 1 (equivalentemente = 0) las se nales son perfectamente correlacionadas (son
identicas). Para = 1 (equivalentemente = ) las se nales son anticorrelacionadas (antipo-
dales). Dado que las se nales de PSK binario son antipodales entonces se puede jar = 1,
y la Ecuaci on (4.49) se convierte en la Ecuaci on (4.45). Para se nales ortogonales como FSK
binaria (BFSK) = /2, pues los vectores s
1
y s
2
son perpendiculares entre s. As, = 0 y se
obtiene
P
B
= Q
_
_
E
b
N
0
_
. (4.50)
en donde la funcion de co-error est a denida por la Ecuaci on (4.44).
Como dato al margen, es interesante notar que para la modulaci on OOK, la probabilidad de
error de bit descrita por la Ecuacion (4.50), es identica al performance de error para detecci on
coherente de se nales OOK.
4.7.4 Probabilidad de Error de Bit para FSK No-Coherente
Considere el set de se nales equiprobables para FSK binaria, s
i
(t), que fueron previamente
denidas por la Ecuaci on (4.14). Al trabajar con FSK no coherente el termino de fase, , es
desconocido pero se asume constante. El detector estara caracterizado por M = 2 canales de
ltros pasabanda y detectores de envolvente, como se mostr o en la Fig. 4.7. La entrada del
detector corresponde a la se nal recibida, dada por la ecuaci on r(t) = s
i
(t) + n(t), como se ha
discutido hasta ahora, en donde el termino n(t) es un proceso AWGN con densidad espectral
de potencia N
0
/2. Asumiendo que las se nales est an lo sucientemente separadas en frecuencia
para que el traslape sea despreciable, se puede plantear la probabilidad de error de igual forma
como se comenz o para la modulaci on PSK:
P
B
=
1
2
P(H
2
[s
1
) +
1
2
P(H
1
[s
2
) =
1
2
_
0
p(z[s
1
) dz +
1
2
_
+
0
p(z[s
2
) dz
100
CAP
2
0
exp
_
z
2
1
2
2
0
_
, z
1
0
0 , z
1
< 0
(4.52)
en donde
2
0
es el ruido a la salida del ltro. Por otra parte, dado que la entrada al detector de
envolvente 2 es una sinusoidal mas ruido, z
2
(T) tendra una distribucion Rician dada por
p(z
2
[s
2
) =
_
z
2
2
0
exp
_
z
2
1
+A
2
2
2
0
_
I
0
_
z
2
A
2
0
_
, z
2
0
0 , z
2
< 0
(4.53)
en donde A =
_
2E/T. La funci on I
0
(x) es conocida como la funcion de Besel modicada de
primera clase y orden cero, y est a denida por
I
0
(x) =
1
2
_
2
0
exp[x cos ] d . (4.54)
Realizando la integraci on de la Ecuaci on (4.51) en base a la denici on dada por las Ecua-
ciones (4.52) y (4.53), se obtiene que la probabilidad de error de bit para esta modulacion est a
determinada por
P
B
=
1
2
exp
_
A
2
4
2
0
_
(4.55)
Utilizando el hecho de que la varianza del ruido puede ser calculada mediante
2
0
= 2
N
0
2
W
f
, con
W
f
como el ancho de banda del ltro del demodulador de la Fig. 4.7, se obtiene
P
B
=
1
2
exp
_
A
2
4N
0
W
f
_
, (4.56)
en donde se puede notar que el performance de error depende del ancho de banda del ltro
pasabanda, teniendo una disminucion del error a medida que W
f
disminuye. Este resultado
es valido solo si no existe interferencia entre smbolos (o al menos es despreciable) como fue
101
CAP
A
2
T
4N
0
_
=
1
2
exp
_
1
2
E
b
N
0
_
. (4.57)
En la Fig. 4.11 se muestra una comparacion de las probabilidades de error de bit para
distintas tecnicas de modulaci on binaria. Notese que el factor E
b
/N
0
puede se expresado como
la raz on entre la potencia promedio de la se nal y la potencia promedio del ruido (SNR), por lo
que existe una relaci on directa dada por:
E
b
N
0
=
S T
N
0
=
S
R N
0
=
S W
R N
0
W
=
S
N
W
R
= SNR
W
R
en donde W es el ancho de banda de la se nal, S la potencia promedio de la se nal modulante, T
la duracion de cada smbolo, R = 1/T la tasa de bits y N = N
0
W.
Fig. 4.11: Probabilidad de Error de Bit para diferentres tipos de sistemas binarios
Tabla 4.3: Probabilidad de Error para modulaciones binarias estudiadas
Modulacion P
B
PSK Coherente Q
__
2E
b
N
0
_
DPSK No-Coherente
1
2
exp
_
E
b
N
0
_
FSK Coherente Q
__
E
b
N
0
_
FSK No-Coherente
1
2
exp
_
1
2
E
b
N
0
_
102
Captulo 5
Introducci on a la Codicaci on
5.1 Introducci on
En el presente captulo se presentan metodos para codicaci on, con el n ultimo de alcanzar
los lmites para el canal impuestos por Shanon que se estudiaron en el Captulo 2 del curso;
es decir, se quiere alcanzar la capacidad del canal. El problema es que lograr la capacidad del
canal es mucho mas dicil que dise nar buenos c odigos para la fuente.
La introducci on general de objetivo del captulo, se hara mediante un ejemplo particular,
para demostrar que la codicaci on logra mejorar la probabilidad de error en comunicaciones
digitales. Considere entonces un sistema de comunicaciones digital con potencia del transmisor
P y tasa de la fuente R. El sistema emplea una modulaci on PSK con M = 4 (QPSK), en el que
los pares de bits son mapeados en cualquiera de las cuatro se nales dadas por la constelacion de la
Fig. 5.1. La energa de cada se nal determina el radio de la circunferencia mediante
E. N otese
que por trabajar con QPSK, esta energa corresponde a la energa por cada dos bits, por lo que
el radio del crculo est a determinado por
2E
b
, en donde E
b
representa la energa por bit. Lo
interesante de expresarla de esta forma es que la energa por bit est a determinada por el producto
de la tasa de bits por segundo y la potencia del transmisor, en smbolos E
b
= PT = P/R.
1
(t)
2
(t)
2E
b
s
1
s
2
s
3
s
4
Fig. 5.1: Constelaci on de las se nales para QPSK
103
CAP
ITULO 5. INTRODUCCI
ON A LA CODIFICACI
ON
La distancia Euclidiana entre se nales adyacentes esta determinada por 2
E
b
, por ende la
mnima distancia cuadr atica para esta modulacion es
d
2
min
= 4E
b
= 4
P
R
. (5.1)
Considere que ahora que en vez de transmitir una se nal QPSK (que es bidimensional), se utilizan
3 se nales ortonormales para transmitir los mismos 2 bits. Por ejemplo se puede asumir que dicho
set est a dado por (t), (tT), y (t2T), en donde (t) es nula fuera del intervalo de tiempo
[0, T], y adem as que
_
T
0
2
(t) dt = 1. Al tener tres se nales ortonormales, las se nales se pueden
ubicar en una esfera de forma similar al crculo obtenido en el espacio bidimensional. As, el
cuadrado formado por QPSK puede reemplazarse por un cubo, en donde cada una de las se nales
se ubicara en alguno de los 8 vertices. Entonces, al utilizar esta nueva base, las cuatro se nales
originales quedan por ejemplo determinadas por
s
1
(t) =
E[+(t) + (t T) + (t 2T)]
s
2
(t) =
E[+(t) (t T) (t 2T)]
s
3
(t) =
E[(t) (t T) + (t 2T)]
s
4
(t) =
E[(t) + (t T) (t 2T)]
o equivalentemente, en notacion vectorial,
s
1
=
E(+1, 1, 1)
s
3
=
E(1, 1, +1)
s
4
=
E(1, +1, 1) ,
tal como lo muestra la Fig. 5.2. Ahora bien, la distancia Eucludiana entre esta nueva realizaci on
ser a, en todos los casos, la diagonal de las caras. Como estas se nales tienen una energa E,
entonces la distancia al origen de cada vertice sera
ITULO 5. INTRODUCCI
ON A LA CODIFICACI
ON
(t)
(t T)
(t 2T)
s
1
s
2
s
3
s
4
Fig. 5.2: Codicacion en los vertices de un cubo para QPSK
que la disminuci on resultante en la probabilidad de error es equivalente a la obtenida por un
incremento de la potencia en un factor de
4
3
, lo que se traduce en 1.25dB de ganancia de
potencia. Evidentemente esta ganancia no se logro gratis, ya que ahora durante la duraci on
de dos smbolos, 2/R = 2T, se deben transmitir tres se nales, reduciendo el tiempo disponible
de cada se nal en un factor de
2
3
lo que se traduce en un aumento de
3
2
en el ancho de banda
requerido para la transmision. Un segundo problema que se obtiene con el esquema planteado,
es que tiene que ser mucho m as elaborado y el esquema de decodicacion resulta mas complejo.
Los resultados anteriores ejemplican lo que un c odigo busca lograr: disminur la probabili-
dad de error (lo que es equivalente a una SNR efectiva mayor) al costo de incrementar el ancho
de banda y la complejidad del sistema. Sin embargo, es importante mencionar que existen
esquemas de codicaci on-modulacion que incrementan la distancia Euclidiana entre los c odigos
de palabra sin el costo del ancho de banda. En palabras m as simples, para el ejercicio previo,
se realizo un mapeo de un espacio bidimensional (QPSK) a uno tridimensional, equivalente a:
(+1, +1) (+1, +1, +1)
(+1, 1) (+1, 1, 1)
(1, 1) (1, 1, +1)
(1, +1) (1, +1, 1)
en donde se puede observar que el rol de este mapeo es incluir un bit de paridad a los dos bits de
informaci on. Esta paridad es agregada contal de que el n umero de +1 en la palabra codicada
sea siempre impar (o equivalentemente, que el n umero de 1s sea un n umero par).
En forma mas general, un esquema de codicacion de forma de onda toma secuencias de
largo k = RT de la fuente y los mapea en secuencias de largo n de la forma
s
i
=
E (1, 1, . . . , 1)
. .
n
,
105
CAP
ITULO 5. INTRODUCCI
ON A LA CODIFICACI
ON
en donde cada uno de estos puntos se ubican en los vertices de un hipercubo de distancia 2
E.
La razon entre k y n,
R
c
=
k
n
,
es conocida como la tasa del c odigo (code rate). Dado que se mapea en un espacio n-dimensional,
existen 2
n
vertices posibles del hipercubo, de los cuales se deben elegir M = 2
k
vertices como
c odigos de palabra. Evidentemente se quieren elegir aquellos 2
k
vertices que se encuentran lo
m as lejanos posibles entre s, pues eso entrega una distancia Euclidiana grande, reduciendo as
la probabilidad de error. Para el caso anterior, se tena k = 2 y n = 3, y se eligen 2
k
= 4 puntos
de los 2
3
= 8 posibles vertices que posee el cubo tridimensional. La tasa de dicho c odigo es de
R
c
= 2/3.
Asuma que se han elegido 2
k
vertices del hipercubo como c odigos de palabra y que cada
palabra se encuentra al menos a una distancia de d
H
min
de las otras componentes. El par ametro
d
H
min
es llamada la distancia de Hamming mnima para el c odigo. La distancia Hamming entre
dos c odigos c
i
y c
j
es el n umero de componentes en las cuales ambos codigos dieren, es decir
cuando un c odigo es 1 y el otro es cero. La relaci on que existe entre la distancia Euclidiana y
la distancia Hamming se puede obtener mediante la relaci on
_
d
E
ij
_
2
= 4d
H
ij
E ,
lo que signica que las distancias mnimas se pueden relacionar mediante
_
d
E
min
_
2
= 4d
H
min
E.
Asumiendo que se transmiti o la se nal s
i
, se puede demostrar que la probabilidad de error
de codigo est a acotada por
P
M
i
MQ
_
_
4d
H
min
E
2N
0
_
_
M
2
exp
_
d
H
min
E
N
0
_
,
en donde se ha utilizado la cota propia de la funci on de coerror anteriormente denida. Notando
que el contenido de energa de cada palabra del c odigo es nE, y tiene que ser igual al producto
PT, entonces como E
b
= P/R se tiene
E =
PT
n
=
RT
n
E
b
=
k
n
E
b
= R
c
E
b
,
en donde R
c
es la tasa del c odigo. Entonces, como la cota no depende del valor de i, se tiene la
cota general dada por
P
M
M
2
exp
_
d
H
min
R
c
E
b
N
0
_
.
Ahora bien, de no haber utilizado codicacion es decir se habrian utilizado los k vertices del
hipercubo k-dimensional y no k vertices en un hipercubo n-dimensional se tendra la siguiente
probabilidad de error
P
M
M Q
_
_
2E
b
N
0
_
M
2
exp
_
E
b
N
0
_
.
106
CAP
ITULO 5. INTRODUCCI
ON A LA CODIFICACI
ON
Comparando estas dos cotas, se puede concluir que la ganancia en potencia obtenida con la
codicaci on es equivalente a
G = d
H
min
R
c
, (5.3)
que es conocida como ganancia asintotica del codigo, o, simplemente, ganancia del codigo. En
general, R
c
< 1 y d
H
min
1, por lo que la ganancia puede ser tanto menor como mayor a 1.
Resulta obvio que pueden haber muchos c odigos que generan buenas ganancias. La relacion que
dene la ganancia del c odigo enfatiza que dados n y k, el mejor c odigo ser a aquel que genere la
distancia Hamming mas alta.
Con respecto al requerimiento de ancho de banda de la se nal, se tiene que al no utilizar
codicaci on la duraci on de cada uno de los k smbolos es T = 1/R, sin embargo cuando existe
codicaci on en dicho tiempo se tienen que enviar n pulsos, por lo que se produce una reduccion
del tiempo por smbolo de k/n = R
c
. As, la raz on de expansi on del ancho de banda es dado
por
B =
W
c
W
nc
=
1
R
c
=
n
k
(5.4)
en donde W
c
y W
nc
representan los anchos de banda con y sin c odigo respectivamente.
Se puede demostrar que en un canal AWGN, existe una secuencia de c odigos con parametros
(n
i
, k
i
) con un tasa ja (R
c
= k
i
/n
i
, i) que satisface la relacion
R
c
<
1
2
log
_
1 +
P
N
0
W
_
, (5.5)
en donde el lado derecho de la ecuacion es la capacidad del canal en bits por transmision
conforme a la Ecuaci on (2.12). Para esta capacidad la probabilidad de error tiende a cero a
medida que n
i
se vuelve cada vez m as grande.
En este curso se estudian las formas b asicas de codicaci on, dividiendo el estudio en codigos
por bloques y convolucionales. En codicaci on por bloque (como el ejemplo estudiado) las
secuencias de informacion se dividen en bloques de largo k, y cada uno de estos bloques se
mapea en bloques de largo n. Este mapeo es independiente del bloque anterior, por lo que no
tienen memoria. En codigos convolucionales, se utiliza un registro de desplazamiento de largo
k
0
L, como se muestra en la Fig. 5.3. Los k
0
bits de informaci on entran en el registro por vez;
luego n
0
bits que son una combinacion lineal de varios registros se transmiten por el canal.
Estos n
0
bits no solo dependen de los k
0
bits recientes, sino tambien de los (L1)k
0
anteriores
en el registro que constituyen su estado. El n umero de estados en un codigo convolucional es
2
(L1)k
0
y su tasa se dene como R
c
= k
0
/n
0
. La principal diferencia que existe entre los codigos
por bloques y convolucionales es la existencia de memoria en estos ultimos.
Fig. 5.3: Codicador Convolucional
5.2 Codigos Lineales por Bloque
Un codigo de bloque (n, k) es una colecci on de M = 2
k
secuencias binarias, cada una de largo
n, llamadas palabras de codigos. Un c odigo C consta de M palabras c
i
, para 1 i 2
k
. En
107
CAP
ITULO 5. INTRODUCCI
ON A LA CODIFICACI
ON
smbolos,
C = c
1
, c
2
, . . . , c
M
,
en donde cada c
i
es una secuencia de largo n con componentes iguales a 0 o 1. La coleccion de
palabras se llama bloque del c odigo o, simplemente, codigo.
Se dice que un c odigo es lineal si la suma en modulo 2 de cualquiera de sus palabras, es
tambien una palabra. Es decir, si c
i
y c
j
son palabras del codigo, entonces c
i
c
j
tambien debe
ser una palabra del c odigo. Con esta denici on se puede notar que un c odigo lineal por bloque es
un subespacio k-dimensional de un espacio n-dimensional. Adem as, de esta denici on se deriva
que la palabra compuesta solo de ceros (que se denotar a por 0) es una palabra de cualquier
c odigo lineal, dado que se puede escribir c
i
c
i
para cualquier palabra c
i
. Si se considera que
la secuencia de informacion x
1
(de largo k) se mapea en la palabra de c odigo c
1
(de largo n),
y que la secuencia de informaci on x
2
se mapea en la palabra de c odigo c
2
, entonces x
1
x
2
se
mapear a en c
1
c
2
.
Ejemplo 5.1 - Codido Lineal.
Un codigo (5,2) es denido, por ejemplo mediante las siguientes palabras
C
1
= 00000, 10100, 01111, 11011 ,
en donde el mapeo de la informaci on se hace de la siguiente forma:
00 00000
01 01111
10 10100 (5.6)
11 11011 .
Es sencillo vericar el c odigo es lineal, sin embargo el c odigo dado por
C
2
= 00000, 11100, 01111, 11011 ,
no lo es pues la suma de la segunda y tercera palabra no es una palabra del codigo.
Se entendera por distancia Hamming entre dos palabras del c odigo c
i
y c
j
, como el n umero
de componentes a las cuales 2 palabras de c odigo dieren, es decir el n umero de componentes
en donde una de las palabras es 1 y la otra es 0. La distancia Hamming sera denotada por
d(c
i
, c
j
), a diferencia de la distancia Euclidiana en donde se har a la diferencia con el superndice
E
, llamandola d
E
. La distancia mnima de un codigo, corresponde a la mnima distancia de
Hamming entre dos palabras diferentes, es decir
d
min
= min
c
i
, c
j
i = j
d(c
i
, c
j
) . (5.7)
El peso de Hamming o, simplemente, el peso de una palabra c
i
, corresponde al n umero
de unos en la palabra, y se denota por w(c
i
). Adem as se hablar a del peso mnimo de un codigo
108
CAP
ITULO 5. INTRODUCCI
ON A LA CODIFICACI
ON
como el valor mnimo de todos los pesos, sin incluir la palabra compuesta solo de ceros, 0.
w
min
= min
c
i
=0
w(c
i
) (5.8)
Asuma un c odigo lineal en donde c es una palabra de dicho codigo; luego no es dicil
notar que la relaci on w(c) = d(c, 0) es v alida para cualquier palabra. Adem as si c
i
y c
j
son
palabras del mismo c odigo lineal y c = c
i
c
j
entonces d(c
i
, c
j
) = w(c). Esto implica que
en cualquier c odigo lineal, correspondientemente a cualquier peso de una palabra, existe una
distancia Hamming entre dos palabras, y, correspondientemente a cualquier distancia Hamming,
existe un peso de una palabra. En particular, esto demuestra que en cualquier c odigo lineal,
d
min
= w
min
.
5.2.1 Matrices de Generaci on y Paridad
En un codigo lineal de (n, k) considere las secuencias de informacion e
1
= (1000 0), e
2
=
(0100 0), e
3
= (0030 0), . . . , e
k
= (0000 1) que se mapean en las palabras g
1
, g
2
, g
3
,
. . . , g
k
, respectivamente, en donde cada g
i
es una secuencia binaria de largo n. Ahora, cualquier
secuencia de informacion x = (x
1
, x
2
, x
3
, . . . , x
k
) puede ser escrito de la forma
x =
k
i=1
x
i
e
i
, (5.9)
por lo que cada una de las palabras del c odigo en forma correspondiente seran
c =
k
i=1
x
i
g
i
. (5.10)
Si se dene la Matriz de Generaci on para el c odigo como
G
=
_
_
g
1
g
2
g
3
.
.
.
g
k
_
_
=
_
_
g
11
g
12
g
13
g
1n
g
21
g
22
g
23
g
2n
g
31
g
32
g
33
g
3n
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
g
k1
g
k2
g
k3
g
kn
_
_
(5.11)
entonces, de la Ecuaci on (5.10), se puede escribir
c = xG (5.12)
en donde x es vector la de k componentes, y G es la matriz de generacion, con dimensiones
kn. Esto demuestra que cualquier combinaci on linear de las las en la matriz de generaci on es
una palabra del codigo. Notese que el rango de la matriz de generacion es k ya que por denicion,
k es la dimensi on del subespacio. Dado que la matriz de generaci on describe completamente un
c odigo, entonces al conocerla, la estructura del encoder es realmente sencilla.
109
CAP
ITULO 5. INTRODUCCI
ON A LA CODIFICACI
ON
Ejemplo 5.2 - Codigo Lineal y Matriz de Generaci on.
Determinar la matriz de generaci on para el c odigo C = 00000, 10100, 01111, 11011 y determine
la secuencia de generaci on de las palabras.
Sol. Primero, es necesario determinar la linealidad del c odigo. Para esto, se realiza la suma
componente a componente. Entonces, como c
1
c
i
= c
i
, i y c
i
c
i
= 0 = c
1
, solo resta evaluar
los siguientes elementos: c
2
c
3
= 11011 = c
4
, c
2
c
4
= 01111 = c
3
, y c
3
c
4
= 10100 = c
2
, por
lo que el c odigo es lineal. Dado el mapeo del codigo de la Ecuaci on (5.6), se tiene que los valores
de g
1
y g
2
est an dados por los c odigos de 10 y 01, vale decir 10100 y 01111 respectivamente.
As la matriz de generacion esta determinada por G =
_
10100
01111
_
. Para las secuencias de
informaci on (x
1
, x
2
), las palabras del c odigo estan dadas por la relaci on c = xG, que para este
ejemplo sera (c
1
, c
2
, c
3
, c
4
, c
5
) = (x
1
, x
2
)G = [x
1
, x
2
, x
1
x
2
, x
2
, x
2
]
T
, lo que implica que c
1
= x
1
,
c
2
= x
2
, c
3
= x
1
x
2
, c
4
= c
5
= x
2
.
El c odigo utilizado en el Ejemplo 5.2, posee la propiedad que la palabra correspondiente a
cada secuencia de informacion comienza con una replica de dicha secuencia seguida por bits
extras.
Este tipo de c odigos son llamados codigos sistematicos y los bits extras se les llama bits
de chequeo de paridad. Una condicion necesaria y suciente para que un c odigo sea sistem atico
es que la matriz de generacion sea de la forma
G = [I
k
[ P]
en donde I
k
es la matriz identidad de dimension k k y P es una matriz binaria de k (nk).
En un c odigo sistematico, se tiene
c
i
=
_
x
i
, 1 i k
k
j=1
p
ji
x
j
, k + 1 i n .
Por denici on un c odigo lineal C es un subespacio de dimensi on k de un espacio de di-
mensi on n. Del algebra lineal, se sabe que al tomar todas las secuencias de largo n que son
ortogonales a todos los vectores del subespacio k-dimensional, el resultado ser a un subespacio
lineal de dimensi on (n k) y que recibira el nombre de complemento ortogonal del subespacio
de dimension k. Este nuevo subespacio (n k)-dimensional dene un nuevo codigo lineal de
(n, n k) que recibe el nombre de codigo dual del codigo (n, k) original y se denota por C
.
Resulta evidente que las palabras del codigo original C y las del codigo dual C
son ortogonales
entre si. En particular, si se denota por H a la matriz de generacion del c odigo dual, esta tendra
una dimensi on (n k) n, y cualquier palabra del c odigo original ser a ortogonal con todas las
las de H, es decir
cH
T
= 0, c C . (5.13)
La matriz H que es la matriz generadore del c odigo dual C
ITULO 5. INTRODUCCI
ON A LA CODIFICACI
ON
En el caso especial de c odigos sistematicos, se puede demostrar que
H = [P
T
[ I
nk
] . (5.15)
Ejemplo 5.3 - Matriz de Paridad.
Encuentre la matriz de paridad del c odigo utilizado en el Ejemplo 5.2.
Sol. Dado que G =
_
10100
01111
_
, se puede hacer la descomposicion en I
k
=
_
10
01
_
y P =
_
100
111
_
. Entonces, al tomar la traspuesta P
T
=
_
_
11
01
01
_
_
, se puede obtener H =
_
_
11100
01010
01001
_
_
.
Ejemplo 5.4 - Ecuaciones de Paridad.
Encuentre las ecuaciones de paridad para el Ejemplo 5.3.
Sol. Las ecuaciones se obtienen de la Ecuaci on (5.13), cH
T
= 0, luego se obtiene
c
1
c
2
c
3
= 0
c
2
c
4
= 0
c
2
c
5
= 0 .
5.3 Codigos Convolucionales
111
Libros de Referencia.
La informaci on contenida en el presente texto, ha sido extrada de variados textos escritos
que posee en DIE, el Laboratorio de Transmision y simplemente yo. Toda la informacion aca
expresada tiene caracter netamente educacional y no pretende ser en ninguna forma un atentado
contra los derechos de copia ni de autor de cada uno de los libros que aca se citan. El contenido
grueso de esta obra es de autora de:
Fundamentals of Communication Systems, John Proakis, Masoud Salehi. c _2005,
Pearson Education, Inc.
Introducci on a los Sistemas de Comunicaciones, F. G. Stremler. c _ 1993, Addi-
son Wesley Iberoamericana, S.A.
Digital Communications - Fundamentals and Applications, Bernard Sklar.
c _ 1998, Pretince-Hall Inc.
Elements of Information Theory, Thomas Cover, Joy Thomas. c _ 1999, John
Wiley & Sons, Inc.
Elementary Statistics, Paul Hoel. c _ 1976, John Wiley & Sons, Inc.
112