You are on page 1of 117

UNIVERSIDAD DE CONCEPCI

ON
FACULTAD DE INGENIER

IA
DEPARTAMENTO DE INGENIER

IA EL

ECTRICA
APUNTES
COMUNICACIONES DIGITALES
Cod. 549 175 - Ingeniera Civil en Telecomunicaciones
Prof. Sebastian E. Godoy
Tercera Edici on
July 23, 2010
Prologo
El presente apunte, nace bajo la necesidad de lograr un mejor entendimiento de los alumnos que
toman la asignatura de Comunicaciones Digitales, obligatoria para la carrera de Ingeniera
Civil en Telecomunicaciones de la Facultad de Ingeniera, Universidad de Concepci on.
Esta asignatura es planteada con la concepci on original de que el alumno maneja los con-
ceptos de los sistemas de comunicaci on anal ogicos (Sistemas de Comunicaci on Cod. 549
164) y principalmente de estadstica y procesos aleatorios (Procesos Aleatorios y Estadstica
Aplicada Cods. 549 150, 549 103 respectivamente) cursados como requisitos previos de la
presente.
Sinceramente, quisiera agradecer a todos los alumnos que han cursado la asignatura ya que
en forma directa o indirecta han aportado al desarrollo de este documento mediante sugerencias,
comentarios o apoyo en la escritura.
El documento est a totalmente escrito utilizando L
A
T
E
X mediante la interfaz graca Kile
para Ubuntu Linux. El formato utilizado en el desarrollo de este documento, est a basado en
los apuntes del Prof. Jose Espinoza, con las respectivas modicaciones conforme el curso lo
requiere.
Sebastian E. Godoy
Ingeniero Civil Electronico
Magister en Ing. Electrica
Colaborador Academico
Departamento de Ing. Electrica
Facultad de Ingeniera
Universidad de Concepcion
Casilla 160-C, Correo 3
Concepcion, CHILE
Tel: +56 (41) 2203633
Fax: +56 (41) 2246999
e-mail: segodoy@udec.cl
web: http://www.udec.cl/~segodoy
i

Indice General
Prologo i
1 Introduccion 1
1.1 Sistema de Comunicaciones Digitales . . . . . . . . . . . . . . . . . . . . . . . . 1
1.1.1 Por que comunicaciones digitales? . . . . . . . . . . . . . . . . . . . . . 2
1.2 Probabilidades . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.2.1 Revision Basica de Conceptos . . . . . . . . . . . . . . . . . . . . . . . . 2
1.2.2 Variables Aleatorias . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.2.3 Valor Esperado . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.3 Procesos Aleatorios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.3.1 Estacionalidad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.4 Transformada y Series de Fourier . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.4.1 Series de Fourier . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.4.2 Transformada de Fourier . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.5 Densidad Espectral . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
1.5.1 Se nales de Energa y Potencia . . . . . . . . . . . . . . . . . . . . . . . . 13
1.5.2 Teorema de Parseval . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
1.5.3 Densidad Espectral de Energa (ESD) . . . . . . . . . . . . . . . . . . . . 14
1.5.4 Densidad Espectral de Potencia (PSD) . . . . . . . . . . . . . . . . . . . 15
1.6 Conversion Analogo-Digital . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
1.6.1 Muestro de una Se nal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
1.6.2 Cuantizaci on . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
2 Teora de la Informaci on 21
2.1 Introducci on . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
2.2 Modelo de las Fuentes de Informaci on . . . . . . . . . . . . . . . . . . . . . . . . 21
2.2.1 Concepto de Informaci on . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
2.2.2 Medida de la Informacion . . . . . . . . . . . . . . . . . . . . . . . . . . 22
2.2.3 Entropa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
2.2.4 Entropa Conjunta y Condicional . . . . . . . . . . . . . . . . . . . . . . 24
2.2.5 Informacion Mutua . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
2.3 Teorema de Codicaci on de la Fuente . . . . . . . . . . . . . . . . . . . . . . . . 26
2.3.1 Codigo Human . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
2.3.2 Codigo Lempel-Ziv . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
ii
2.3.3 Codigo ASCII . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
2.4 Representacion de Canales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
2.4.1 Canales con Ruido Aditivo Gaussiano . . . . . . . . . . . . . . . . . . . . 33
2.4.2 Canales con Ruido y Filtro . . . . . . . . . . . . . . . . . . . . . . . . . . 34
2.5 Capacidad del Canal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
2.5.1 Capacidad de Canal Gaussiano . . . . . . . . . . . . . . . . . . . . . . . 36
3 Modulacion en Banda Base 38
3.1 Introducci on . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
3.2 Muestreo de Se nales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
3.2.1 Recuperacion de Se nales Muestreadas . . . . . . . . . . . . . . . . . . . . 38
3.2.2 Errores en el Muestreo . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
3.2.3 Muestreo Natural . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
3.2.4 Sample-and-Hold . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
3.3 Cuantizacion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
3.3.1 Cuantizaci on Escalar . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
3.3.2 Cuantizaci on Vectorial . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
3.4 Codicaci on . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
3.5 Fuentes de Corrupci on . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
3.5.1 Efectos del Muestreo y la Cuantizaci on . . . . . . . . . . . . . . . . . . . 54
3.5.2 Efectos del Canal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
3.6 Pulse-Amplitude Modulation (PAM) . . . . . . . . . . . . . . . . . . . . . . . . 55
3.7 Pulse-Code Modulation (PCM) . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
3.7.1 Representaci on de Dgitos Binarios . . . . . . . . . . . . . . . . . . . . . 57
3.7.2 Tipos de Cuantizadores . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
3.7.3 PCM Diferencial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64
3.8 Modulaci on Delta . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
3.8.1 Modulaci on Delta Adaptiva . . . . . . . . . . . . . . . . . . . . . . . . . 67
4 Modulaciones Digitales Pasabanda 69
4.1 Introducci on . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69
4.2 Se nales y Ruido . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70
4.2.1 Ruido en Sistemas de Comunicaciones . . . . . . . . . . . . . . . . . . . 70
4.2.2 Representaci on Geometrica de Se nales . . . . . . . . . . . . . . . . . . . 71
4.3 Tecnicas de Modulaci on Digital Pasabanda . . . . . . . . . . . . . . . . . . . . . 76
4.3.1 Amplitude Shift Keying (ASK) . . . . . . . . . . . . . . . . . . . . . . . 77
4.3.2 Frequency Shift Keying (FSK) . . . . . . . . . . . . . . . . . . . . . . . . 77
4.3.3 Phase Shift Keying (PSK) . . . . . . . . . . . . . . . . . . . . . . . . . . 77
4.3.4 Amplitude Phase Shift Keying (APK) . . . . . . . . . . . . . . . . . . . 78
4.4 Detecci on de Se nales en la presencia de AWGN . . . . . . . . . . . . . . . . . . 79
4.4.1 Region de Decision . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79
4.4.2 Receptor de Correlaci on . . . . . . . . . . . . . . . . . . . . . . . . . . . 80
4.4.3 Detector por Matched-Filter . . . . . . . . . . . . . . . . . . . . . . . . . 84
4.5 Detecci on Coherente . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 86
iii
4.5.1 Deteccion Coherente para PSK . . . . . . . . . . . . . . . . . . . . . . . 86
4.5.2 Deteccion Coherente para PSK M ultiple . . . . . . . . . . . . . . . . . . 87
4.5.3 Deteccion Coherente de FSK . . . . . . . . . . . . . . . . . . . . . . . . . 89
4.6 Detecci on No-Coherente . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 90
4.6.1 Deteccion No-Coherente de FSK . . . . . . . . . . . . . . . . . . . . . . . 90
4.6.2 Deteccion de PSK Diferencial . . . . . . . . . . . . . . . . . . . . . . . . 94
4.7 Desempe no de Error en Sistemas Binarios . . . . . . . . . . . . . . . . . . . . . 96
4.7.1 Probabilidad de Error de Bit para BPSK Coherente . . . . . . . . . . . . 97
4.7.2 Probabilidad de Error de Bit para DPSK . . . . . . . . . . . . . . . . . . 99
4.7.3 Probabilidad de Error de Bit para FSK Coherente . . . . . . . . . . . . . 99
4.7.4 Probabilidad de Error de Bit para FSK No-Coherente . . . . . . . . . . . 100
5 Introduccion a la Codicaci on 103
5.1 Introducci on . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103
5.2 C odigos Lineales por Bloque . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 107
5.2.1 Matrices de Generaci on y Paridad . . . . . . . . . . . . . . . . . . . . . . 109
5.3 C odigos Convolucionales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111
iv
Captulo 1
Introducci on
1.1 Sistema de Comunicaciones Digitales
En el curso anterior de Sistemas de Comunicaciones, se introdujo el concepto b asico de un sis-
tema de comunicaci on.

Este consta de tres partes fundamentales: transmisor, canal y receptor.
A su vez, el transmisor est a compuesto por el codicador y el modulador. El canal es aquel que
agrega atenuacion, ruido, distorsi on e interferencia que deben ser compensadas en el receptor
mediante el proceso de detecci on (demodulacion y decocaci on) y posiblemente un proceso de
ltrado (ecualizaci on).
Resulta importante recordar que las limitaciones que se tienen para obtener comunicaciones
conables en un sistema de transmisi on de se nales an alogas, estan determinadas por el canal
de comunicaci on. En particular, dicho canal debe permitir el paso de la se nales, teniendo un
ancho de banda limitado para tales efectos.
El concepto de comunicaciones digitales nace de la necesidad de transmitir informacion que
no se encuentra como se nales continuas sino como un mensaje binario. Cuando se habla de
mensaje binario se hace referencia a una secuencia de dos tipos de pulsos de forma conocida
ocurriendo en intervalos regulares de tiempo, T. A pesar de que la forma de dichos pulsos es
conocida a-priori, la ocurrencia de ceros o unos es desconocida por lo que se consideran se nales
no determinsticas. La tasa a la que se muestran los pulsos es a R =
1
T
, siendo T la duraci on
de cada pulso tal como se dijo anteriormente.
El presente curso tiene entonces por objetivo, familirizar a los alumnos con el concepto de
enviar informacion en forma digital. Para lograr esto, el curso se subdividir a en dos grandes
partes. La primera parte considerar a como llegar de una se nal an aloga a una digital pasando por
el proceso de muestreo, cuantizacion y codicaci on. Esto se logra aplicando teora estadstica
sobre las fuentes de informaci on y el canal, para jar las cotas que se puedan lograr de la
comunicaci on en s. Entiendase como cotas, la maxima compresi on de datos y m axima tasa
de bits por segundo. Esta parte se concluye estudiando los modelos cl asicos para realizar esta
conversion analogo-digital, como lo son PCM o PAM.
La segunda gran etapa del curso incluye la transmision de esta informaci on mediante canales
pasabanda, de manera similar a lo que se estudi o en comunicaciones analogas. Esto quiere decir
que se estudiar a la modulaci on y demodulaci on digital en amplitud, frecuencia y fase (ASK,
FSK y PSK respectivamente), para concluir con una introduccion a la codicaci on que es muy
1
CAP

ITULO 1. INTRODUCCI

ON
importante al momento de hablar de una transmisi on segura de datos.
1.1.1 Por que comunicaciones digitales?
Existen muchas razones que hacen preferibles las comunicaciones digitales frente a las analogas.
La primera ventaja es que las se nales digitales, a diferencia de las analogas, pueden ser recon-
strudas (regeneradas) utilizando repetidores. Estos vuelven a amplicar la se nal recuperando
las modicaciones y la degradaci on que pudo haber sufrido dicha se nal en el canal de trans-
misi on. Por otra parte, los circuitos digitales son mas faciles de reproducir, mas econ omicos
y m as exibles, pues sin importar si la se nal es de televisi on, telefono o telegrafo, siempre se
tratar a de la misma forma para la transmisi on ya que un bit es un bit. Ademas los circuitos
digitales son menos propensos a distorciones de interferencia que los an alogos dados los rangos
que existen para cada estado digital; a esto se agrega que existen metodologas para detectar
errores en la transmisi on.
Las principales ventajas y desventajas que presentan las Comunicaciones Digitales se mues-
tran en la Tabla 1.1.
Tabla 1.1: Ventajas y Desventajas de las Comunicaciones Digitales
Ventajas Desventajas
Generalmente los errores pueden
ser corregidos.
Resulta sencillo implementar la
encriptaci on.
Se puede tener un alto rango
din amico de los datos.
Generalmente se requiere un
mayor ancho de banda que con
comunicaciones an alogas.
Requieren sincronizaci on.
1.2 Probabilidades
Como se dijo en la secci on anterior, dado que no se conoce a-priori la ocurrencia de ceros o unos
en una se na digital, entonces no se puede tratar como una se nal determinstica. Por lo tanto, es
necesario recordar algunos conceptos de estadstica como variables y procesos aleatorios, valor
esperado, autocorrelacion y estacionalidad de procesos aleatorios.
1.2.1 Revision Basica de Conceptos
Se llama Evento a un resultado en particular de un experimento, Espacio Muestral a la
colecci on de todos los resultados de eventos posibles.
2
CAP

ITULO 1. INTRODUCCI

ON
La probabilidad de que ocurra un evento A denotada por P(A), esta denida como
P(A) = lim
n
n
A
n
en donde n
A
es al n umero de veces que A aparece en los n intentos en que se realizo el ex-
perimento. As, P ser a una probabilidad si es una funcion de eventos y satisface las siguientes
condiciones:
1. P(A) 0 para cualquier evento A.
2. P() = 1.
3. Si A
1
, A
2
, . . . , A
n
son eventos disjuntos, entonces P(A
1
A
2
A
n
) =

n
i=1
P(A
i
)
4. P(A) < 1 para cualquier evento A.
El concepto de Probabilidad Condicional, busca cuanticar la probabilidad de que ocurra
un evento A, dado que ya ocurrio un evento B. Se denota por P(A[B) y est a denida por:
P(A[B) =
P(A, B)
P(B)
(1.1)
en donde p(B) ,= 0.
Por otro lado, el Teorema de Bayes dice que:
P(A, B) = P(B[A)P(A) = P(A[B)P(B) (1.2)
Luego, la probabilidad condicional estar a dada por
P(A[B) =
P(B[A)P(A)
P(B)
Se dice que dos eventos A y B son independientes si y solo si
P(A[B) = P(A) P(B[A) = P(B)
Ejemplo 1.1 - Probabilidad de Error.
Considere el canal de comunicacion digital de 1 bit. Determine la probabilidad del evento error,
considerando que el transmisor tiene la misma probabilidad de enviar un cero o un uno.
Sol. Los resultados posibles son: recibir un cero cuando se envio un cero o cuando se envi o un
uno, o recibir un uno cuando se envi o un cero o un uno, lo que podra ser resumido en =
(0t, 0r), (0t, 1r), (1t, 0r), (1t, 1r). As el evento error estara determinado por el subconjunto
E = (0t, 1r), (1t, 0r). Asumiendo que la probabilidad de recibir un error puntual es p, entonces
P(0r[1t) = P(1r[0t) = p, luego se tiene por Teorema de Bayes que P(0t, 1r) = P(0r[1t)P(0t) =
0.5p y de igual forma P(1t, 0r) = 0.5p. Ahora bien, la probabilidad del evento error sera
P(E) = P[(0t, 1r), (1t, 0r)] = P(0t, 1r) + P(1t, 0r) = 0.5p + 0.5p = p.
3
CAP

ITULO 1. INTRODUCCI

ON
1.2.2 Variables Aleatorias
Una variable aleatorioa X(A) corresponde a una relacion funcional entre un evento aleatorio
A y un n umero real. En general por notaci on simplemente se utiliza solo X como designaci on
para la variable aleatoria, dejando la relacion con el evento A de forma implcita.
La Funcion de Distribucion de Probabilidad denotada por F
X
(x) de la variable aleato-
ria X est a determinada por:
F
X
(x) = P(X x) (1.3)
en d onde P(X x) es la probabilidad de que el valor de la variable aleatoria sea menor o igual
que el n umero real x. La funcion de distribucion tiene las siguientes propiedades:
1. 0 F
X
(x) 1.
2. F
X
(x
1
) F
X
(x
2
), si x
1
x
2
.
3. F
X
() = 0.
4. F
X
(+) = 1.
La Funcion de Densidad de Probabilidad (PDF) denotada por f
X
(x) esta denida por:
f
X
(x) =
dF
X
(x)
dx
(1.4)
y recibe su nombre en base a que la probabilidad del evento x
1
X x
2
es:
P(x
1
X x
2
) = P(X x
2
) P(X x
1
)
= F
X
(x
2
) F
X
(x
1
)
=
_
x
2
x
1
f
X
(x) dx
La PDF tiene las siguientes propiedades:
1. Es siempre una funcion no negativa: f
X
(x) 0.
2. Tiene un area total unitaria:
_

f
X
(x) dx = F
X
(+) F
X
() = 1
1.2.3 Valor Esperado
Se dene el Valor Esperado o esperanza de una variable aleatoria continua X como
EX =
_

x p
X
(x) dx (1.5)
y a la vez corresponde a la media de X, m
X
, o primer momento. El operador E. tiene las
siguientes propiedades
4
CAP

ITULO 1. INTRODUCCI

ON
Linealidad. Si X
i
, i = 1, 2, . . . , n son diferentes variables aleatorioas y a
i
son escalares deter-
minsticos, entonces
E
_

i
a
i
X
i
_
=

i
a
i
EX
i

Transformacion Lineal. Sean A y B matrices determinsticas, entonces


EAX = A EX
EXB = EX B
Invarianza de Transformacion. Sea Y = g(X) una funci on evaluada sobre el vector de
variables aleatoria X, entonces
_
+

Y p
Y
(Y ) dY =
_
+

g(X)p
X
(X) dX ,
por lo que
EY = Eg(X) ,
aun cuando las integrales sean calculadas sobre diferentes funciones de densidad de prob-
abilidad.
Se dene tambien el n-esimo momento de la variable aleatoria mediante:
EX
n
=
_

x
n
p
X
(x) dx (1.6)
en donde se puede notar que la media corresponde al primer momento (n = 1) y la media
cuadr atica ser a el segundo momento. Adem as se pueden denir los Momentos Centrales que
corresponden a los momentos de la diferencia entre X y su media m
X
. La Varianza de X
corresponde al segundo momento central, por lo que esta denida por:
var X = E
_
(X m
X
)
2
_
=
_

(x m
X
)
2
p
X
(x) dx (1.7)
la que tambien se denota por
2
X
. Su raiz cuadrada,
X
, corresponde a la llamada desviacion
estandar de X. La relacion que existe entre la varianza y el valor medio cuadratico est a dada
por:

2
X
= E
_
(X m
X
)
2
_
= E
_
X
2
2m
X
X + m
2
X
_
= E
_
X
2
_
EX
2
, (1.8)
por lo que en variables de media nula, la varianza corresponde a la esperanza del valor cuadr atico
de la variable en s. Para cualquier constante a, se verican para la varianza:
1. var aX = a
2
var X
2. var a = 0
3. var X + a = var X .
Es importante mencionar que para variables aleatorias independientes, el valor esperado sera
dado por el producto de los valores esperados individuales, EXY = EX EY .
5
CAP

ITULO 1. INTRODUCCI

ON
1.3 Procesos Aleatorios
Un proceso aleatorio puede ser visto como una funci on de dos variables: un evento A y el
tiempo, por lo que para cada instante de tiempo se tienen diferentes funciones. As para un
instante t
k
, la funcion X(A, t) es una variable aleatoria X(t
k
). Por notaci on, simplemente se
hablar a de procesos aleatorios marcando la dependencia del tiempo, vale decir X(A, t) X(t)
dejando la dependencia funcional al evento A de forma implcita.
Dada la incertidumbre envuelta en los procesos aleatorios, solo se puede dar una descripci on
parcial de ellos. Para esto se utiliza el concepto de la media y de la funci on de autocorrelacion.
La media de un proceso aleatorio en tiempo continuo est a denido por la Ecuacion (1.5); para el
caso de procesos aleatorios en tiempo discreto, la integral cambia a sumatoria nita, y se tiene
que considerar que se eval ua en el instante t
k
, vale decir se calcula m
X
(t
k
). Indirectamente, esto
quiere decir que la variable aleatoria X corresponde a la observaci on del proceso aleatorio en el
instante t
k
.
La autocorrelacion de un proceso aleatorio se estudia en la siguiente secci on.
Ejemplo 1.2 - Procesos Aleatorios.
Considere un detector inal ambrico que se modela linealmente por la ecuaci on Y (t) = aX(t)+b+
U(t) en donde a y b son constantes determinsticas; X(t) es una variable aleatoria uniformemente
distribuida en el rango [X
min
, X
max
]. Considerando que U(t) es un ruido Gaussiano con media
nula y varianza conocida, se pide encontrar las constantes a y b.
Sol. Asumiendo que los procesos aleatorios son estacionarios, la media estar a determinada
por EY = EaX(t) + b + U(t) = aEx + b. Por otra parte, su varianza estara dada
por
2
Y
= a
2

2
X
+
2
u
. As, la ganancia sera a =
_

2
Y

2
u
/
X
, y el oset se puede despejar
directamente y obtener b = Ey aEx. Esto es valido pues los valores de Ex y
X
son
conocidas desde la distribuci on uniforme.
1.3.1 Estacionalidad
Autocorrelacion de Procesos Aleatorios
La autocorrelacion de un proceso aleatorio X(t) se dene como
R(t
1
, t
2
) = EX(t
1
)X(t
2
) (1.9)
en donde X(t
1
) y X(t
2
) corresponden a la observaci on del proceso aleatorio en los instante t
1
y
t
2
respectivamente.
Denici on de Estacionalidad
Un proceso aleatorio X(t) es llamado Estacionario en el Sentido Estricto si ninguna de sus es-
tadsticas dependen de ninguna forma del tiempo. Un proceso aleatorio es llamado Estacionario
en Sentido Amplio (wide-sense stationary, WSS) si su media y su funcion de autocorrelacion no
6
CAP

ITULO 1. INTRODUCCI

ON
varan ni dependen del tiempo. As un proceso es WSS si:
EX(t) = m
X
y, R
X
(t
1
, t
2
) = R
X
(t
2
t
1
) .
Considerando que para un proceso aleatorio WSS, la autocorrelacion dependera solo de
la diferencia temporal y no del instante de tiempo en s, cualquier par de valores de X(t)
que esten separados en el tiempo por = t
2
t
1
tienen el mismo valor de correlacion. As,
para sistemas estacionarios la autocorrelaci on se expresa mediante la relacion R(t
1
, t
2
) R().
Luego, para un proceso aleatorio real y WSS, su funci on de autocorrelacion, R(), tiene las
siguientes propiedades:
1. Es simetrica con respecto al origen: R() = R().
2. El m aximo ocurre en el origen: R() R(0) , .
3. El valor en el origen corresponde a la energa/potencia de la se nal
No resulta dicil notar que si un proceso es estrictamente estacionario, tambien lo es en
sentido amplio, pero no viceversa. En el presente curso se utilizar a el concepto de estacionalidad
para hablar de procesos WSS, dejando en forma explcita cuando se hable de estacionalidad
estricta.
Ejemplo 1.3 - Proceso Aleatorio Estacionario.
Sea el siguiente proceso aleatorio X(t) = Acos(
0
t + ), con A y
0
constantes y U[0, 2].
Determine su estacionalidad.
Sol. La media del proceso es EX = EAcos(
0
t + ) = 0 ya que se calcula la integral
sobre un periodo completo de la fase. La funcion de autocorrelacion para este proceso esta
determinada por
R(t
1
, t
2
) = EAcos(
0
t
1
+ )Acos(
0
t
2
+ )
= A
2
E
_
1
2
cos[
0
(t
1
t
2
)] +
1
2
cos[
0
(t
1
+ t
2
) + 2]
_
=
A
2
2
cos[
0
(t
1
t
2
)] ,
pues el segundo termino corresponde al calculo de la integral sobre el periodo completo de la
fase y se hace nulo. Dado que la funcion de autocorrelaci on depende de la diferencia de tiempo
y no del valor absoluto, entonces corresponde a un proceso aleatorio estacionario.
Las cantidades y par ametros electricos fundamentales pueden ser relacionados con los mo-
mentos de un proceso aleatorio de la siguiente manera
1. La media m
X
es igual al valor DC de la se nal.
2. La cantidad m
2
X
es igual a la potencia normalizada de la componente continua.
7
CAP

ITULO 1. INTRODUCCI

ON
3. El segundo momento de X(t), EX
2
(t), es igual a la potencia normalizada total.
4. La cantidad
_
EX
2
(t) es igual al valor rms de la se nal de corriente o voltaje.
5. La varianza es igual a la potencia normalizada promedio en la componente AC de la se nal.
6. La desviaci on est andar es el valor RMS de la componente alterna de la se nal.
1.4 Transformada y Series de Fourier
1.4.1 Series de Fourier
Las series de Fourier permiten descomponer cualquier se nal peri odica x(t) en una sumatoria
de exponenciales complejas (senos y cosenos), lo que es de gran ayuda en comunicaciones al
realizar an alisis de sistemas lineales e invariantes en el tiempo (LTI). Una serie de Fourier es la
expansi on ortogonal de una se nal peri odica con periodo T
0
, cuando el set de se nales e
jn
0
t

n=
es utilizado como base para dicha expansion. N otese que
0
= 2f
0
= 2
1
T
0
. Con esta base,
cualquier se nal peri odica
1
x(t) puede ser expresada como
x(t) =

n=
x
n
e
jn
0
t
, (1.10)
en donde los terminos x
n
son llamados coecientes de la serie de Fourier de la se nal x(t), y
est an denidos por
x
n
=
1
T
0
_
+T
0

x(t)e
jn
0
t
dt , (1.11)
La variable es cualquier n umero real elegido correctamente. La frecuencia f
0
es llamada
frecuencia fundamental de la se nal periodica, y las frecuencias f
n
= nf
0
son llamados los n-
esimos arm onicos. En la mayora de los casos, tanto = 0 como = T
0
/2 son buenas
elecciones dependiendo de la paridad de la se nal.
Este tipo de series de Fourier es conocido como forma compleja de la series de Fourier, y
puede ser aplicada tanto en se nales reales como complejas, mientras estas sean periodicas. En
general, los coecientes de la serie de Fourier x
n
son n umeros complejos aun cuando x(t) sea
una se nal real.
Ejemplo 1.4 - Series Complejas de Fourier.
Para la la se nal w(t) =
_
A , t (2k
T
0
2
, (2k + 1)
T
0
2
]
0 , i.o.c.
en donde el par ametro k asume los
valores k = 0, 1, 2, . . . , se pide encontrar su serie de Fourier.
Sol. Se comienza calculando el valor continuo: c
0
=
A
T
0
_
T
0
2
0
dt =
A
2
. Ahora, los otros valores de
1
En rigor, la condicion suciente para la existencia de una serie de Fourier, es que la se nal w(t) satisfaga las
condiciones de Dirchlet. Para mas informacion consultar este link.
8
CAP

ITULO 1. INTRODUCCI

ON
los coecientes ser an: c
n
=
A
T
0
_
T
0
2
0
e
jn
0
t
dt = j
A
2n
(e
jn
1). Dado que para n par, e
jn
= 1
y para n impar e
jn
= 1, los coecientes est an dados por:
c
n
=
_
_
_
A
2
, n = 0
j
A
n
, n impar
0 , n par
.
En el ejemplo anterior, se obtuvo que el valor continuo de la se nal es la mitad de la amplitud
m axima de la se nal cuadrada, lo que es concordante con la intuicion referente al valor medio
de dicha se nal. Si se considera que A = 2, T
0
= 20[ms], entonces x
0
= 1, x
n
= j
2
n
para
m ultiplos impares de la frecuencia fundamental f
0
=
1
T
0
= 50[Hz], y cero para el resto. Este
resultado se puede apreciar en la Fig. 1.1, en d onde se ha despreciado el termino de fase j y
s olo se dibuja el valor absoluto del espectro.
Fig. 1.1: Se nal y espectro discreto obtenido mediante la serie de Fourier del Ejemplo 1.4
Se puede demostrar que para una se nal peri odica real, x
n
= x

n
. En efecto, se tiene que
x
n
=
1
T
0
_
+T
0

x(t)e
j(n)
0
t
dt
=
1
T
0
_
+T
0

x(t)e
jn
0
t
dt
=
1
T
0
_
+T
0

x(t)
_
e
jn
0
t

dt
= x

n
.
Ahora bien, como el n-esimo coeciente es complejo, se puede descomponer en su parte real y
9
CAP

ITULO 1. INTRODUCCI

ON
compleja como sigue
x
n
=
a
n
jb
n
2
.
As, la parte negativa estar a determinada por x
n
= x

n
=
an+jbn
2
. Luego de usar la relaci on de
Euler dada por e
jn
0
t
= cos n
0
t j sin n
0
t , entonces se obtiene que
a
n
=
2
T
0
_
+T
0

x(t) cos n
0
t dt (1.12)
b
n
=
2
T
0
_
+T
0

x(t) sin n
0
t dt , (1.13)
y, por lo tanto
x(t) =
a
0
2
+

n=1
a
n
cos n
0
t + b
n
sin n
0
t . (1.14)
N otese que para n = 0, siempre se tiene que b
0
= 0, entonces a
0
= 2w
0
. Esta relaci on se conoce
como la serie de Fourier trigonometrica.
Deniendo c
n
=
_
a
2
n
+ b
2
n
y
n
= tan
1 bn
an
, y usando la relaci on a cos + b sin =

a
2
+ b
2
cos
_
tan
1 b
a
_
, entonces la Ecuaci on (1.14) se puede escribir de la forma
x(t) =
a
0
2
+

n=1
c
n
cos(n
0
t +
n
) , (1.15)
que es la tercera forma de la expansion en series de Fourier para se nales reales peri odicas.
Es importante considerar que si x(t) es real y par, vale decir x(t) = x(t), entonces b
n
= 0,
por lo que todos los coecientes x
n
son reales y la serie trigonometrica est a dada solamente por
la suma de cosenos. Similarmente, para una se nal real e impar, a
n
= 0 por lo que todos los x
n
son imaginarios y la serie est a determinada por la suma de senos.
La suma del producto entre los coecientes de la serie de Fourier y las exponenciales es
teoricamente innita, lo que resulta imposible de conseguir en la realidad. Es por esto que
en general se utilizan aproximaciones de la representaci on en series con un n umero nito de
arm onicos. La Fig. 1.2 muestra distintas aproximaciones del pulso rectangular para diferentes
valores de arm onicos. A medida que el n umero de arm onicos se incrementa, menos error se tiene
entre ambas se nales. Las oscilaciones que presenta la se nal aproximada en cada canto recibe
el nombre de fenomeno de Gibbs
2
y se origina porque la n-esima suma parcial de la serie de
Fourier tiene grandes oscilaciones cerca del salto, lo que a su vez incrementa el m aximo valor
de la suma sobre el de la funcion.
1.4.2 Transformada de Fourier
La transformada de Fourier corresponde a una extension de las series de Fourier para se nales
no periodicas. La transformada de Fourier de una se nal denotada por x(t) que satisface las
2
Para mas informacion, ud. puede visitar este link.
10
CAP

ITULO 1. INTRODUCCI

ON
Fig. 1.2: Aproximaciones para un pulso rectangular del Ejemplo 1.4, usando series de Fourier
condiciones de Dirichlet se denota por X(f), o, equivalentemente, F[x(t)], y est a denida por
F[X(t)] X(f) =
_

x(t)e
j2ft
dt . (1.16)
La transformada de Fourier inversa esta dada por
F
1
[X(f)] x(t) =
_

X(f)e
j2ft
df . (1.17)
Si la se nal x(t) es real, entonces su transformada de Fourier X(f) satisface la simetra
Hermitiana, es decir X(f) = X

(f). Las propiedades de la transformada de Fourier se listan


a continuaci on.
1. Linealidad. La transformada de Fourier de una combinaci on lineal de dos o m as se nales,
es la combinacion lineal de las correspondientes transformadas de Fourier:
F
_

i
x
i
(t)
_
=

i
F[x
i
(t)] .
2. Dualidad. Si X(f) es la transformada de Fourier de x(t), entonces
F [X(t)] = x(f) .
3. Corrimiento en el tiempo. Un desplazamiento en el dominio del tiempo, resulta en un
desplazamiento en la fase del dominio de la frecuencia:
F[x(t t
0
)] = e
j2ft
0
F[x(t)]
11
CAP

ITULO 1. INTRODUCCI

ON
4. Escalamiento. Una expansi on en el dominio del tiempo resulta en una contracci on en el
dominio de la frecuencia, y viceversa:
F[x(at)] =
1
[a[
F[x(t)] , a ,= 0
5. Modulacion. La multiplicacion por una exponencial en el dominio del tiempo, se mani-
esta como un desplazamiento en el dominio de la frecuencia.
F
_
e
j2f
0
t
x(t)

= X(f f
0
)
6. Derivacion. La derivacion en el dominio del tiempo corresponde a la multiplicacion por
j en el dominio de la frecuencia:
F
_
d
n
dt
n
x(t)
_
= (j2f)
n
F [x(t)]
7. Convoluci on. La convoluci on en el dominio del tiempo es equivalente a la multiplicaci on
en el dominio de la frecuencia, y viceversa.
F[x(t) y(t)] = F[x(t)] F[y(t)]
F [x(t)y(t)] = F[x(t)] F[y(t)]
Para una se nal periodica x(t) con periodo T
0
, cuyos coecientes de Fourier son denominados
por x
n
, vale decir
x(t) =

n=
x
n
e
jn
0
t
,
tiene por transformada de Fourier
X(f) = F
_

n=
x
n
e
jn
0
t
_
=

n=
x
n
F
_
e
jn
0
t

n=
x
n
(f nf
0
) .
En otras palabras, la transformada de Fourier de una se nal peri odica consiste en impulsos a los
multiplos enteros de la frecuencia fundamental (arm onicos) de la se nal original, con un peso igual
al valor de los coecientes de Fourier. En conclusi on, para una se nal peri odica, su transformada
de Fourier corresponden a los coecientes x
n
ubicados en los armonicos correspondientes al
n-esimo m ultiplo de la frecuencia fundamental.
12
CAP

ITULO 1. INTRODUCCI

ON
1.5 Densidad Espectral
La densidad espectral de una se nal, caracteriza la distribucion de la energa o potencia de
dicha se nal en el dominio de la frecuencia, dependiendo si se trabaja con se nales de energa o
potencia, respectivamente. Este concepto se torna muy importante con la presencia de ltros
en los sistemas de comunicaciones, pues se requerira evaluar la se nal y el ruido a la salida de
un ltro. Para realizar esta tarea, se utiliza la Densidad Espectral de Energa (ESD, Energy
Spectral Density) o la Densidad Espectral de Potencia (PSD, Power Spectral Density).
1.5.1 Se nales de Energa y Potencia
Una se nal electrica puede ser representada como un voltaje v(t) o una corriente i(t), con una
potencia instantanea p(t) a traves del resistor R, denida por p(t) = v
2
(t)R
1
= i
2
(t)R. En
sistemas de comunicaciones se trabaja con el concepto de potencia normalizada que involucra
asumir que el valor de la resistencia R es unitario (R=1), por lo que ambos lados de la ecuacion
anterior tienen la misma forma sin importar si se habla de se nales de voltaje o de corriente.
Entonces, el concepto de potencia normalizada permite expresar la potencia instantanea de la
forma
p(t) = x
2
(t) (1.18)
en donde x(t) representa indistintamente una se nal de voltaje o de corriente.
La energa y la potencia promedio disipada durante el intervalo de tiempo ]
T
2
,
T
2
[ por una
se nal real con potencia instantanea expresada por la Ecuacion (1.18), puede ser escrita como:
E
T

_ T
2

T
2
x
2
(t) dt y, P
T

1
T
_ T
2

T
2
x
2
(t) dt
El desempe no de un sistema de comunicaciones depende de la energa de la se nal detectada.
Mientras mayor sea la energa de las se nales detectadas, el proceso de detecci on se hara con
menos errores que si las se nales fueran de energa mas baja. Por otro lado, la potencia es la
tasa a la cual la energa es entregada y es importante porque determina las condiciones de
transmisi on/recepcion de las se nales. Entonces, en el an alisis de se nales de comunicaciones,
resulta preferible trabajar con se nales de energa. La se nal x(t) ser a considerada una se nal de
energia si y solo si 0 < E < , en donde
E lim
T
_ T
2

T
2
x
2
(t) dt =
_

x
2
(t) dt (1.19)
En el mundo real todas las se nales tienen energa nita, sin embargo como consecuencia de la
denici on matematica de las se nales peri odicas, estas existen para todo tiempo por lo que tienen
energa innita. Adem as, las se nales aleatorias tambien tienen energa innita, por lo que se
requiere denir una clase de se nales llamadas se nales de potencia, que ser an aquellas se nales
no nulas que tienen potencia promedio nita para todo el tiempo, en smbolos 0 < P < , en
donde:
P lim
T
1
T
_ T
2

T
2
x
2
(t) dt (1.20)
13
CAP

ITULO 1. INTRODUCCI

ON
Las deniciones de se nales de energa y potencia son mutuamente excluyentes, ya que una
se nal de energa tiene energa nita pero potencia media nula, en cambio una se nal de potencia
tiene potencia media nita pero energa innita. Como norma general, las se nales periodicas y
las se nales aleatorias son consideradas de potencia. Por otro lado, las se nales que a la vez son
no periodicas y determinsticas son clasicadas como se nales de energa.
1.5.2 Teorema de Parseval
Dada la importancia de este teorema en las se nales utilizadas en comunicaciones, es necesario
enunciarlo en forma independiente y en forma previa a las deniciones de ESD y PSD.
Este teorema est a dado por:
_

[x(t)[
2
dt =
_

[X(f)[
2
df (1.21)
en donde X(f) es la transformada de Fourier de la se nal no periodica x(t). N otese que el lado
izquierdo de la ecuaci on del teorema corresponde a la denici on de energa media denida en la
Ecuaci on (1.19)
La interpretaci on de la Ecuacion (1.21) y del teorema en s, es que la energa total contenida
en la se nal x(t) sumada a lo largo de todo el tiempo t es igual a la energa total de la transformada
de Fourier de x(t), X(f), sumada a lo largo de todas las componentes de frecuencia f.
1.5.3 Densidad Espectral de Energa (ESD)
La energa total de una se nal real x(t) denida para todos los n umeros reales, esta dada por la
Ecuaci on (1.19). Utilizando el Teorema de Parseval, se puede relacionar la energa de dicha se nal
expresada en el dominio del tiempo, con la energa expresada en el dominio de la frecuencia,
luego
E =
_

[X(f)[
2
df .
Esto signica que la energa media de una se nal x(t) esta dada por el area bajo la curva [X(f)[
2
.
Como consecuencia, la funci on en frecuencia [X(f)[
2
dene como la energa se distribuye para
todas las componentes de frecuencia f. As, en palabras m as formales, si se dene la magnitud
al cuadrado del espectro como:
(f) [X(f)[
2
, (1.22)
entonces la cantidad (f) es la forma de onda de la Densidad Espectral del Energa (ESD) de
la se nal x(t).
N otese que esta denici on de ESD requiere que la transformada de Fourier de la se nal
exista, lo que matem aticamente implica que las se nales sean integrables cuadraticamente. Por
esta raz on, es mas com un hablar de densidad espectral de potencia (PSD) que describe como
la potencia de la se nal esta distribuda en las distintas frecuencias.
14
CAP

ITULO 1. INTRODUCCI

ON
1.5.4 Densidad Espectral de Potencia (PSD)
La PSD es particularmente importante en sistemas de comunicaciones pues describe la dis-
tribuci on de una se nal de potencia en el dominio de la frecuencia, permitiendo determinar como
dicha se nal pasa atraves de una red de comunicaciones de respuesta en frecuencia conocida.
La potencia promedio P de una se nal real de potencia x(t) est a denita por la Ecuacion (1.20).
Tomando el teorema de Parseval sobre se nales reales y peri odicas se obtiene la relaci on
1
T
0
_
T
0
2

T
0
2
x
2
(t) dt =

n=
[x
n
[
2
, (1.23)
en donde el lado izquierdo correspnde a la denicion de la potencia media de una se nal peri odica
y los terminos [x
n
[ son los coecientes complejos de la serie de Fourier de dicha se nal. Nueva-
mente, planteando esta igualdad, se tiene que la potencia media de la se nal estar a dada por
suma de todas las componentes espectrales de ella a lo largo de la frecuencia. En smbolos
P =

n=
[x
n
[
2
.
As, se dene la Densidad Espectral de Potencia (PSD) de la se nal peri odica x(t) mediante
(f)
+

n=
[x
n
[2 (f nf
0
) . (1.24)
N otese que (f) es una funci on discreta en frecuencia, real, par y no-negativa
Para se nales no-peri odicas se requiere denir una versi on truncada de la se nal, mediante:
x
T
(t)
_
x(t) ,
T
2
< t <
T
2
0 , i.o.c.
= w(t)
_
t
T
_
.
Ahora, usando la Ecuaci on (1.20) y el teorema de Parseval dado por la Ecuacion (1.21) se
tiene que la potencia normalizada promedio est a determinada por:
P = lim
T
1
T
_

x
2
T
(t) dt = lim
T
1
T
_

[X
T
(f)[
2
df =
_

lim
T
[X
T
(f)[
2
T
df
Entonces, utilizando el mismo principio explicado para el caso de se nales periodicas, se dene
la PSD de una se nal no-periodica de una se nal como:
(f) = lim
T
[X
T
(f)[
2
T
, (1.25)
de donde se puede extraer directamente que la potencia promedio de la se nal estar a determinada
por el c alculo de la integral de la PSD a lo largo de todas las frecuencias. Este resultado es
de vital importancia para se nales aleatorias en donde no se puede calcular la transformada de
Fourier pero si su PSD mediante la funci on de autocorrelaci on como se vera en la siguiente
secci on.
15
CAP

ITULO 1. INTRODUCCI

ON
Ejemplo 1.5 - PSD se nal peri odica.
Encuentre la potencia promedio normalizada de la se nal x(t) = Acos(
0
t) usando el promedio
temporal y en base a las series de Fourier.
Sol. Usando la Ecuacion (1.23), se tiene P =
A
2
T
0
_
T
0
2

T
0
2
cos
2
(
0
t) dt =
A
2
2
. Por otra parte, al
usar la denicion de una PSD para se nal peri odica dada por la Ecuaci on (1.24), se obtiene
por mediante las series de Fourier que x
1
= x
1
=
A
2
y x
n
= 0, n = 0, 2, 3, . . . . Luego
(f) =
A
2
4
[(f +f
0
) +(f f
0
)], entonces P =
_

(f) =
A
2
2
, que es el mismo valor encontrado
mediante el calculo del valor medio.
Ejemplo 1.6 - PSD, Potencia media y valor RMS.
Determine la PSD, la potencia media y el valor RMS de la se nal x(t) = Asin(
0
t), mediante el
uso de la funci on de autocorrelaci on.
Sol. La funcion de autocorrelaci on estar a determinada por R() =
A
2
2
cos(
0
), entonces su
PSD estar a determinada por (f) = F[R()] = F
_
A
2
2
cos(
0
)
_
=
A
2
4
[(f +f
0
) +(f f
0
)]. La
potencia media ser a P = R(0) =
A
2
2
y el valor RMS x
RMS
=

P =
A

2
.
PSD de un Proceso Aleatorio
Anteriormente se dijo que un proceso aleatorio X(t) se clasicaba como una se nal de potencia,
por lo que tendra una PSD caracterstica
X
(f) que est a descrita por la Ecuaci on (1.25). El
problema con dicha denici on, es que requiere el calculo de transformada de Fourier del proceso
aleatorio, cosa que normalmente es imposible pues no se tiene una descripci on en el tiempo
que permita el c alculo de la integral. Por esta raz on se necesita recordar que la PSD y la
autocorrelaci on se relacionan mediante la transformada de Fourier como lo sentencia el Teorema
de Wiener-Khinchin.
Teorema Wiener-Khinchin. Para un proceso aleatorio estacionario X(t), su densidad es-
pectral de potencia (PSD) corresponde a la transformada de Fourier de la funcion de
autocorrelaci on, es decir

X
(f) = F [R
X
()] . (1.26)
Entonces, la PSD de una secuencia aleatoria de digitos binarios puede ser obtenida mediante
la transformada de fourier de la funci on de autocorrelacion. Debe recordarse que el area bajo
la curva de la PSD corresponde a la potencia promedio de la se nal.
Ejemplo 1.7 - PSD proceso aleatorio estacionario.
Sea el siguiente proceso aleatorio X(t) = Acos(
0
t + ), con A y
0
constantes y U[0, 2].
Determine la PSD de dicho proceso.
Sol. Anteriormente se obtuvo que la media del proceso es EX = 0 y que la funci on de
16
CAP

ITULO 1. INTRODUCCI

ON
(a) Se nal original y contaminada con ruido blanco (b) PSD de la se nal
Fig. 1.3: Estimaci on de la PSD de una se nal determinstica contaminada con ruido blanco.
autocorrelaci on para este proceso es R(t
1
, t
2
) =
1
2
A
2
cos[
0
(t
2
t
1
)] =
1
2
A
2
cos
0
, por lo
que corresponde a un proceso estacionario. Entonces la PSD estar a determinada por (f) =
A
2
4
[(f f
0
) + (f + f
0
)].
Aparte de permitir realizar an alisis espectral de los procesos aleatorios, la PSD permite tra-
bajar con se nales determinsticas contaminadas con ruido aleatorio. Por ejemplo, para una se nal
dada por x(t) = cos(250t) + cos(2250t) que se contamina con ruido blanco como se muestra
en la Fig. 1.3(a), la informacion a priori de las componentes espectrales resulta practicamente
imposible de obtener. Al calcular la funcion de autocorrelacion de la se nal y tomar la transfor-
mada de Fourier de dicho resultado, se obtiene la estimaci on de la PSD de la se nal. Como se
puede observar en la Fig. 1.3(b), se logran visualizar claramente las componentes espectrales en
50[Hz] y 250[Hz] conforme a la se nal original, a pesar de la presencia de ruido aleatorio en la
se nal a procesar.
1.6 Conversion Analogo-Digital
Hasta el momento, se ha hablado de conceptos y deniciones sobre se nales denidas en tiempo
y amplitud continuo, pudiendo esta ultima asumir innitos valores. El problema con estas
se nales es que no pueden ser transmitidas en su forma natural mediante un sistema digital,
por lo que deben ser muestreadas (llevar las se nales de tiempo continuo a tiempo discreto) y
cuantizadas (llevar los valores de amplitud a un numero nito). Este proceso se explicar a en
las siguientes secciones. Como resultado se tiene una se nal en tiempo y amplitud discretos que
puede codicarse como se ver a en el siguiente captulo.
17
CAP

ITULO 1. INTRODUCCI

ON
1.6.1 Muestro de una Se nal
Conforme a la experiencia previa, se puede decir que el muestrear una se nal, corresponde a
multiplicarla por un tren de impulsos discretos con periodo T
s
(o frecuencia de muestreo fs =
1
Ts
). As, considerando la funcion impulso unitario, (t), la se nal x(t) muestreada cada T
s
unidades de tiempo, estar a dada por
x
s
(t) =

n=
x(t)(t nT
s
) . (1.27)
Considerando que x(t) no depende de n y puede salir de la sumatoria, se aplica la trans-
formada de Fourier a ambos lados de la Ecuacion (1.27), para obtener el espectro de la se nal
muestrada.
X
s
(f) = X(f) F
_

n=
(t nT
s
)
_
= X(f)
1
T
s

n=
(f nf
s
)
=
1
T
s

n=
X(f nf
s
) (1.28)
en d onde representa la convolucion en tiempo-discreto, y se utiliz o la propiedad de la con-
voluci on de la se nal impulso, que dice: X(f) (f nf
s
) = X(f nf
s
). Este resultado muestra
que el espectro de la se nal muestreada X
s
(f) es una replica de la transformada de Fourier de la
se nal original que se repite a una tasa de f
s
[Hz] y que se aten ua en un factor de f
s
.
En la Fig. 1.4 se pueden observar las etapas en el proceso de muestreo ideal mediante la
utilizaci on de la funci on impulso unitario. La se nal an aloga de la Fig. 1.4(a) es una se nal de
banda limitada ya que se hace nula fuera del intervalo 15 < f < 15, como se puede observar en
la Fig. 1.4(b). Esto implica que el ancho de banda de la se nal es W = 15[Hz]. Utilizando una
frecuencia de muestreo de f
s
= 100[Hz] el criterio de Nyquist se satisface de forma completa,
por lo que no existir a aliasing tal como se puede observar en la Fig. 1.4(f). Esta misma gura
ratica el hecho de que en la se nal muestreada el espectro se repite cada f
s
[Hz] como se demostr o
matem aticamente.
1.6.2 Cuantizaci on
Despues del proceso de muestreo, se tiene una se nal de tiempo discreto, sin embargo las am-
plitudes a un son continuas y puede asumir cualquier valor real dentro de los lmites propios de
la se nal. Dado que la transmision de n umeros reales en n umero de base 2 tienen largo innito,
la transmisi on de esta se nal se hace imposible. Por esta raz on, posterior al muestreo se realiza
el proceso de cuantizaci on. En este proceso se realiza la discretizacion de la amplitud de las
se nales, lo que permite representar la se nal de forma valida con valores binarios de largo nito.
La forma m as basica de realizar el proceso de cuantizacion es mediante la subdivisi on del
rango din amico de la se nal muestreada en un n umero nito de valores. En terminos coloquiales,
18
CAP

ITULO 1. INTRODUCCI

ON
(a) Se nal Analoga Original (b) Espectro Se nal Analoga
(c) Tren de Impulsos (d) Espectro Tren de Impulsos
(e) Se nal Muestreada (f) Espectro Se nal Muestreada
Fig. 1.4: Diferentes etapas del muestreo de una se nal analoga.
19
CAP

ITULO 1. INTRODUCCI

ON
es como posicionar la se nal sobre un cuaderno de lineas. As los valores que la se nal asume en los
distintos instantes de tiempo, se redondean a un valor m aximo o mnimo de dicha subdivisi on.
Mediante esta tecnica se logran resultados aceptables, pero intuitivamente se puede decir que
se agregan errores propios al redondeo de valores. Este metodo de cuantizaci on as como otros
m as avanzados se estudiar an con m as detalle a partir de la secci on 3.3.1.
20
Captulo 2
Teora de la Informaci on
2.1 Introducci on
La Teora de la Informaci on busca contestar dos preguntas fundamentales en la teora de las
comunicaciones: Cu al es la m axima compresion de datos (Respuesta: La entropa, H) y cual es
la m axima tasa de transmisi on de la comunicacion (Respuesta: La capacidad del canal, C). Por
esta misma razon, la teora de la informacion se considera como una sub-materia de la teora de
las comunicaciones, sin embargo resulta ser un area muchsimo m as grande pues tiene mucho que
aportar en otras areas como Fsica Estadstica (Termodin amica), Ciencias de la Computacion
(Complejidad de Kolmogorov), Inferencia Estadstica, Probabilidad y Estadstica entre otras
materias.
2.2 Modelo de las Fuentes de Informacion
Ac a, se estudiar an solamente modelos simples para las fuentes de informacion ya que fuentes
complejas involucran matematicas avanzadas que escapan del n del curso. Sin embargo, estos
modelos simples igualmente permiten denir en forma precisa una medida de la informaci on y
de los lmites en la compresi on y transmisi on de la informacion.
El modelo m as simple para una fuente de informaci on es la fuente discreta sin memoria, Dis-
crete Memoryless Source (DMS), que es un proceso aleatorio en tiempo discreto y de amplitud
discreta en el cual todos los X
i
s son generados en forma independiente y con la misma dis-
tribuci on. Por lo tanto, un DMS genera una secuencia de variables aleatorias i.i.d. (independent
and identically distributed), que toman valores en un set discreto de posibilidades.
Permtase denir dicho set discreto de posibilidades que tomar a la variable aleatoria mediante
A = a
1
, a
2
, . . . , a
M
, y la funcion de probabilidades correspondientes denotadas por p
i
=
P(X = a
i
), para i = 1, 2, . . . , M. Una descripcion completa de una DMS est a determinada por
el set A, llamado alfabeto, y el set de probabilidades p
i

M
i=1
.
2.2.1 Concepto de Informacion
La informacion de forma general corresponde a un conocimiento especco o dato de interes,
que agrupado con un conjunto de datos extras constituye un mensaje sobre un determinado
21
CAP

ITULO 2. TEOR

IA DE LA INFORMACI

ON
ente o fenomeno. En otras palabras, se puede decir que el concepto de mensaje, viene a ser
como una materializacion de la informaci on.
La informaci on es transferida desde una fuente a un destinatario, s olo si este ultimo no la
conoca previamente. Por ejemplo, considere el escenario en que un grupo de gente mira por
la ventana. Esto involucra que todos saben (tienen la informacion) que el da esta soleado. Si
alguien dice El da esta soleado no es informaci on, pues no aporta ning un dato nuevo a lo
que todos conocen. Por otro lado si alguien dice En la noche llovera para muchos si ser a
informaci on pues no necesariamente todos sabr an dicho dato.
Pensando en se nales de voltaje, una batera de 1.5 volts no tiene mucha informaci on que
aportar, pues una vez sabido su voltaje mediante un voltmetro, este seguir a constante por
muchsimo tiempo lo que no aporta ning un dato nuevo La informaci on est a relacionada con
cambios.
Por otro lado, una se nal sinusoidal de voltaje vara en el tiempo, sin embargo una vez que est a
se ha caracterizado midiendo su amplitud, frecuencia y fase, no existe ninguna informaci on nueva
que esta se nal pueda aportar La informacion est a relacionada con cambios impredecibles.
2.2.2 Medida de la Informaci on
La cantidad de informaci on sobre un evento se relaciona estrechamente con la probabilidad de
su ocurrencia. Los mensajes que contienen noticias de gran probabilidad de ocurrencia, es decir
que indican muy poca incertidumbre en el resultado, llevan relativamente poca informaci on.
Por otro lado, aquellos mensajes que contienen noticias con baja probabilidad de ocurrencia
conducen grandes cantidades de informaci on. As mismo, un evento totalmente cierto (es decir
con probabilidad unitaria) lleva cero informaci on; en cambio un evento improbable (probabilidad
casi nula), su ocurrencia lleva una cantidad innita de informacion. Sobre esta base, la medida
de informacion asociada a un evento A que ocurre con una probabilidad P
A
se dene como:
I
A
= log
1
P
A
= log P
A
(2.1)
La Ecuaci on (2.1) se conoce como self-information y fue derivada por Claude E. Shannon
en 1948. Es importante tener en cuenta, que la denicion est a hecha con logaritmo en base 2,
por lo tanto la unidad de medida de I
A
es bits. Si se utiliza logaritmos naturales (base e), la
unidad sera nat y para logaritmo en base 10, se dice que se mide en hartley.
Ejemplo 2.1 - Autoinformacion.
Considerando el experimento de lanzar una moneda, la probabilidad de tener sello es 0.5.
Una vez que esto haya sucedido, se tiene I
sello
= log
2
(0.5) = 1 bit de informacion.
Ejemplo 2.2 - Autoinformacion.
Considerando el experimento de lanzar un dado, la probabilidad de que salga cualquier n umero
es 1/6. Suponiendo que sali o un 4, la cantidad de informaci on es: I
4
= log
2
(6) = 2.5850 bits de
informaci on.
22
CAP

ITULO 2. TEOR

IA DE LA INFORMACI

ON
Ejemplo 2.3 - Autoinformacion.
Los smbolos A, B, C y D ocurren con probabilidades 1/2, 1/4, 1/8 y 1/8 respectivamente.
Calcule la informaci on en el mensaje de tres smbolos X = BDA suponiendo que estos son
estadsticamente independientes.
Sol. Como los eventos son estadsticamente independientes, la medida de informacion (por
ser logartmica) resulta aditiva, luego: I
X
= log
2
(P
X
) = log
2
(P
B
P
D
P
A
) = log
2
(P
B
)
log
2
(P
D
) log
2
(P
A
) = log
2
4 + log
2
8 + log
2
2 = 2 + 3 + 1 = 6 bits de informaci on.
2.2.3 Entropa
Lo anteriormente discutido, dene la medida de la informacion para el caso en que todos los
mensajes son igualmente probables, lo que resulta ser s olo un caso particular. A modo de
generalizaci on se dene una informacion promedio de cada mensaje, llamada Entropa, H.
La entropa corresponde a una medida de la incertidumbre de una variable aleatoria. Defnase
X como una variable aleatoria discreta con alfabeto A y funci on de probabilidad p(x) = P(X =
x). As, se dene la Entropa H(X) de la variable aleatoria discreta X como:
H(X) =

xA
p(x) log p(x) (2.2)
en donde el logaritmo se utiliza en base 2 a menos que se especique lo contrario, y se asume
por convencion que 0 log 0 = 0, lo que se puede justicar por que la relacion x log x 0 cuando
x 0.
La entropa de X tambien puede ser interpretada como el valor esperado de log p(X) lo
que equivale a la esperanza de la self-information del mensaje, luego
H(X) = EI
X
= E
_
log
1
p(X)
_
que esta relacionada con la denici on de entropia en termodinamica.
Ejemplo 2.4 - Entropa.
Considere la variable aleatoria X 0, 1. Calcule la entropa de X, considerando que la fuente
de informacion es sin-memoria.
Sol. Considerando que la probabilidad de que X = 1 es p, la probabilidad de que X = 0 sera
1 p. Entonces su entropa ser a H(X) = p log p (1 p) log(1 p) H(p). Esta funci on es
conocida como la Funcion de Entropa Binaria y se muestra en la Fig. 2.1.
En particular H(p) = 1 bit cuando p = 0.5. Si la funci on H(p) se graca con respecto a
p se puede notar una de las propiedades b asicas de la entropa: es una funcion c oncava de la
distribuci on y nula para p = 0 o 1. Adem as el m aximo ocurre cuando p = 0.5 lo que es claro
pues corresponde al punto de m axima incertidumbre. Esto se puede corroborar observando la
Fig. 2.1.
23
CAP

ITULO 2. TEOR

IA DE LA INFORMACI

ON
Fig. 2.1: La funcion de entropa binaria H(p)
Ejemplo 2.5 - Entropa de DMS.
Una fuente con ancho de banda de 4kHz se muestrea en forma optima. Asumiendo que la
secuencia resultante se puede modelar como una fuente DMS con alfabeto A = 2, 1, 0, 1, 2
y con probabilidades correspondientes dadas por
_
1
2
,
1
4
,
1
8
,
1
16
,
1
16
_
, determine la tasa de la fuente
en bits por segundo.
Sol. La entropa estar a dada por H(X) =
15
8
bits por muestra. Dado que el muestreo optimo se
logra con la frecuencia de Nyquist, entonces la frecuencia de muestreo es f
s
= 2 4k = 8[kHz], o
en otras palabras, se tomaran 8000 muestras por segundo. As la fuente producira informacion
a una tasa de 8000
15
8
= 15 10
3
bits por segundo.
Ejemplo 2.6 - Entropa de DMS Equiprobable.
Una fuente de informacion discreta sin memoria tiene un alfabeto de tama no N y las salidas
son equiprobables. Encuentre la entropia de esta fuente.
Sol. Como los eventos son equiprobables, todos tienen una probabilidad de
1
N
, luego H(x) =

N
i=1
1
N
log
1
N
= log N.
2.2.4 Entropa Conjunta y Condicional
Cuando se trabaja con 2 o m as variables aleatorias, se introduce el concepto de entropia condi-
cional y conjunta de la misma forma en que se habla de probabilidades condicionales y conjuntas.
Este concepto es principalmente importante cuando se trabaja con fuentes con memoria.
24
CAP

ITULO 2. TEOR

IA DE LA INFORMACI

ON
As, se dene la Entropia Conjunta de dos variables aleatorias discretas (X, Y ) como:
H(X, Y ) =

x,y
p(x, y) log p(x, y) (2.3)
lo que tambien puede expresarse mediante H(X, Y ) = Elog p(X, Y ).
Para el caso de m variables aleatorias X = (X
1
, X
2
, . . . , X
m
), se tiene:
H(X) =

x
1
,x
2
,...,xm
p(x
1
, x
2
, . . . , x
m
) log p(x
1
, x
2
, . . . , x
m
)
por lo que se puede decir que la entropia conjunta es simplemente la entropia de una variable
aleatoria vectorial.
Ejemplo 2.7 - Entropia Conjunta.
Dos variables aleatorias binarias X e Y est an distribudas de acuerdo a una PMF conjunta dada
por P(X = 0, Y = 0) =
1
4
, P(X = 0, Y = 1) =
1
4
y P(X = 1, Y = 1) =
1
2
. Determine los valores
de H(X), H(Y ) y H(X, Y ).
Sol. Dada la distribucion, se tiene que P(X = 1, Y = 0) = 0. As P(X = 0) = P(X = 0, Y =
0) + P(X = 0, Y = 1) =
1
2
, entonces se tiene que P(X = 1) =
1
2
, luego H(X) = log
1
2
= 1.
Por otra parte, P(Y = 0) =
1
4
, lo que implica que P(Y = 1) =
3
4
, luego H(Y ) = 0.8113. Ahora
bien, H(X, Y ) =
1
4
log
1
4

1
2
log
1
2

1
4
log
1
4
=
3
2
.
La Entropia Condicional de la variable aleatoria X, dada la variable aleatoria Y , expre-
sada como H(X[Y ) puede ser denida como
H(X[Y ) =

x,y
p(x, y) log p(x[y) (2.4)
En general, se tiene que
H(X
m
[X
1
, X
2
, . . . , X
m1
) =

x
1
,x
2
,...,xm
p(x
1
, x
2
, . . . , x
m
) log p(x
n
[x
1
, x
2
, . . . , x
m1
)
El Teorema de la Regla de la Cadena, permite comprobar que
H(X, Y ) = H(X) + H(Y [X) (2.5)
lo que a su vez, como corolario, dice que esto se cumple en forma inversa, vale decir
H(X, Y ) = H(Y ) + H(X[Y ) .
Para comprobar esto, se puede considerar la denici on de probabilidad condicional
p(X, Y ) = p(X)p(Y [X)
log p(X, Y ) = log[p(X)p(Y [X)]
= log p(X) + log p(Y [X)
ahora, tomando la esperanza en ambos lados de la ecuaci on, se obtiene el resultado esperado.
25
CAP

ITULO 2. TEOR

IA DE LA INFORMACI

ON
Ejemplo 2.8 - Entropa Condicional.
Para el Ejemplo 2.7, calcule H(X[Y ) y H(Y [X).
Sol. Se tiene que H(Y [X) = H(X, Y ) H(X) =
1
2
, y H(X[Y ) = 1.5 0.8113 = 0.6887.
2.2.5 Informacion Mutua
Para variables aleatorias discretas, H(X[Y ) denota la entropa (o incertidumbre) de la variable
aleatoria X, luego de que la variable aleatoria Y es conocida. As, dado que la entropa de la
variable X es H(X), la cantidad H(X) H(X[Y ) representa la cantidad de incertidumbre que
ha sido removida al revelar la variable aleatoria Y . Esta cantidad juega un rol importante tanto
en la codicaciones de canales como de fuentes y es llamada Informaci on Mutua entre las 2
variables aleatorias.
Entonces, la informaci on mutua entre dos variables aleatorias discretas X e Y , es denotada
por I(X; Y ) y est a denida por
I(X; Y ) = H(X) H(X[Y ) (2.6)
por simetra, tambien se tiene que I(X; Y ) = H(Y ) H(Y [X). As se puede considerar que X
dice tanto de Y como Y lo dice de X.
Considerando ahora que H(X, Y ) = H(X) + H(Y [X), entonces la informaci on mutua
tambien puede ser calculada por:
I(X; Y ) = H(X) + H(Y ) H(X, Y ) (2.7)
Finalmente, se puede notar que
I(X; X) = H(X) H(X[X) = H(X)
2.3 Teorema de Codicacion de la Fuente
La entropa de una fuente de informacion, da una cota acerca de la tasa a la cu al la fuente
puede ser comprimida para una reconstrucci on exitosa. Esto signica que a tasas superiores
a la entropa es posible dise nar un c odigo con una probabilidad de error tan peque na como se
quiera, por otro lado, a tasas inferiores a la entropa dicho c odigo no existe.
Esto se justica en el Teorema de Codicaci on de la Fuente, propuesto por Shannon en 1948
y que dice:
Teorema de Codicacion de la Fuente. Una fuente de informaci on con entropa (o tasa de
entropa) H, puede ser codicada con una probabilidad de error arbitrariamente peque na
a cualquier tasa R [bits/simbolo], siempre que R > H. Consecuentemente, si R < H,
el error ser a muy lejano a cero, independiente de la complejidad utilizada en la codi-
caci on/decodicacion.
A pesar de la importancia de este resultado, este no da ning un algoritmo para dise nar
c odigos que se aproximen a esta condici on, por lo que se estudiar an algunas alternativas que
implementan esta idea.
26
CAP

ITULO 2. TEOR

IA DE LA INFORMACI

ON
2.3.1 Codigo Human
El objetivo del codigo Human es asignar una secuencia de bits a cada una de las posibles
salidas de una fuente discreta. En forma intuitiva, se basa en la probabilidad de ocurrencia de
dichas salidas para realizar la asignaci on de cada palabra, d ando a las salidas mas probables las
palabras m as cortas (con menos bits) y a las menos frecuentes las palabras m as largas. Este
c odigo busca ser de decodicaci on unica, instantaneo y de menor largo medio de palabra, que
est a determinado por

R =

x
p(x)l(x) , (2.8)
en donde l(x) es el largo del codigo de palabra asignado a la salida x. Se puede demostrar que

R satisface la relaci on:


H(X)

R < H(X) + 1 .
Adem as, como se dijo que la entropa representa la cota mnima de compresi on de datos, la
eciencia del c odigo Human esta dado por:
=
H(X)

R
.
Algoritmo del Codigo Human
El algoritmo se puede describir mediante los siguientes pasos:
1. Ordenar las salidas de la fuente en orden de probabilidades decrecientes
2. Agrupar los menos probables y generar una nueva salida cuya probabilidad es la suma de
las probabilidades correspondientes a las salidas agrupadas
3. Si quedan 2 salidas disponibles, ir al paso 4; sino, volver al paso 1.
4. Asignar 0 y 1 como codigos de palabra a las 2 salidas. Por acuerdo, se asignar a un 0 a la
salida menos probable de las 2 disponibles.
5. Recorrer el arbol en forma inversa, asignando 0 o 1 a cada rama. Repetir hasta llegar a
las salidas originales.
Para claricar el algoritmo, se plantea el siguiente ejemplo.
Ejemplo 2.9 - Codigo Human.
Considere una fuente de 5 smbolos a
1
, a
2
, a
3
, a
4
, a
5
con probabilidades
1
2
,
1
4
,
1
8
,
1
16
,
1
16
respec-
tivamente. Encuentre el codigo Human para dicha fuente. Calcule ademas el largo promedio,
y la eciencia del codigo encontrado.
Sol. Las probabilidades se mantienen en orden, pues fueron asignadas en forma decreciente,
luego:
que corresponde al c odigo originalmente dado. El largo medio sera

R = 0.5 1 + 0.25 2 +
0.125 3 + 0.0625 4 + 0.0625 4 = 1.8750. La entropa de la fuente est a dada por H(X) =
27
CAP

ITULO 2. TEOR

IA DE LA INFORMACI

ON
a
1
(
1
2
) a
1
(
1
2
) a
1
(
1
2
) a
1
(
1
2
) 0 0
a
2
(
1
4
) a
2
(
1
4
) a
2
(
1
4
) 0| a
2345
(
1
2
) 1 10
a
3
(
1
8
) a
3
(
1
8
) 0| a
345
(
1
4
) 1| 110
a
4
(
1
16
) 0| a
45
(
1
8
) 1| 1110
a
5
(
1
16
) 1| 1111
0.5 log 0.5 0.25 log 0.25 0.125 log 0.125 0.0625 log 0.0625 0.0625 log 0.0625 = 1.875, as
la eciencia ser a = 100%.
A pesar de que el codigo Human es optimo en el sentido de que entrega palabras con un
largo medio mnimo, presenta dos grandes problemas en su implementacion:
1. El dise no del c odigo depende fuertemente de las probabilidades (estadsticas), las que se
debe saber con anterioridad. Esto implica que el c odigo Human se debe realizar en dos
pasos: primero se estiman las estadsticas de la fuente de informacion y luego se realiza la
codicaci on en si.
2. El otro problema que presenta el c odigo Human es que se dise na sobre bloques de la
fuente de largo uno, solo emplea variaciones en la frecuencia de las salidas de la fuente
y no la memoria. Si se quisiera utilizar tambien la memoria de la fuente, se requerira
utilizar bloques de largo 2 o m as, lo que incrementa en forma exponencial la complejidad
del algoritmo.
2.3.2 Codigo Lempel-Ziv
El algoritmo de Lempel-Ziv pertenece a la clase de algoritmos de codicacion de fuente uni-
versales, es decir, algoritmos que son independientes de las estadsticas de la fuente. Para una
ristra de bits, el algoritmo se procede como sigue
1. Se identican frases del mnimo largo que no hayan aparecido anteriormente en la ristra.
2. Mientras la nueva salida de la fuente despues de la ultima frase coincida con una de las
existentes, no se introduce una nueva frase y se considera una nueva letra de la fuente.
3. Apenas la nueva salida sea diferente de las frases previas, se reconoce como una nueva
frase y se codica. En terminos intuitivos se puede notar entonces que la nueva frase
corresponde a una frase previa m as alg un bit de innovaci on.
4. La codicaci on se realiza concatenando la posicion de la frase previamente encontrada con
el bit de innovacion.
Ejemplo 2.10 - Codigo Lempel-Ziv.
Codique mediante Lempel-Ziv la ristra dada por
01000011000010100000101000001100000101000010 .
28
CAP

ITULO 2. TEOR

IA DE LA INFORMACI

ON
Sol. En base a las reglas anteriores, se debe realizar la separaci on en frases diferentes, luego
0[1[00[001[10[000[101[0000[01[010[00001[100[0001[0100[0010 ,
que involucra tener 15 frases, con lo que, para representar cada salida de la fuente de informaci on,
se requieren 4 bits por frase m as el bit de innovacion. Entonces, se genera la tabla de asignacion
de posiciones para determinar la codicaci on que se muestra a continuaci on:
Ubicaci on Contenido Codigo
1 0001 0 0000 0
2 0010 1 0000 1
3 0011 00 0001 0
4 0100 001 0011 1
5 0101 10 0010 0
6 0110 000 0011 0
7 0111 101 0101 1
8 1000 0000 0110 0
9 1001 01 0001 1
10 1010 010 1001 0
11 1011 00001 1000 1
12 1100 100 0101 0
13 1101 0001 0110 1
14 1110 0100 1010 0
15 1111 0010 0100 0
Por lo que el problema se considera resuelto.
La representacion obtenida en el ejemplo, dicilmente se pueden considerar como compresi on
de datos ya que 44 bits fueron mapeados en una secuencia de 75 bits. Sin embargo al momento
de trabajar con ristras de bits mucho mas grandes, la compresion se torna m as evidente.
Un problema que presenta la codicaci on LZ es con respecto a que n umero de frases se deben
elegir, ya que cualquier n umero jo de frases eventualmente sera insuciente para una fuente
continua de bits, produciendose overow. Una forma de solucionarlo es que el par codicador-
decodicador debe eliminar de sus diccionarios las frases obsoletas y substituirlos por nuevos
elementos.
La decodicaci on, se realiza simplemente considerando que en la ubicaci on 0 siempre ir an
los dgitos binarios 0 o 1 y el bit de innovacion determinar a a cu al corresponde. Posteriormente
se realiza la recuperaci on traduciendo la mezcla ubicaci on + bit de innovaci on para armar la
ristra original de bits.
El algoritmo LZ es ampliamente utilizado en la practica para comprimir archivos. Los
comandos compress y uncompress del sistema operativo UNIX, as como tambien programas
de compresion (zip, gzip, etc) son implementaciones de diferentes versiones de este algoritmo.
29
CAP

ITULO 2. TEOR

IA DE LA INFORMACI

ON
2.3.3 Codigo ASCII
ASCII son las siglas de American Standar Code for Information Interchange. Su uso primordial
es facilitar el intercambio de informacion entre sistemas de procesamiento de datos y equipos
asociados y dentro de sistemas de comunicacion de datos.
En un principio cada car acter se codicaba mediante 7 dgitos binarios y fue creado para el
juego de caracteres ingleses mas corrientes, por lo que no contemplaba ni caracteres especiales
ni caracteres especcos de otras lenguas. Esto hizo que posteriormente se extendiera a 8 dgitos
binarios. El codigo ASCII se resume en la Tabla 2.1.
Tabla 2.1: C odigo ASCII
0 1 2 3 4 5 6 7
0 NUL DLE SPC 0 @ P p
1 SOH DC1 ! 1 A Q a q
2 STX DC2 2 B R b r
3 ETX DC3 # 3 C S c s
4 EOT DC4 $ 4 D T d t
5 ENQ NAK % 5 E U e u
6 ACK SYN & 6 F V f v
7 BEL ETB 7 G W g w
8 BS CAN ( 8 H X h x
9 HT EM ) 9 I Y i y
A LF SUB * : J Z j z
B VT ESC + ; K [ k
C FF FS , < L l [
D CR GS - = M ] m
E SO RS . > N n
F SI US / ? O o DEL
30
CAP

ITULO 2. TEOR

IA DE LA INFORMACI

ON
Tabla 2.2: Codigo ASCII (continuacion)
NUL Null, or all zeros DC1 Device Control 1
SOH Start of heading DC2 Device Control 2
STX Start of text DC3 Device Control 3
ETX End of text DC4 Device Control 4
EOT End of transmision NAK Negative acknowledge
ENQ Enquiry SYN Synchronous idle
ACK Acknowledge ETB End of trasmision block
BEL Bell o alarma CAN Cancel
BS Backspace EM End of medium
HT Horizontal tabulation SUB Substitute
LF Line feed ESC Escape
VT Vertical tabulation FS File separator
FF Form feed GS Group separator
CR Carriage Return RS Record separator
SO Shift out US Unit separator
SI Shift in SP Space
DLE Data link escape DEL Delete
Ejemplo 2.11 - Codigo ASCII.
Considere que se quiere enviar la palabra HOLA! usando el codigo ASCII de 8 bits. Se pide
encontrar la representaci on en dgitos 32- arios y sus respectivas formas de onda.
Sol. Conforme a la Tabla 2.1, se tiene que H:84x0, O:F4x0, L:C4x0, A:14x0 y !:12x0, entonces en
binario, el mensaje sera
H
..
10000100
O
..
11110100
L
..
11000100
A
..
00010100
!
..
00010010 . As, si se considera que
se quiere utilizar dgitos 32- arios, entonces la secuencia de dgitos ser a 16,19,26,12,8,5,9,18.
2.4 Representaci on de Canales
En esta secci on, se estudiar a el canal de comunicaci on que es uno de las partes mas importantes
de las comunicaciones pues resulta ser el factor limitante a la hora de lograr una buena tasa de
transmisi on.
Como se dijo anteriormente, un canal de comunicacion corresponde a cualquier medio sobre
el cual puede ser transmitida informaci on, o en el que informacion puede ser almacenada. As,
ejemplos de canales de comunicaciones seran: cables coaxiales, propagacion por la ionosfera,
espacio libre, bra optica, discos magneticos u opticos, etc. Lo que resulta com un en estos
ejemplos, es que ellos reciben se nales en sus entradas y entregan se nales en sus salidas en un
tiempo posterior (almacenamiento) o en otra ubicaci on (transmisi on). Por lo mismo, los canales
de comunicaci on son modelados mediante la relaci on entrada-salida que tengan; en este sentido,
un canal de comunicaci on puede ser considerado como un sistema.
Existen variados factores que producen que la salida de un canal de comunicaci on sea difer-
31
CAP

ITULO 2. TEOR

IA DE LA INFORMACI

ON
ente a su entrada, tales como atenuaci on, nolinealidades, limitaciones de ancho de banda, ruido,
etc. Todo esto contribuye a una relaci on entrada-salida bastante compleja, que generalmente
tiene que ser considerada como una relaci on estoc astica.
Al considerar el canal como un sistema con entrada X y salida Y , las probabilidades condi-
cionales p(Y [X) y p(X[Y ) son conocidas como Probabilidad de Transici on y Probabilidad
de Union, respectivamente. A su vez, la entropa de entrada H(X) corresponde a la incer-
tidumbre promedio de la fuente de informacion y la entropa de la salida H(Y ) corresponde a
la incertidumbre promedio de la recepcion de un smbolo. Para el caso de las entropas condi-
cionales, se tiene que H(Y [X) corresponde a la incertidumbre promedio respecto de que el smbolo
que se recibe, dado que se ha transmitido X. La entropa H(X[Y ) sera la Entropa de Equivo-
cacion, que corresponde a la incertidumbre promedio de que smbolo sera transmitido despues
de haber recibido un smbolo X. La entropa conjunta H(X, Y ) es la incertidumbre promedio
del sistema de comunicaciones como un todo.
Considere un canal sin memoria, lo que implica que la salida depende de la entrada en ese
momento y no de las previas a el. Este tipo de canales, est an denidos por un conjunto de
probabilidades condicionadas que relacionan la probabilidad de cada estado a la salida, con la
probabilidad de la entrada. Suponga un canal con dos entradas x
1
y x
2
, y con tres salidas y
1
,
y
2
e y
3
, como lo muestra la Fig 2.2.
Fig. 2.2: Canal de comunicaciones de 2 entradas y 3 salidas modelado como un sistema.
Las rutas entrada-salida se indican como una probabilidad condicional P
ij
= P(y
j
[x
i
), repre-
sentando la probabilidad de obtener a la salida y
j
, dado que a la entrada x
i
. Esta probabilidad
recibe el nombre de Probabilidad de Transicion del Canal.
Fig. 2.3: Rutas entrada-salida para el canal de comunicaciones de 2 entradas y 3 salidas.
A menudo, se preere especicar al canal por su Matriz de Probabilidades de Tran-
sicion, denotada por P(Y[X) = [P(y
j
[x
i
)], que para el caso particular que se est a evaluando
estar a dada por:
P(Y[X) =
_
P(y
1
[x
1
) P(y
2
[x
1
) P(y
3
[x
1
)
P(y
1
[x
2
) P(y
2
[x
2
) P(y
3
[x
2
)
_
.
32
CAP

ITULO 2. TEOR

IA DE LA INFORMACI

ON
Por otra parte, cada una de las entradas debe siempre conducir a una salida, por lo que la
suma de cada la de la matriz debe ser igual a 1. En smbolos,
P(y
1
[x
1
) + P(y
2
[x
1
) + P(y
3
[x
1
) = P(y
1
[x
2
) + P(y
2
[x
2
) + P(y
3
[x
2
) = 1 .
La Matriz del canal es util para encontrar probabilidades de salida de acuerdo a las probabil-
idades de entrada. Considere la matriz la de n entradas dada por P(X) = [P(x
1
) P(x
n
)].
Para una matriz de transici on dada por P(Y[X), la matriz de m salidas estara dada por
P(Y) = P(X) P(Y[X)
Resulta interesante mencionar que si la matriz P(X) es escrita en forma diagonal, el producto
dado por diag[P(X)]P(Y[X) dene la Matriz de Union de Probabilidades y es denotada
por P(X, Y). En palabras simples, el termino P(x
i
, y
j
) representa la probabilidad de uni on de
transmitir x
i
y recibir y
j
. Matem aticamente la matriz de union est a dada por:
P(X, Y) =
_

_
P(x
1
) 0 0
0 P(x
2
) 0
.
.
.
.
.
.
.
.
.
.
.
.
0 0 0 P(x
n
)
_

_
_

_
P(y
1
[x
1
) P(y
2
[x
1
) P(y
m
[x
1
)
P(y
1
[x
2
) P(y
2
[x
2
) P(y
m
[x
2
)
.
.
.
.
.
.
.
.
.
.
.
.
P(y
1
[x
n
) P(y
2
[x
n
) P(y
m
[x
n
)
_

_
.
Ejemplo 2.12 - Representaci on de Canales.
Considere un canal binario de dos entradas y dos salidas, en donde la fuente es equiprobable y
la matriz de transici on esta uniformemente distribuda al transmitir sin error. Se pide encontrar
la matriz de transici on, la matriz de salida, la matriz de uni on y la probabilidad de error.
Sol. Dada la equiprobabilidad de la fuente, la matriz de entrada est a dada por P(X) =
[0.5 0.5]. Considerando que P(1[0) = P(0[1) = , la matriz de transicion estar a dada por
P(Y[X) =
_
1
1
_
. As, la matriz de salida sera P(Y) = [0.5 0.5]. La matriz de uni on
ser a P(X, Y) =
_
0.5 0
0 0.5
_
P(Y[X) = 0.5 P(Y[X). La probabilidad de transmisi on con error
estar a dada por P(E) = P(0r, 1t) + P(1r, 0t) = P(1)P(0[1) + P(0)P(1[0) = 0.5 + 0.5 = .
2.4.1 Canales con Ruido Aditivo Gaussiano
Cuando se habla de canales de comunicaci on, se puede hacer referencia a cualquiera de las
muchas formas en que se puede realizar una transmisi on de datos tanto digitales como analogos.
Por ejemplo se habla de cablados, bras opticas, canales inalambricos por ondas electromagneticas
o incluso canales subacu aticos por ondas ac usticas.
Resulta evidente entonces, que los canales reales agregan siempre componentes de ruido que
no dependen de los datos que se esten transmitiendo. La principal componente que se da en
todo canal es el ruido aditivo, que tiene caracter aleatorio en el tiempo.
Entonces, considere que la se nal transmitida se representa por s(t) y que se contamina por un
proceso aleatorio de ruido aditivo n(t). Si este ruido es introducido por los elementos presentes,
33
CAP

ITULO 2. TEOR

IA DE LA INFORMACI

ON
entonces se habla de Ruido Termico. El ruido termico esta determinado por el movimiento
aleatorio de los portadores dentro de cualquier elemento electr onico en general producido por
la inuencia de agentes externos. En terminos m as tecnicos, el ruido termico recibe el nombre
de rudo Johnson. El voltaje aleatorio producido a traves de los terminales en circuito abierto
del dispositivo, tiene una distribuci on Gaussiana con media nula.
Entonces, el modelo matem atico que describe al canal de comunicaci on con ruido aditivo
gaussiano esta determinado por
r(t) = s(t) + n(t) , (2.9)
en donde es la atenuacion del canal y r(t) es la se nal recibida a la salida del canal.
Ejemplo 2.13 - Canal Gaussiano.
Considerando que se envia una se nal s(t) con funci on de autocorrelaci on dada por R
s
() =
2 exp([[) a traves de un canal Gaussiano, se pide encontrar la potencia de la se nal recibida.
Sol. Se sabe con anterioridad que la funcion de autocorrelaci on de un proceso AWGN es
R
n
() =
2
(), siendo () la funcion impulso unitario. Entonces, la funci on de autocorrelaci on
de la se nal recibida, r(t) = s(t) + n(t), esta determinada por:
R
r
() = Er(t)r(t + )
= E[s(t) + n(t)][s(t + ) + n(t + )]
= Es(t)s(t + ) + Es(t)n(t + ) + En(t)s(t + ) + En(t)n(t + )
= R
s
() + R
n
()
= 2e
||
+
2
() .
As, la potencia de la se nal recibida sera R
r
(0) = 2 +
2
, en donde
2
es la varianza del ruido
Gaussiano.
2.4.2 Canales con Ruido y Filtro
Por otra parte, al trabajar con lneas telef onicas se debe incluir el uso de un ltro lineal para no
exceder las limitaciones de ancho de banda, por lo que al ruido se suma la presencia de dicho
ltro.
Considerese que el ltro tiene una respuesta a entrada impulso dada por c(t), entonces el
modelo matematico que describe la salida del canal es
r(t) = s(t) c(t) + n(t) , (2.10)
en donde representa la convoluci on de se nales.
En general, la respuesta impulso del ltro no es invariante en el tiempo por lo que se debe
incluir una variable de edad, . As, se tiene que la respuesta es c(t, ). Por ejemplo, un buen
modelo para multitrayectorias (ionosfera f < 30MHz, canales de radio celulares en moviles,
etc) es de la forma
c(t, ) =
L

i=1
a
i
(t) (t
i
) ,
34
CAP

ITULO 2. TEOR

IA DE LA INFORMACI

ON
en donde a
i
(t) son las posibles atenuaciones variantes en el tiempo, y
i
corresponden a los
retardos de cada una de dichas trayectorias. Por lo tanto, para este caso particular, el modelo
matem atico a utilizar esta determinado por
r(t) =
L

i=1
a
i
(t) s(t
i
) + n(t) .
2.5 Capacidad del Canal
Ya se ha discutido que H(X) dene el lmite fundamental de la tasa a la que una fuente discreta
puede ser codicada sin errores en su reconstrucci on, y tambien se comento en un principio de
que el canal posee su propio lmite fundamental para la transmisi on de informacion a traves de
el.
Evidentemente, el objetivo principal cuando se transmite informaci on sobre cualquier canal
de comunicaci on es la conanza, la que puede ser medida por la probabilidad de una recepcion
correcta en el receptor. Un resultado muy importante de la teora de la informacion, es que
las comunicaciones conables Se entiende por comunicaci on conable como aquella en que
la transmision se logra con una probabilidad de error inferior a un valor pre-establecido son
posibles sobre canales ruidosos, mientras la tasa de transmision sea menor que cierto valor,
llamado Capacidad del Canal. Este importante resultado, fue dado a conocer inicialmente
por Shannon (1948) y es conocido como el Noisy Channel Coding Theorem.

Este teorema
enuncia que la limitacion basica que el ruido provoca en un canal de comunicacion no es en la
conabilidad de la comunicacion, sino en la velocidad de dicha comunicacion.
Se denio anteriormente un canal discreto como un sistema con alfabeto de entrada X,
alfabeto de salida Y , y matriz de probabilidades de transici on P(Y[X), que expresa la proba-
bilidad de observar un smbolo y a la salida, dado que se envio un smbolo x. Un canal se dice
sin-memoria si la distribuci on de probabilidades de la salida depende solo de la entrada en ese
tiempo y es condicionalmente independiente de las entradas o salidas anteriores.
As, se dene la Capacidad del Canal de informaci on de un canal discreto y sin memoria
(DMC) mediante la relaci on:
C = max
p(x)
I(X; Y ) (2.11)
en donde el m aximo es tomado sobre todas las posibles distribuciones de la entrada p(x). Se
debe entender por esta denicion que corresponde al m aximo valor de la informaci on mutua, que
es la informaci on promedio m axima por smbolo que puede ser transmitido a traves del canal.
N otese entonces, que si la tasa de transmision, R, es menor que la capacidad del canal, C,
entonces la comunicaci on conable a una tasa R es posible; por otro lado, si R > C, entonces
una comunicaci on conable a una tasa R es imposible. Tanto la tasa como la capacidad se
miden en bits por transmision, o bits por uso del canal.
La maximizaci on que se debe hacer, es con respecto a las probabilidades de la fuente, puesto
que las probabilidades de transicion son jadas por el canal. Sin embargo, la capacidad de canal
es una funci on solamente de las probabilidades de transici on del canal, puesto que el proceso de
la maximizacion elimina la dependencia de sobre las probabilidades de la fuente.
35
CAP

ITULO 2. TEOR

IA DE LA INFORMACI

ON
Ejemplo 2.14 - Capacidad del Canal Binario.
Encuentre la capacidad del canal para un canal binario simetrico, en donde la probabilidad de
recepci on erronea es p y la probabilidad de que se envie un cero es .
Sol. Para calcular la capacidad del canal, se maximiza I(X; Y ) = H(Y )H(Y [X). La entropa
condicional est a determinada por H(Y [X) =

j
p(x
i
, y
j
) log p(y
j
[x
i
) = (1 p) log(1
p)(1)p log pp log p(1)(1p) log(1p) = H(p), considerando la denici on de H(p)
dada en el Ejemplo 2.4. As I(X; Y ) = H(Y ) H(p). Entonces, la informaci on mutua ser a
m axima cuando la entropa de Y sea m axima, caso que se d a para una distribucion uniforme de
los smbolos. En pocas palabras, H(Y ) 1, por lo que I(X; Y ) 1 H(p), y C = 1 H(p).
Considerando este ultimo ejemplo, los resultados obtenidos implican que si p = 0 o p = 1 la
salida del canal esta completamente determinado por la entrada, y la capacidad ser a de 1 bit
por smbolo. Por otro lado, si p = 0.5, un smbolo en la entrada nos lleva a cualquier salida con
igual probabilidad y la capacidad del canal es nula. Adem as, la probabilidad del error estar a
determinada por
P
E
=

i
p(x
i
, e) =

i
p(x
i
)p(e[x
i
) = [p(x
1
) + p(x
2
)]p = p
lo que establece que la probabilidad de error no condicional P
E
, es igual a la probabilidad de
error condicional p(y
j
[x
i
), i ,= j.
Ejemplo 2.15 - Capacidad del Canal DMC sin ruido.
Encuentre la Capacidad del Canal para un DMC sin ruido.
Sol. Para un canal sin memoria y sin ruido, las probabilidades de error son nulas, lo que equivale
a decir que la conexion es uno-a-uno entre las entradas y salidas. Luego p(x
i
[y
j
) = 0 i ,= j y por
lo mismo p(x
i
[y
j
) = 1 i = j. Considerando que H(X[Y ) =

N
i=1

N
j=1
p(x
i
, y
j
) log p(x
i
[y
j
),
se tiene que H(X[Y ) = 0. As, la informaci on mutua ser a I(X; Y ) = H(X)H(X[Y ) = H(X).
Para maximizar la entropa de la fuente, anteriormente se dijo que todos los smbolos de la fuente
deban ser equiprobables, entonces C = I
max
(X; Y ) = H
max
(X) =

N
i=1
1
N
log
1
N
= log N, en
donde N es el n umero de smbolos de la fuente.
2.5.1 Capacidad de Canal Gaussiano
La relaci on entrada-salida para un canal Gaussiano discreto con potencia limitada esta dada
por
Y = X + Z ,
en donde Z es una variable aleatoria Gaussiana de media cero y varianza
2
Z
. Shannon demostr o
que el n umero de mensajes que pueden ser conablemente transmitidos est a determinado por
la raz on que existe entre los vol umenes de hiperesferas, y llego al resultado que la capacidad del
canal Gaussiano est a determinada por
36
CAP

ITULO 2. TEOR

IA DE LA INFORMACI

ON
C = W log
_
1 +
P
N
0
W
_
bits/seg. , (2.12)
en donde W es el ancho de banda del canal, P es la potencia de la se nal y
N
0
2
es la densidad
espectral de potencia del ruido del canal.
37
Captulo 3
Modulacion en Banda Base
3.1 Introducci on
Como se menciono en el Captulo 1, la transmisi on de informacion es mejor realizarla en forma
digital que hacerlo de forma analoga, por lo que el transformar una se nal analoga en una digital
es un tarea de vital importancia en el curso. Para realizar esta tarea, se deben realizar tres
etapas: La se nal analoga debe ser muestreada en el tiempo, por lo que se genera una se nal de
tiempo discreto y amplitud continua. Se dice que la amplitud es continua pues su valor puede
tener cualquier n umero real dentro del rango en el que se mueve la se nal an aloga original. La
siguiente etapa corresponde a la cuantizaci on de estos valores reales a un n umero nito de
posibles valores, con el n de poder representarlos mediante n umeros binarios. Ambas etapas
fueron introducidas en el Captulo 1 de este curso.
La tercera etapa en el proceso de conversi on an alogo-digital es la codicacion, en donde
una secuencia de bits es asignada a cada uno de los diferentes valores posibles de la salida del
cuanticador, como se estudio en el Captulo 2. Dado que el n umero de salidas es nito, cada
muestra puede ser representada por un n umero nito de bits; por ejemplo 256 valores posibles
podran ser representados por 8 bits (256 = 2
8
), razon por la cual se utiliza un n umero de niveles
que sea potencia de dos. A continuaci on se retomar an los conceptos de muestreo, cuantizacion
y codicacion, ahondando mas en ellos y presentando alternativas que materializan esta labor.
3.2 Muestreo de Se nales
3.2.1 Recuperacion de Se nales Muestreadas
Si se considera que la se nal x(t) es de espectro acotado con ancho de banda W, y se elige la
frecuencia de muestro como f
s
= 2W, cada una de las replicas estar a separada de sus vecinas
por una banda de frecuencias ex actamente igual a f
s
[Hz], tal como se observa en la Fig. 1.4(f).
Resulta entonces evidente, que si la frecuencia de muestreo es f
s
< 2W, los espectros se
traslapar an y la reconstrucci on de la se nal original sera imposible. Esta distorsi on es conocida
como aliasing. Si se garantiza una frecuencia de muestreo superior al doble del ancho de banda,
este fen omeno no ocurre y la reconstrucci on de la se nal se puede realizar f acilmente con el ltro
apropiado, ya que las replicas espectrales se alejan entre s. Cuando se utiliza exactamente el
38
CAP

ITULO 3. MODULACI

ON EN BANDA BASE
doble del ancho de banda de la se nal, se dice que se trabaja con la Frecuencia de Muestreo
de Nyquist.
En efecto, para recuperar la se nal original, basta que el ltro tenga una respuesta dada por
H(f) =
_
T
s
, [ f [< W
0 , [ f [ f
s
W
(3.1)
Para el rango W [ f [< f
s
W, el ltro puede tener cualquier caracterstica que permita una
f acil implementacion, siendo un ltro pasabajos ideal el metodo menos pr actico en terminos de
simplicidad, pero el mas sencillo para realizar un estudio de desempe no. Entonces, considerese
que el ltro tiene una respuesta en frecuencia dada por
LPF(f) = T
s

_
f
2W

_
con W

como ancho de banda y que satisface la relacion W W

< f
s
W. Ahora bien, la
reconstrucci on de la se nal se lograra tomando la convoluci on entre la se nal discreta y dicho ltro
en el tiempo, por lo tanto en el plano de la frecuencia se tiene,
X(f) = X
s
(f) T
s

_
f
2W

_
.
Tomando la transformada de Fourier inversa, se tiene:
x(t) = x
s
(t) 2W

T
s
sinc(2W

t) =

n=
2W

T
s
x(t) sinc(2W

(t nT
s
)) (3.2)
en d onde sinc(t) =
sin t
t
. La relaci on dada por la Ecuaci on (3.2), demuestra que la recon-
strucci on de la se nal puede ser perfectamente hecha al utilizar la funci on sinc() para la inter-
polaci on.
En sistemas pr acticos, el muestreo siempre se realiza a frecuencias superiores a la tasa de
Nyquist, lo que a su vez implica un dise no de ltro mucho mas relajado. En dichos casos la
distancia entre dos espectros replicados, que est a dada por (f
s
W)W = f
s
2W es conocida
como banda de guarda. Por lo tanto, en sistemas con banda de guarda, la frecuencia de
muestreo esta dada por f
s
= 2W +W
G
, en d onde W es el ancho de banda de la se nal de banda
limitada. Al observar la Fig. 1.4(f), se puede notar que para el ejemplo, la banda de guarda
ser a de W
G
= 70[Hz].
3.2.2 Errores en el Muestreo
De acuerdo a lo visto hasta ahora, una se nal x(t) puede ser perfectamente recuperada de sus
muestras siempre cuando esta sea de espectro acotado y se realice el muestreo a una tasa superior
al doble de su ancho de banda. Esto se conoce en la literatura con el nombre de Teorema del
Muestreo. El teorema del muestreo es llamado tambien Teorema de Shannon o Teorema de
Kotelnikov, y su demostraci on m as simple es la realizada en la secci on anterior mediante la
utilizaci on de la transformada de Fourier de la se nal muestreada.
39
CAP

ITULO 3. MODULACI

ON EN BANDA BASE
En la practica, el muestreo tiene tres grandes fuentes de errores: redondeo, truncamiento y
aliasing. Los errores de redondeo ocurren cuando varios valores de muestras son redondeados
en un sistema de comunicaci on. Este error recibe el nombre formal de ruido de cuantizacion y
se estudiar a con mas detalle en los pr oximos captulos. El teorema del muestreo requiere que
las muestras sean tomadas durante un tiempo innito, por lo que cada una de estas muestras es
utilizada para la reconstruccion de cualquier valor de la se nal en cualquier instante de tiempo.
Sin embargo, en sistemas reales las se nales son observadas durante un intervalo nito de tiempo,
apareciendo el error de truncamiento; para realizar un an alisis de este error, normalmente se
dene un funcional de error como la diferencia entre la se nal reconstruda y la se nal original,
permitiendo denir cotas superiores en el error y como consecuencia, intervalos de tiempo de
observacion mnimos requeridos.
Un tercer error ocurre cuando la frecuencia de muestreo no es lo sucientemente alta. Este
recibe el nombre tecnico de aliasing y como se explico anteriormente corresponde al traslape
que existe en los espectros de la se nal original y sus replicas originadas por el muestreo. Existen
principalmente dos formas de solucionar este problema. La primera es aumentar la frecuencia de
muestreo a un valor muy por encima de la frecuencia de Nyquist con el n de alejar lo suciente
cada una de las replicas del espectro original. Como ejemplo observe la Fig. 3.1; si al muestrear
a f
s
se produce aliasing, al aumentar la frecuencia de muestreo a f

s
> f
s
entonces las replicas
se alejaran lo suciente para eliminar el problema.
Fig. 3.1: Soluci on inmediata al aliasing mediante el muestreo a frecuencias superiores
Otra soluci on es incluir un ltro antialiasing cuando la frecuencia de muestreo no se puede
modicar por alguna raz on puntual como, por ejemplo, disponibilidad tecnica. La primera
forma es realizar un preltrado para reducir el ancho de banda de la se nal original de W a
W

de tal forma que para el mismo f


s
se cumpla que f
s
< 2W, pero f
s
2W

. Esta es una
buena pr actica de ingeniera, sin embargo, dependiendo de las caractersticas de la se nal original,
puede haber perdida importante de informaci on. Esta solucion se representa en la Fig. 3.2 en
donde la linea segmentada corresponde a la se nal original y su espectro muestreado sin realizar
el preltrado. La otra forma de implementar un ltro es realizando un postltrado en el cual se
realiza el muestreo a la tasa disponible y luego se ltra el espectro en W

, hasta justo antes de


que se tenga aliasing. Resulta claro que W

tiene que ser menor que f


s
W. Igualmente para
esta solucion, se tiene perdida de informacion por lo que la frecuencia de muestreo, el ancho
de banda de corte y el tipo del ltro seleccionado para una se nal particula estan estrictamente
relacionados.
40
CAP

ITULO 3. MODULACI

ON EN BANDA BASE
Fig. 3.2: Filtrado de la se nal original para eliminar el aliasing. Se nal continua y muestrada
luego del muestreo
Fig. 3.3: Filtrado de la se nal muestreada para eliminar el aliasing.
41
CAP

ITULO 3. MODULACI

ON EN BANDA BASE
3.2.3 Muestreo Natural
A pesar que el muestreo instantaneo mediante impulsos es un modelo conveniente para entender
el concepto, una forma m as pr actica de implementaci on es mediante la multiplicaci on de la se nal
an aloga x(t) por un tren de pulsos x
p
(t), mostrada en la Fig. 3.4(a). Cada pulso en x
p
(t) tiene un
ancho T
p
, una amplitud 1/T
p
y evidentemente su duraci on total es T
s
. Esta multiplicaci on puede
ser vista como el proceso de apertura/cerrado de un switch. La se nal muestreada resultante
x
s
(t) se muestra en la Fig. 3.4(c) y se puede expresar mediante la relaci on
x
s
(t) = x(t) x
p
(t) . (3.3)
Ac a se habla de muestreo natural pues cada pulso mantiene la forma de su segmento analogo
correspondiente durante el intervalo de duracion de cada uno de los pulsos. Utilizando series de
Fourier, el tren de pulsos se puede representar mediante
x
p
(t) =

n=
x
n
e
jnst
,
en d onde
s
= 2f
s
, siendo f
s
= 1/T
s
la frecuencia de muestreo que se elige igual a 2W para
satisfacer el criterio de Nyquist. Los coecientes de Fourier, x
n
, estaran determinados por
x
n
=
1
Ts
sinc
_
nTp
Ts
_
. Su representaci on en el plano de la frecuencia se puede ver en la Fig. 3.4(b)
en donde se ha marcado la envolvente de magnitud con una lnea segmentada (funci on [sinc()[).
Combinando esta expansion en series de Fourier con la denicion de x
s
(t) se tiene
x
s
(t) = x(t) x
p
(t) = x(t)

n=
x
n
e
jnst
.
Tomando la transformada de Fourier a esta ultima denici on, el espectro de la se nal muestrada
en forma natural, X
s
(f), se puede calcular mediante
X
s
(f) = F
_
x(t)

n=
x
n
e
jnst
_
=

n=
x
n
F
_
x(t) e
jnst

n=
x
n
X(f nf
s
) , (3.4)
en donde se utiliz o el hecho de que, para sistemas lineales, se puede intercambiar las operaciones
de suma y transformada de Fourier. Al igual que la Ecuaci on (1.28), la Ecuaci on (3.4) demuestra
que X
s
(f) es un replica de X(f) repetida peri odicamente cada f
s
[Hz]. Sin embargo al realizar
el muestreo natural, las amplitudes est an atenuadas por la envolvente x
n
=
1
Ts
sinc
_
nTp
Ts
_
como
se observa en la Fig. 3.4(d). Se puede demostrar que en el lmite, mientras el ancho del pulso T
p
tiende a cero, x
n
tiende a 1/T
s
para todos los valores posibles de n, por lo tanto la Ecuacion (3.4)
tiende a la Ecuaci on (1.28).
42
CAP

ITULO 3. MODULACI

ON EN BANDA BASE
(a) Tren de Pulsos (b) Espectro Tren de Pulsos
(c) Se nal Muestreada (d) Espectro Se nal Muestreada
Fig. 3.4: Muestreo natural de se nal an aloga mediante tren de pulsos
3.2.4 Sample-and-Hold
El m as simple y m as popular metodo de muestreo y cuantizacion conocido como Sample-and-
Hold (muestreo y retencion) puede ser descrito mediante la convoluci on de la se nal muestreda
dada en la Fig. 1.4(e) con un pulso rectangular de amplitud unitaria y ancho de pulso T
s
, p(t).
Esta convoluci on en el tiempo se puede expresar de la forma
x
sh
(t) = p(t) x
s
(t) = p(t) [x(t)x

(t)]
= p(t)
_
x(t)

n=
(t nT
s
)
_
.
Estos resultados se puden observar en la Fig. 3.5(a). La transformada de Fourier de la se nal S/H
se ve afectada por la presencia del pulso p(t) y su transformada de Fourier dada por T
s
sinc(fT
s
).
As, el espectro resultante tiene una apariencia similar al espectro del muestreo natural, tal como
se puede observar en la Fig. 3.5(b).
43
CAP

ITULO 3. MODULACI

ON EN BANDA BASE
(a) Operacion Sample-and-Hold (b) Espectro se nal Sample-and-Hold
Fig. 3.5: Sample-and-Hold para la se nal an aloga
3.3 Cuantizaci on
Como se explico anteriormente, en este proceso se realiza la discretizaci on de la amplitud de las
se nales, lo que permite representar la se nal de forma valida con valores binarios de largo nito.
En la presente secci on se estudiara la cuantizaci on escalar uniforme y no-uniforme, adem as de
la cuantizaci on vectorial.
3.3.1 Cuantizaci on Escalar
En la cuantizacion escalar cada muestra es cuanticada como un valor puntual dentro de un
rango nito de valores posibles, lo que se traduce en una acci on de redondeo de las cifras.
Para esto, el espacio de n umeros reales 1 se particiona en M subconjuntos denotados por
R
m
, 1 m M que se llamar an Regiones de Cuantizacion. Asociado a cada subset R
m
, un
Punto de Representacion x
m
es elegido, vale decir que para el instante k, si la muestra x(k)
pertenece a R
m
, entonces es redondeado al valor x
m
.
Dado que se tienen M posibles valores de cuantizaci on, entonces se requieren log
2
M bits
para poder hacer la codicaci on en secuencias binarias. De igual forma, el n umero de bits que
se requieren para transmitir cada muestra de la fuente, sera: v = log
2
M bits.
Resulta facil notar que al incluir estos redondeos, la se nal resultante tiene cierta distorsi on
con respecto a la se nal original, tal como se discuti o anteriormente. Este error recibe el nombre
de error de cuantizacion. Para su descripci on, es necesario considerar la funcion de cuantizaci on
denida por
Q(x) = x
i
, x R
i
,
que resume el hecho de que si el valor a cuantizar, x, cae dentro de la i-esima regi on R
i
=
(a
i1
, a
i
], entonces se aproximar a (redondear a) por el valor x
i
. En general, al denir un error
se considera la diferencia cuadr atica entre una referencia y el valor bajo estudio que para este
caso est an dados por el valor sin cuantizar y cuantizado respectivamente. Por esto, el error, que
44
CAP

ITULO 3. MODULACI

ON EN BANDA BASE
recibe el nombre de error cuadratico de distorsion, esta denido por
d(x
i
, x
i
) = (x
i
x
i
)
2
. (3.5)
Considerando que d(x
i
, x
i
) es la distorsi on medida por letra, entonces la distorsi on entre una
secuencia de n muestras, X
n
, y sus correspondientes n muestras cuantizadas,

X
n
, est a deter-
minada por el promedio sobre las n muestras de las salidas de la fuente, es decir,
d(X
n
,

X
n
) =
1
n
n

i=1
d(x
i
, x
i
) .
Dado que las salidas de la fuente, X
n
, son variables aleatorias, entonces d(X
n
,

X
n
) tambien
es una variable aleatoria. As, para tener una cantidad representativa para todas las posibles sal-
idas es necesario especicar el error cuadratico de distorsion medio. Este error esta determinado
por
D = E
_
d(X
n
,

X
n
)
_
=
1
n
n

k=1
Ed(x
k
, x
k
) = Ed(x
k
, x
k
) . (3.6)
lo que es v alido al considerar que se trabaja con una fuente estacionaria.
En la Figura 3.6 se puede ver un ejemplo de un esquema de cuantizacion de 8 niveles, en
los cuales la variable x es seccionada en sus respectivas aproximaciones x
1
, x
2
, . . . , x
8
, para los
subintervalos dados por R
1
= (, a
1
], R
2
= (a
1
, a
2
], . . . , R
8
= (a
7
, +) respectivamente. No
resulta dicil notar que este gr aco corresponde a la representaci on de la funci on de cuantizacion
Q(x).
Ejemplo 3.1 - Error de Distorsion.
Considere una fuente X(t), Gaussiana, con media cero, estacionaria y con una PSD dada por:

X
(f) =
_
2 , [ f [< 100Hz
0 , i.o.c.
Esta fuente es muestrada a la frecuencia de Nyquist y que cada muestra est a cuantizada
usando un cuantizador de ocho niveles como en la Figura 3.6. Los niveles utilizados son
a
i
60, 40, 20, 0, 20, 40, 60, que se redondean a x
i
70, 50, 30, 10, 10, 30, 50, 70.
Se pide calcular la distorsion y tasa resultante.
Sol. Dado el ancho de banda de la fuente, su frecuencia de muestreo sera f
s
= 2W = 200Hz
para satisfacer la condicion de muestreo a la frecuencia de Nyquist. Considerando entonces
un cuantizador de 8 niveles, entonces se requieren 3 bits para realizar la descripci on de cada
muestra. As, la tasa estar a dada por R = 3f
s
= 600 bits/s. La varianza de la fuente es
2
X
=
EX
2
= R(0) =
_
+


X
(f)df =
_
100
100
2df = 400, ya que es un proceso con media cero. Esto
permite denir la funci on de distribuci on de probabilidad dada por f
X
(x) =
1

2400
exp(
x
2
800
),
pues es una fuente Gaussiana. Ahora bien, la distorsi on estar a dada por:
D = E
_
(X

X)
2
_
=
_
+

(x Q(x))
2
f
X
(x) dx =
8

i=1
_
R
i
(x Q(x))
2
f
X
(x) dx
=
_
a
1

(x x
1
)
2
f
X
(x) dx +
_
a
2
a
1
(x x
2
)
2
f
X
(x) dx + +
_
+
a
7
(x x
8
)
2
f
X
(x) dx.
45
CAP

ITULO 3. MODULACI

ON EN BANDA BASE
Fig. 3.6: Ejemplo de un esquema de cuantizacion de 8 niveles
Reemplazando los valores de a
i
, x
i
y utilizando la denici on de f
X
(x) se obtiene que D
33.345.
Es muy interesante comparar el resultado anterior con la distorsi on m axima que se podra
obtener en el mismo sistema. Dicha distorsion maxima se logra al no utilizar ning un bit por
cada salida de la fuente, caso en el cual la se nal reconstruida ser a siempre cero. As, la maxima
distorsi on ser a D
max
= E(X 0)
2
= EX
2
=
2
X
= 400. Este ultimo resultado permite
deducir que al utilizar 3 bits por salida de la fuente, la distorsi on se ha reducido en un factor
de 12.
A pesar de lo descriptivo del error de cuantizacion, existe una metrica m as exacta pues
est a normalizada con respecto a la potencia de la se nal original. Recibe el nombre de Raz on
Se nal-Ruido de Cuantizacion (SQNR, Signal-to-Quantization Noise Ratio) y se basa en
la comparacion anteriormente hecha con respecto a la distorsion maxima. Esta metrica esta
denida por:
SQNR =
EX
2

E(X Q(X))
2

. (3.7)
Cabe destacar que considerando las deniciones de potencia de la se nal original y de la cuanti-
zada, el SQNR est a determinado por la raz on entre la potencia de la se nal (P
X
) y la potencia
de la se nal obtenida al realizar la diferencia entre la se nal original y la cuantizada (P

X
), con

X = X

X.
46
CAP

ITULO 3. MODULACI

ON EN BANDA BASE
Ejemplo 3.2 - Razon Se nal-Ruido de Cuantizaci on.
Determine el SQNR para el esquema de cuantizaci on utilizado en el Ejemplo 3.1.
Sol. Se determin o previamente que P
X
=
_

X
(f) df = 400. Ademas la potencia del ruido de
cuantizaci on est a dado por P

X
= 33.345, entonces SQNR = 400/33.345 = 11.995 10.79dB.
Cuantizaci on Uniforme
La cuantizacion uniforme es la mas simple de todas las tecnicas de cuantizacion ya que todas
las particiones, excepto R
1
y R
M
, estan equidistante en un valor denotado por , por lo que el
i-esimo borde estara dado por a
i
= a
1
+ (i 1). En general y por simplicidad, se asume que
los niveles de cuantizacion se encuentran a una distancia de

2
de los M 1 bordes, luego los
niveles de cuantizaci on estan dados por x
i
= a
i


2
= a
1
+ (i
3
2
). Se puede notar que la
Figura 3.6 muestra un ejemplo de un cuantizador uniforme ya que cumple las condiciones recien
expuestas. En un cuantizador uniforme, el error de distorsi on medio est a determinado por
D =
M

i=1
_
R
i
[x Q(x)]
2
f
X
(x) dx
=
_
a
1

[x x
1
]
2
f
X
(x) dx +
M2

i=1
_
a
i+1
a
i
[x x
i+1
]
2
f
X
(x) dx +
_

a
M
[x x
M
]
2
f
X
(x) dx
=
_
a
1

_
x
_
a
1


2
__
2
f
X
(x) dx +
M2

i=1
_
a
1
+i
a
1
+(i1)
_
x
_
a
1
+ i

2
__
2
f
X
(x) dx +
_

a
1
+(M2)
_
x
_
a
1
+ (M 2) +

2
__
2
f
X
(x) dx . (3.8)
Conforme a esto, el error de distorsi on ser a una funci on de dos parametros a
1
y , por lo
que para obtener un dise no optimo del cuantizador uniforme se debe minimizar este funcional
D D(a
1
, ). La minimizaci on se realiza tomando derivadas parciales del funcional con
respecto a ambas variables e igualando a cero. En general esta es una tarea compleja por lo que
se realiza mediante metodos n umericos. En la Tabla 3.1 se muestra el espaciado optimo de los
niveles de cuantizaci on para una fuente aleatoria Gaussiana con media nula y varianza unitaria.
Cuantizaci on No-uniforme
Si se relaja la condici on de que la separacion sea igual para todas las regiones, entonces se logra
minimizar la distorsion con menos apremios. As, el cuantizador no-uniforme tiene un mejor
rendimiento que el uniforme para un mismo n umero de niveles. Primero que todo, se ver a
intuitivamente el porque.
Suponga una pieza musical en donde su forma de onda se mueve en un rango de voltajes de
-2 a 2[V]. Suponga ademas que se utilizan 3 bits en la cuantizaci on de dicha se nal an aloga. Si
se realiza cuantizacion uniforme, entonces todos los voltajes entre 0 y 0.5[V] ser an codicados
como 100, que corresponde a un valor de reconstrucci on de 0.25[V]. De igual forma, todas las
47
CAP

ITULO 3. MODULACI

ON EN BANDA BASE
Tabla 3.1: Cuantizador Uniforme

Optimo para una fuente Gaussiana
Niveles de Cuantizaci on Espaciado entre bordes Error medio cuadratico Entropa
M D H(

X)
1 1.000 0.0
2 1.596 0.3634 1.000
4 0.9957 0.1188 1.904
8 0.5860 0.03744 2.761
16 0.3352 0.01154 3.602
32 0.1881 0.003490 4.449
muestras entre 1.5 y 2[V] se codicar an como 111, que se reconstruir a como 1.75[V]. Ahora
bien, durante pasajes suaves de m usica en donde la se nal an aloga no supere los 0.5[V], se tendra
una gran perdida de la denicion de la m usica. En otras palabras, la cuantizacion otorga la
misma resolucion tanto para altos como para bajos niveles, aun cuando el oido humano es
menos sensible a los cambios que se producen en altos niveles. Dado que la respuesta del oido
humano es no-lineal, entonces es preferible tener una cuantizaci on de pasos peque nos a bajos
niveles y con pasos m as grandes en los niveles m as altos.
Considerando que se quiere dise nar un cuantizador de M niveles, optimo en el sentido del
error medio cuadratico, se tiene que la distorsion media es:
D =
_
a
1

(x x
1
)
2
f
X
(x) dx +
M2

i=1
_
a
i+1
a
i
(x x
i+1
)
2
f
X
(x) dx +
_
+
a
M1
(x x
M
)
2
f
X
(x) dx ,
en donde existen 2M 1 variables de las que D depende: (a
1
, a
2
, . . . , a
M1
, x
1
, x
2
, . . . , x
M
) y la
minimizaci on del error D se tiene que hacer con respcto a estas variables. Tomando derivadas
parciales con respecto a todos los a
i
e igualando a cero, se tiene
D
a
i
= f
X
(a
i
)
_
(a
i
x
i
)
2
(a
i
x
i+1
)
2

= 0
lo que resulta en
a
i
=
x
i
+ x
i+1
2
(3.9)
Este resultado signica que en un cuantizador optimo los bordes de las regiones de cuanti-
zacion son los puntos medio de los niveles de cuantizacion. Dado que la cuantizaci on se realiza
bas andose en una mnima distancia entonces cada valor de x es cuantizado al x
i

M
i=1
m as
cercano.
Para determinar los niveles de cuantizaci on x
i
, se toman derivadas parciales con respecto a
todos los x
i
, se denen a
0
= y a
M
= + y se iguala a cero para obtener
D
a
i
=
_
a
i
a
i1
2(x x
i
)f
X
(x) dx = 0
lo que resulta en
x
i
=
_
a
i
a
i1
xf
X
(x) dx
_
a
i
a
i1
f
X
(x) dx
. (3.10)
48
CAP

ITULO 3. MODULACI

ON EN BANDA BASE
Esto signica que para un cuantizador optimo, el valor de cuantizacion para una region, debe
ser elegido como el centroide de dicha region. Ambas condiciones impuestas para el cuantizador
escalar optimo se conocen como las condiciones de Lloyd-Max y pueden ser resumidas como
1. Los bordes de las regiones de cuantizaci on son los puntos medios de los valores de cuan-
tizaci on correspondientes (ley del vecino mas cercano)
2. Los valores de cuantizaci on son los centroides de las regiones de cuantizacion.
A pesar de que estas reglas son muy sencillas, no resultan ser soluciones analticas para
el dise no de un cuantizador optimo. El metodo usual para dise nar un cuantizador optimo es
comenzar con un set de regiones de cuantizacion y luego usar el segundo criterio para encontrar
los valores de cuantizaci on. Luego se realiza el calculo de las nuevas regiones de cuantizacion
para los valores antes encontrados y se procede repetidamente haste que la distorsion no cambie
signicativamente entre un paso y otro. Utilizando este metodo se puede dise nar el cuantizador
no-uniforme optimo para diferentes fuentes aleatorias. La Tabla 3.2 muestra el cuantizador
nouniforme optimo para varios niveles de cuantizaci on de una fuente Gaussiana de media cero y
varianza unitaria. En caso de trabajar con con una fuente Gaussiana con media y varianza
2
entonces los valores de a
i
y de x
i
deben ser reemplazados por +a
i
y + x
i
respectivamente
y el valor del error de distorsion medio, D, debe ser reemplazado por
2
D.
Tabla 3.2: Cuantizador No-uniforme

Optimo para una fuente Gaussiana
Niveles Bordes Valores Distorsion Entropa
M a
i
x
i
D H(

X)
1 0 1 0
2 0 0.7980 0.3634 1
4
0 0.4528
0.1175 1.911
0.9816 1.510
8
0 0.2451
0.03454 2.825
0.5006 0.7560
1.050 1.344
1.748 2.152
16
0 0.1284
0.009497 3.765
0.2582 0.3881
0.5224 0.6568
0.7996 0.9424
1.099 1.256
1.437 1.618
1.844 2.069
2.401 2.733
En general, la cuantizaci on no uniforme presenta menor error de distorsi on principalmente
por que las regiones no son estrictas y se pueden adecuar mejor a las aplicaciones particulares
que exige cada se nal. En la Fig. 3.7 se muestra la comparacion entre una se nal debil y una
fuerte, utilizando para ambas las dos opciones de cuantizaci on; a la izquierda se usa cuantizaci on
49
CAP

ITULO 3. MODULACI

ON EN BANDA BASE
uniforme y a la derecha no-uniforme. Se puede observar que para ambas se nales, se logra una
mejor aproximaci on mediante la cuantizaci on nouniforme. Por esta razon, se estudia el concepto
de Companding en la siguiente secci on.
Fig. 3.7: Comparaci on entre Cuantizacion Uniforme y No-uniforme
Ejemplo 3.3 - Cuantizaci on No-uniforme.
Bas andose en el resultado del Ejemplo 3.1, se pide estudiar el SQNR al utilizar un cuantizador
no-uniforme para la misma fuente Gaussiana.
Sol. Para realizar la comparaci on se utilizaran los mismos niveles de cuantizaci on (M = 8) en
la Tabla 3.2. Como la fuente es Gaussiana y se obtuvo anteriormente que = 0 y
2
= 400,
entonces los valores de a
i
y x
i
se deberan multiplicar por = 20 y la distorsion debe multiplicarse
por 400. As los valores obtenidos seran: a
1
= a
7
= 34.96; a
2
= a
6
= 21; a
3
= a
5
=
10.012; y a
4
= 0 para los bordes de las regiones, y x
1
= x
8
= 43.04; x
2
= x
7
= 26.88;
x
3
= x
6
= 15.12; y x
4
= x
5
= 4.902 para los valores de cuantizaci on. La distorsi on ser a
D = 13.816 lo que es signicativamente menor a lo obtenido para el cuantizador uniforme. El
SQNR sera
SQNR =

2
D
=
400
13.816
= 28.95 14.62dB ,
que es 3.84 dB mejor que el SQNR de un cuantizador uniforme.
Companding
La forma mas com un de realizar cuantizacion no-uniforme es conocida como companding, nom-
bre que se origina por la combinaci on de los terminos comprensi on-expansi on en ingles. Su
50
CAP

ITULO 3. MODULACI

ON EN BANDA BASE
funcionamiento se puede ejemplicar como la conexi on en cascada de un amplicador de com-
presion, F(x) y un cuantizador; para la recuperaci on se tendr a un decodicador y un ampli-
cador de expansion, F
1
(x). Se entender a entonces que la se nal original es comprimida usando
un dispositvo no-lineal y sin memoria. As, antes de realizar la cuantizaci on, la se nal se distor-
ciona por una funci on similar a la que se muestra en la Fig. 3.8. Esta operacion comprime los
valores extremos de la forma de onda, mientras que mejora los valores peque nos en el mismo
sistema de ejes. Ahora, si la se nal analoga comprimida es cuantizada en forma uniforme, el
resultado es equivalente a cuantizar con peque nos pasos en valores bajos de la se nal y pasos
m as grandes para los valores superiores.
Fig. 3.8: Curva tpica de compresi on
La principal aplicacion de companding se da en la transmision de se nales de voz o audio
en general. Como antecedente, se deja constancia de que el sistema Dolby Noise Reduction
corresponde a una implementacion de esta tecnica. En USA y Jap on se adopto como est andar
de compresion la llamada ley-, en cambio en Europa se utiliz o el est andar conocido como ley-A.
La formula de compresi on de la ley- est a determinada por
F(x) = sgn(x)
ln(1 + [x[)
ln(1 + )
, (3.11)
y su curva para distintos valores de se muestra en la Fig. 3.9. Notese que el valor de = 0
corresponde a una situacion sin compresi on. Un valor utilizado con frecuencia es el de = 255
(8 bits) ya que presenta una alta compresion, sin embargo la aplicabilidad dependera de las
condiciones de contorno jadas por la se nal a tratar.
Por su parte, la formula de compresi on de la ley-A est a determinada por
F(x) = sgn(x)
1
1 + lnA
_
A [x[ , [x[ <
1
A
1 + ln(A [x[) ,
1
A
[x[ 1
, (3.12)
en donde A es el parametro de compresi on. En Europa es frecuente utilizar A = 87.7 como
est andar de compresi on.
51
CAP

ITULO 3. MODULACI

ON EN BANDA BASE
Fig. 3.9: Curva de Compresion de la Ley-
3.3.2 Cuantizaci on Vectorial
En el proceso de cuantizaci on escalar, se toma cada una de las salidas de la fuente en tiempo
discreto y se cuantiza en forma separada. En esta seccion se estudiara la cuantizaci on conjunta
de un bloque de muestras que recibe el nombre de cuantizacion vectorial o por bloque y que
es ampliamente utilizada en codicaci on de la voz para sistemas de celulares digitales. Uno de
los puntos m as importantes a considerar, es que la cuantizacion vectorial, en general, presenta
mejor desempe no que la cuantizaci on escalar aun c uando la fuente de amplitud continua no
posea memoria. Adem as, si por alguna raz on las muestras son estadsticamente dependientes,
al utilizar cuantizaci on vectorial se puede aprovechar dicha condici on; lo que equivale a decir
que al cuantizar un conjunto de muestras se lograr a una mejor eciencia (menor tasa de bits)
que al hacerlo en forma independiente mediante cuantizacion escalar
La cuantizaci on vectorial puede ser formulada como sigue. Considerese que el espacio m-
dimensional se subdivide en M regiones o celdas distintas que se notaran por C
i
. Considerese
tambien un vector m-dimensional de dicho espacio x = [x
1
x
2
. . . x
m
] con componentes reales
y de amplitud continua. Este vector representa uno de los bloques de salida de la fuente y
est a decrito por la PDF conjunta p(x
1
, x
2
, . . . , x
m
). El vector x es cuantizado en otro vector
m-dimensional denotado por x = [ x
1
x
2
. . . x
m
] bajo la condici on de que si x C
i
, entonces
es cuantizado en Q(x) = x
i
. B asicamente la cuantizaci on vectorial puede ser vista como un
problema de reconocimiento de patrones, que involucra la clasicacion de bloques de datos en
un n umero discreto de categoras (celdas), con el n de optimizar alg un criterio de calidad (error
de distorsion cuadr atico medio).
Por ejemplo, considere la cuantizaci on de vectores bidimensionales x = [x
1
x
2
]. El espacio
de dos dimensiones es particionado en celdas como se muestra en la Fig. 3.10, en donde se
eligi o arbitrariamente una forma hexagonal para las celdas C
i
. Todos los vectores de entrada
que caigan dentro de la i-esima celda C
i
ser an cuantizados en el vector x
i
que en la gura se
52
CAP

ITULO 3. MODULACI

ON EN BANDA BASE
Fig. 3.10: Cuantizaci on vectorial para espacio bidimensional
representan como el centro de cada hex agono. En este ejemplo existen L = 37 vectores, uno
para cada una de las 37 celdas en que se ha particionado el espacio bidimensional, por lo que
las posibles salidas del cuantizador vectorial se representan por x
i

L
i=1
.
Conforme a lo explicado anteriormente y lo estudiado para cuantizaci on escalar, la cuanti-
zaci on de un vector m-dimensional x en otro x generar a un error de cuantizacion d(x, x) cuyo
valor medio sobre el set de vectores de entrada x ser a:
D =
L

i=1
P(x C
i
)Ed(x, x
i
)[x C
i
=
L

i=1
P(x C
i
)
_
xC
i
d(x, x
i
)p(x) dx , (3.13)
en donde P(x C
i
) es la probabilidad de que el vector x caiga en la celda C
i
y p(x) es la PDF
conjunta que dene las m variables aleatorias anteriormente descrita. Tal como se realiz o para
cuantizaci on escalar, para una PDF dada se puede realizar la minimizaci on de D seleccionando
las celdas x
i

L
i=1
.
Una medida de distorsi on com unmente utilizada es el error medio cuadratico con norma 2
denido por
d
2
(x, x) =
1
m
(x x)
T
(x x) =
1
m
m

i=1
(x
i
x
i
)
2
,
o, mas generalmente, el error medio cuadratico ponderado
d
2W
(x, x) = (x x)
T
W(x x)
en donde W es una matriz de ponderacion denida positiva. Usualmente W se elige como la
inversa de la matriz de covarianza del vector de datos de entrada x. En la codicacion de la
voz, una medida apropiada para la distorsion fue propuesta por Itakura y Satio (1968, 1975) y
corresponde a elegir la matriz de ponderacion como la matriz de autocorrelacion normalizada
de los datos observados.
53
CAP

ITULO 3. MODULACI

ON EN BANDA BASE
3.4 Codicacion
El proceso de codicaci on o encoding, corresponde a la asignacion de una secuencia de bits a
los diferentes niveles de cuantizaci on. Dado que se tiene un total de M = 2
v
niveles, entonces v
bits son sucientes para el proceso de encoding. Basado en lo mismo, como se tienen v bits por
muestra, que se tomo a un frecuencia de muestreo de f
s
[Hz], entonces la tasa de bits esta dada
por R = vf
s
bits por segundo, tal como se obtuvo en el Ejemplo 3.1.
La asignaci on de bits a los niveles de cuantizaci on puede ser realizada de diferentes maneras.
En cuantizacion escalar, una forma natural de realizar el encoding, es asignando valores de 0 a
M 1 a los diferentes niveles de cuantizaci on comenzando desde el nivel m as bajo hacia el m as
alto de manera creciente. Esto implica que el nivel mas bajo tendr a el valor 00. . . 0 y el mas
alto de 11. . . 1, ambos de largo v. Esta asignacion, recibe el nombre de Codicacion Binaria
Natural. A pesar de ello existen tecnicas mejoradas como la Codicacion Grey, que se estudi o
en cursos anteriores.
3.5 Fuentes de Corrupcion
Hasta ahora, se ha centrado el estudio en la se nal analoga que se muestrea, cuantiza y codica
para ser transmitida mediante el canal digital. De la secuencia de bits recibidos, se generara
una se nal an aloga tipo escalera que corresponde a la se nal recuperada en el receptor. Esta
se nal recuperada puede estar corrupta por m ultiples fuentes presentes tanto en el proceso de
muestreo-cuantizacion, como en el canal por el que la secuencia de bits fue transmitida. A
continuacion se presentan los efectos mas importantes.
3.5.1 Efectos del Muestreo y la Cuantizaci on
Aparte de los problemas que se estudiaron en la Seccion 3.2.2, existen errores asociados al
cuantizador, que se mencionaran a continuaci on.
Ruido de Cuantizaci on
La distorsi on inherente en la cuantizaci on es el error de redondeo o truncamiento. El proceso
de transformar una se nal de amplitud continua en una se nal con un n umero nito de posibles
valores hace que cierta informaci on se deseche. Esta distorsi on, que en denitiva es agregada
por la necesidad de trabajar con amplitud discreta, recibe el nombre de Ruido de Cuantizacion,
como se ha estudiado hasta ahora. Resulta intuitivo notar que la cantidad de este ruido es
inversamente proporcional al n umero de niveles utilizados en el proceso de cuantizaci on.
Saturaci on del Cuantizador
El cuantizador asigna M niveles a la tarea de aproximar el rango continuo de entradas con un
n umero nito de salidas. El rango de entradas para los cuales la diferencia entre la entrada y la
salida del cuantizador es peque na, recibe el nombre de rango de operacion de dicho cuantizador.
Si la entrada excede tal rango, la diferencia entre la entrada y la salida crecera y el convertidor
54
CAP

ITULO 3. MODULACI

ON EN BANDA BASE
an alogo-digital estar a en saturacion. En general los errores de saturacion son m as problematicos
que el ruido de cuantizaci on, por lo que preferentemente se utiliza un control de autom atico de
ganancia (AGC, en ingles) que extiende efectivamente el rango de operacion del convertidor.
3.5.2 Efectos del Canal
Ruido del Canal
El ruido termico, la interferencia desde otros usuarios y la interferencia desde un circuito de
switching pueden producir errores en la detecci on de los pulsos que llevan las muestras digital-
izadas, como se observa en la Fig. 3.11. Los errores introducidos por el canal, que reciben el
nombre de efecto umbral, pueden degradar la calidad de la se nal reconstruda muy r apido.
Fig. 3.11: Distorsi on de un pulso al transmitirlo por un canal ruidoso
Si el ruido del canal es peque no no habran problemas al momento de detectar las se nales, sin
embargo si el ruido del canal es tan grande para afectar la habilidad de detectar las formas de
onda, la detecci on resultante tendr a errores de reconstrucci on. M as aun, por peque nos cambios
en los niveles de ruido de un canal, se pueden tener grandes diferencias en el comportamiento
de dicho canal.
Interferencia entre Smbolos
El canal siempre es de banda limitada por lo que dispersa o extiende a los pulsos que pasan
a traves de el. Cuando el ancho de banda del canal es mucho m as grande que el del pulso,
entonces la extensi on del pulso es leve; sin embargo cuando ambos ancho de banda son cercanos,
la extensi on sobrepasara la duraci on de los smbolos y hara que los pulsos se traslapen. Este
traslape es llamado interferencia entre smbolos (ISI, en ingles). Como cualquier otra fuente
de interferencia la ISI produce degradacion del sistema (altas tasas de error), pero resulta muy
caracterstica pues el aumentar la potencia de la se nal no mejorar a el desempe no frente al error.
La forma en que se maneja las ISI se ver a m as adelante.
3.6 Pulse-Amplitude Modulation (PAM)
En la modulacion de amplitud de pulso (PAM, pulse-amplitude modulation), la amplitud de
un tren de pulsos de ancho constante vara en proporci on a los valores muestreados de una
se nal moduladora. En general, los pulsos se toman en intervalos de tiempo equidistantes. En
primera instancia se considera la se nal naturalmente muestrada (sin S/H) como lo muestra la
Fig. 3.4(c). Resulta evidente que esta se nal no es compatible con un canal digital pues existen
55
CAP

ITULO 3. MODULACI

ON EN BANDA BASE
innitos valores posibles para la amplitud de los pulsos, ya que varan proporcionalmente a
los valores de las muestras de la se nal moduladora. De manera especca, las pendientes de
las crestas de los pulsos varan con las pendientes de la se nal moduladora en los puntos de
muestreo. A diferencia del muestreo natural, en PAM las crestas de los pulsos deben ser planas;
esto mismo implica que se requiere inclur un proceso de cuantizacion posterior para llevar estos
valores a M valores posibles de amplitud que se puedan representar por v = log M bits. Por
ejemplo, se habla de una modulacion PAM-4 al trabajar con 2 bits, y de PAM-16 al trabajar
con 4 bits, etc.
Todo el analisis te orico realizado para el proceso de muestreo natural y para S/H resulta
aplicable en modulaci on PAM, por lo que su espectro corresponde al de la Fig. 3.4(d) para una
se nal naturalmente muestreada o al de la Fig. 3.5(b) para un esquema con S/H. Al evaluar esta
respuesta espectral, se puede notar que la demodulacion se debe implementar mediante un
ltro pasa bajos como primera etapa. Como el espectro est a afectado por la presencia del tren
de pulsos, entonces es necesario agregar un ecualizador con respuesta en frecuencia dada por
X
1
p
(f), en donde X
p
(f) es la transformada de Fourier de tren de pulsos de la Ecuacion 3.3.
A pesar de que esto es bastante dicil de implementar, en la pr actica solo se requiere una
ecualizaci on para el rango de frecuencias en que el mensaje es v alido: [W, +W]. As, el dise no
es mucho mas relajado y la dicultad de implementacion se ve reducida.
Por otra parte, si el tiempo de duraci on del pulso T
p
es lo sucientemente peque no con
respecto al periodo de este, T, entonces cada pulso se asemeja a un impulso y la se nal de salida
del modulador ser a cada vez mas parecida a un sistema de muestreo mediante impulsos, caso
en el que no se requiere ecualizacion. Por esto, se asume como cota para requerir o no un
ecualizador, que la relaci on
Tp
T
sea menor al 1%.
3.7 Pulse-Code Modulation (PCM)
La idea de la codicaci on por forma de onda, es reproducir una forma de onda de la fuente
en el destino con la menor distorsi on posible. En estas tecnicas no se presta atenci on en la
manera en que se produce la forma de onda, sino que todos los esfuerzos son dedicados en la
reproducci on ledigna de la forma de onda de la fuente. Por lo mismo, los codicadores de
forma de onda pueden ser utilizados con una gran variedad de formas de onda, mientras que
estas tengan ciertas similitudes.
La modulaci on PCM es el m as simple y viejo esquema de codicacion por forma de onda.
Consiste b asicamente en tres secciones: un sampleador, un cuantizador y un codicador. En
PCM se realizan las siguientes suposiciones:
1. La se nal es de banda limitada, con una frecuencia m axima de W, por lo que puede ser
completamente reconstruda de muestras tomadas a una tasa f
s
2W.
2. La se nal tiene amplitud nita, vale decir que existe un m aximo de amplitud x
max
tal que
[ x(t) [ x
max
< .
3. La cuantizacion se realiza para un n umero alto de niveles de cuantizaci on M, que es una
potencia de 2 (M = 2
v
).
56
CAP

ITULO 3. MODULACI

ON EN BANDA BASE
Muestreo de Se nal Analoga. El muestreo se realiza de la forma en que se estudi o en el
presente captulo. Dado que la se nal debe ser de banda limitada, para poder trabajar
con se nales periodicas, se necesita incluir un LPF con ancho de banda W a la entrada del
muestreador, evitando as arm onicos sobre dicha frecuencia.
Cuantizaci on. Dependiendo del cuantizador utilizado, uniforme o nouniforme, se tiene una
modulaci on PCM uniforme o nouniforme y esto se selecciona dependiendo de las carac-
tersticas de la salida de la fuente.
Dentro del proceso de cuantizacion, se debe tener en mente que mientras m as niveles
se utilicen para realizar PCM, mas cercana resulta ser la se nal aproximada. En otras
palabras, el n umero de niveles utilizados determina la resolucion de la se nal. Esto es, la
medida de cuan peque no puede ser el cambio en la se nal original para poder ser visto en
la cuantizaci on.
Codicacion. Una vez que se ha realizado el proceso de muestreo y redondeo a un n umero
apropiado de niveles, se necesita realizar la transmision. Esta transmisi on debe ser solo
de la informaci on justa, que permita que el receptor pueda comprender que nivel de se nal
se est a enviando. Por esto, en PCM se codica cada uno de los niveles en n umeros bina-
rios, para luego enviarlos dependiendo del nivel que vaya presentando la se nal. Ademas
considerando la suposici on 3, siempre se tendran una represencacion mediante v bits, con
v Z.
Los n umeros binarios resultantes, pueden ser transmitidos con gran variedad de tecnicas
y representaciones. Por ejemplo se pueden tener representaciones unipolares, bipolares, con
o sin retorno a cero, etc. Resulta claro entonces, que un modulador PCM viene a ser un
conversor Analogo-Digital (A/D). As, la demodulacion (en rigor, decodicacion) se realiza con
un conversor Digital-An alogo (D/A).
3.7.1 Representaci on de Dgitos Binarios
Los digitos binarios obtenidos tras un modulador PCM necesitan ser representados mediante
pulsos electricos de forma de transmitirlos por un canal en banda base. Una representacion de
esto se muestra en la Fig. 3.12, en donde se muestran las palabras generadas por PCM y dos
alternativas de representaci on. Los slot de tiempo de palabra se muestran en la Fig. 3.12(a),
en donde el largo de cada una de estas palabras es 4 bits por muestra quantizada. En la
Fig. 3.12(b), cada 1 binario es representado por un pulso de duracion T

y cada cero binario es


representado por la ausencia de dicho pulso; as, una secuencia de pulsos electricos teniendo el
patr on mostrado en esta gura puede ser usado para transmitir la informacion de cada stream
de bits PCM, y, por lo tanto, la informaci on de las muestras cuantizadas del mensaje.
En el receptor, se debe realizar una determinacion de la presencia o ausencia de un pulso por
cada unidad de tiempo T. Como se ver a m as adelante, la probabilidad de detectar correctamente
la presencia de un pulso es una funci on de la energa de dicho pulso (es decir, del area bajo el
pulso); entonces es una ventaja hacer el pulso tan ancho como sea posible. Si dicho pulso se
incrementa al m aximo posible, vale decir a la duracion del bit, T, entonces se obtiene la forma
de onda dada en la Fig. 3.12(c). En vez de ser descrita como una ausencia-presencia de pulsos
57
CAP

ITULO 3. MODULACI

ON EN BANDA BASE
(a) Secuencia PCM
(b) Representacion pulsatil de PCM
(c) PCM mediante transiciones entre dos niveles
Fig. 3.12: Ejemplos de representacion para digitos binarios en PCM
a diferencia de la forma de onda anterior esta forma de onda puede ser descrita como una
secuencia de transiciones entre dos niveles: cuando se ocupa el valor m as alto de voltaje se est a
representando un 1 binario y cuando se utiliza el mas bajo se representa un cero.
En la Fig. 3.13 se ilustran las formas de onda mas utilizadas en PCM, las que pueden
clasicarse en los siguientes grupos:
Sin retorno a cero (NRZ). El grupo NRZ es probablemente el grupo mas utilizado en modu-
laci on PCM. Puede ser subdividido en: NRZ por nivel (NRZ-L), NRZ por marca (NRZ-M)
y NRZ por espacio (NRZ-S). NRZ-L es usado extensamente en l ogica digital. Un uno dig-
ital es representado por un nivel y un cero por otro nivel, por lo que habr a un cambio
ya sea que se pase de uno a cero o de cero a uno. Con NRZ-M, el uno (o marca) es
representado con un cambio de nivel, y el cero (o espacio) es representado sin un cambio
de nivel. Esto comunmente es conocido como codicacion diferencial y es utilizado prin-
cipalmente en grabaciones en cintas magneticas. En el caso de NRZ-S se realiza la accion
complementaria de NRZ-M: el uno se representa sin cambios y el cero por un cambio en
el nivel.
Con retorno a cero (RZ). Las formas de onda con retorno a cero consisten en la unipolar-
RZ, la bipolar-RZ y RZ-AMI. Todas estas alternitivas se utilizan en transmisi on en banda
base y grabaci on magnetica. En la unipolar-RZ, el uno es representado por un pulso de
un ancho igual a la mitad del tiempo que dura un bit, y el cero se representa por la
ausencia de tal pulso. Con la bipolar-RZ, los unos y ceros se representan por pulsos en
58
CAP

ITULO 3. MODULACI

ON EN BANDA BASE
Fig. 3.13: Formas de onda mas comunes utilizadas en la modulacion PCM
niveles opuestos con una duraci on de la mitad del tiempo disponible por bit, por lo que
existe un pulso presente en cada intervalo de bit. El caso de RZ-AMI recibe su nombre
de inversion alternada de marca (alternate mark inversion, AMI) y es un esquema de
codicaci on usado principalmente en sistemas de telemetra. Los unos son representados
por pulsos alternados de igual amplitud y los ceros por la ausencia de pulsos.
Fase codicada. El grupo de fase codicada consiste en bi-fase por nivel (bi--L), mejor cono-
cida por codicacion Manchester; bi-fase por marca (bi--M); bi-fase por espacio (bi--S);
y modulacion por retardo (DM), o codicacion Miller. El grupo de fase codicada es us-
ado en sistemas de grabacion magnetica, en comunicaciones opticas y en algunos enlaces
de telemetra satelital. Al trabajar con bi--L, el uno es representado por un pulso de la
mitad del ancho disponible, ubicado en la primera mitad del tiempo de duracion; el cero se
representa por el mismo pulso pero ubicado en la segunda mitad del intervalo del bit. Con
59
CAP

ITULO 3. MODULACI

ON EN BANDA BASE
bi--M, ocurre una transicion al comienzo de cada intervalo de bit; el uno es representado
por una segunda transici on en el punto medio del intervalo, y el cero se representa sin
realizar esta transicion media. Para el caso de bi--S tambien se producen transiciones
al comienzo de cada intervalo, sin embargo el uno se representa sin transici on media y el
cero se hace mediante una transicion en el punto medio del intervalo. En la modulacion
por retardo, el uno se representa por una transici on en el punto medio del intervalo; el
cero es representado sin transici on a menos que sea seguido por otro cero, caso en el cual
se incluye una transici on al nal del intervalo del primer cero.
La raz on por la que existen tantas formas de onda posibles para realizar la transmision de
datos PCM es que cada una de estas formas de onda tiene un desempe no caracterstico para una
aplicaci on en particular. Al momento de elegir el esquema de codicaci on para esta aplicaci on,
los parametros que deben examinarse son los siguientes:
Componente DC. Al eliminar la componente DC de la PSD de la se nal puede originar
problemas en sistemas con alta sensibilidad a las bajas frecuencias, por lo que se puede
perder informacion de baja frecuencia.
Autosincronizacion. En cualquier sistema de comunicaci on digital se requiere sicronizacion
por smbolo o por bit. Algunos codigos PCM tienen una sincronizacion inherente o car-
actersticas de sincronizacion que ayudan en la recuperacion del reloj de la se nal. Por
ejemplo, el c odigo Manchester tiene una transici on en el medio de cada intervalo ya sea
que se envio un cero o un uno, lo que provee una se nal de sincronizacion.
Deteccion de errores. Algunos esquemas de codicaci on proveen los medios de detectar
errores sin introducir bits adicionales para la detecci on de errores.
Compresion del ancho de banda. Existen esquemas que incrementan la eciencia del ancho
de banda ya que permiten una reducci on del ancho de banda requerido por una tasa de
datos dada. As, mas informaci on es transmitida por unidad de ancho de banda.
Codicacion diferencial. Realizar la codicacion de alguna forma diferencial es util pues
permite invertir la polaridad de las formas de onda codicadas sin afectar la deteccion
de datos. Esto es una ventaja en sistemas de comunicacion en donde las formas de onda
pueden sufrir inversi on.
Inmunidad al ruido. Las distintas formas de onda de PCM pueden ser caracterizadas por
la probabilidad de error versus la raz on se nal-a-ruido (signal-to-noise ratio, SNR). Algunos
de los esquemas son m as inmunes que otros al ruido; por ejemplo, las formas de onda NRZ
tienen mejor desempe no de error que las formas de onda RZ unipolar.
En denitiva, la forma de onda que es seleccionada para cada aplicacion depender a de
factores importantes como la caracterstica espectral, capacidad de sincronizaci on de bit, ca-
pacidades de deteccion de errores, inmunidad a la interferencia o al ruido, y costo/complejidad
de implementaci on.
60
CAP

ITULO 3. MODULACI

ON EN BANDA BASE
3.7.2 Tipos de Cuantizadores
Existen tres formas genericas de cuantizadores:
1. Cuantizadores por conteo, que cuentan uno a uno los niveles de cuantizaci on.
2. Cuantizadores Seriales, que generan un c odigo de palabra bit-a-bit desde el bit m as signi-
cativo (MSB) hasta el menos signicativo (LSB).
3. Cuantizadores Paralelos, que generan todos los bits en forma simultanea.
Cuantizadores por Conteo
El cuantizador por conteo basa su funcionamiento en un contador binario capaz de llevar la
cuenta desde 0 hasta v bits y en un Sample-and-Hold. El diagrama en bloques de este cuanti-
zador se muestra en la Figura 3.14.
Fig. 3.14: Cuantizador por conteo
El generador de rampa comienza a cada punto de muestreo y el contador binario es si-
mult aneamente iniciado. La salida del bloque S/H corresponde a una salida tipo escalera,
en donde cada uno de los escalones permanece en el valor muestrado para cada intervalo de
muestreo. El tiempo de duracion de la rampa -y por ende del contador binario- es proporcional
al valor de la muestra, pues la pendiente de la rampa permanece constante. Consideando que
la frecuencia de reloj es tal, que permite que el contador alcance su m axima cuenta (111. . . 1)
para un tiempo de duracion de la rampa correspondiente al maximo valor muestreado, entonces
la cuenta nal en el contador correspondera a los niveles de cuantizaci on.
Ejemplo 3.4 - Cuantizador por conteo.
Considere que se esta dise nando un cuantizador por conteo, con un generador de rampa con
pendiente 10
6
V/s. La se nal de entrada vara de 0 a 10V y se tiene un contador binario de 4
bits. Calcule la frecuencia del reloj para cuantizar una se nal de voz.
61
CAP

ITULO 3. MODULACI

ON EN BANDA BASE
Sol. En general, se puede considerar que la voz alcanza valores m aximos cercano a los 3kHz,
por lo que trabajamos con una se nal de banda limitada. As, la frecuencia de muestreo para
reconstrucci on perfecta debera ser de a lo menos 6kHz, lo que equivale a un periodo de muestreo
de
1
6
ms. Dado que la rampa alcanza los 10V en t
max
=
10V
10
6
V/s
= 0.01ms < T
s
, entonces tenemos
suciente tiempo para evitar problemas de sobrecarga. El contador deber a contar desde 0000
hasta 1111 en este tiempo, y dado que se tienen 16 valores posibles, t
count
=
0.01ms
16 valores
; en otras
palabras, se requiere una f
CLK
= t
1
count
= 1.6MHz.
Cuantizadores Serial
El cuantizador serial, divide sucesivamente la entrada en mitades, determinando en que mitad
se encuentra dicha entrada. En el primer paso, la entrada se divide a la mitad y se observa si
se encuentra en la mitad superior o inferior. El resultado de esta observaci on, genera el bit m as
signicativo del codigo de palabra.
La mitad en la cual se encuentre la muestra, se vuelve a subdividir en 2 regiones y nuevamente
se realiza la comparaci on, esto genera el siguiente bit. As, el proceso se repite tantas veces como
bits se utilicen en el encoding.
La Fig. 3.15 muestra un cuantizador serial de 3 bits. Los rombos representan comparadores,
que realizan una comparacion de su entrada con un valor jo, dando una salida si la entrada
excede dicho valor, u otra salida diferente si es menor. Es importante tener en mente que esta
gura est a pensada para una se nal con valores entre 0 y 1, por lo que en el caso de no tener esta
condici on, se requiere una normalizaci on previa. De necesitar mas (o menos) bits, los bloques
comparativos pueden ser f acilmente agregados (o quitados).
Fig. 3.15: Cuantizador Serial de 3 bits
Para la Fig. 3.15, el bit b
1
es el primer bit de la ristra y corresponde al bit m as signicativo
(most signicant bit, MSB), por lo que b
3
es el bit menos signicativo (least signicant bit,
LSB).
Ejemplo 3.5 - Cuantizador Serial.
Ilustre la operaci on del cuantizador serial de la Fig. 3.15 para los valores de entrada de 0.2V y
0.8V.
Sol. Para 0.2V, la primera comparacion resulta en un NO por respuesta, por lo que b
1
= 0.
62
CAP

ITULO 3. MODULACI

ON EN BANDA BASE
De la misma forma, la segunda comparacion da un NO, por lo que b
2
= 0. Para la tercea
comparaci on, el resultado es SI, teniendo que b
3
= 1. As, el c odigo para el valor 0.2V es 001.
Para los 0.8V, la primera comparaci on da un SI por respuesta, por lo que b
1
= 1 y se le restan
0.5, teniendo 0.3V para la segunda etapa. En esta, el resultado tambien es SI, entonces b
2
= 1
y la se nal es 0.05. La tercera comparaci on resulta en NO, por lo que b
3
= 0. Entonces el c odigo
para 0.8V es 110.
Cuantizadores Paralelo
El cuantizador paralelo es el cuantizador mas rapido pues genera todos los bits del c odigo de
palabra en forma simultanea. Lamantablemente resulta ser el mas complejo de todos, ya que
requiere un gran n umero de comparadores por ejemplo, para M-niveles de comparacion, se
requieren M 1 comparadores. Adem as, se necesita un codicador de M = 2
v
entradas y v
salidas, que a pesar de ser un simple circuito combinacional, agrega complejidad y retardo al
bloque total.
La Fig. 3.16 muestra un diagrama de bloques de un cuantizador paralelo de 3 bits. El bloque
marcado como Codicador toma la salida de los 7 comparadores y genera el n umero binario
correspondiente. Por ejemplo para un valor de se nal superior a
7
8
V, todos los comparadores
tendr an sus salidas en 1 (SI). El codicador debera entonces generar el c odigo 111.
Fig. 3.16: Cuantizador Paralelo de 3 bits
Dadas las condiciones del problema, el dise no del Codicador es muy sencilla, pues solo 8
de los 128 (2
8
) opciones posibles de entrada se utilizan: una se nal no podra ser mayor que un
valor, pero menor que otro nivel inferior.
Mientras que los cuantizadores seriales toman ventaja de la estructura de los n umeros bina-
rios cuando se cuentan en secuencia, el cuantizador paralelo no requiere dicha estructura. De
hecho, el c odigo para regiones de cuantizaci on puede ser asignado de cualquier forma que resulte
c omoda y util para la aplicaci on particular. Un problema con la asignacion secuencial es que
la transmisi on de errores en los bits genera errores de reconstrucci on no-uniforme, y particular-
63
CAP

ITULO 3. MODULACI

ON EN BANDA BASE
mente si dicho error se produce en el MSB. Por esto, es preferible que en muchos casos se utilice
el codigo Gray, en donde solo se produce un cambio de estado por cada una de las salidas.
3.7.3 PCM Diferencial
Como se discuti o anteriormente, en un sistema PCM, luego de muestrear la se nal de informaci on,
cada muestra es cuantizada independientemente usando un cuantizador escalar. Esto signica
que la muestra anterior no tiene ning un efecto sobre la cuantizaci on de las muestras nuevas. Sin
embargo, cuando un proceso aleatorio de banda limitada es muestreado a una frecuencia igual
o superior a la de Nyquist, los valores de las muestras son variables aleatorias correlacionadas
1
.
Esto signica que en la gran mayora de los casos, las muestras anteriores dan algun tipo
de informacion acerca de las venideras; informaci on que puede ser utilizada para mejorar el
desempe no de un sistema PCM. Por ejemplo, si la muestra anterior tena un valor peque no
existe una alta probabilidad de que el valor de la siguiente muestra sea tambien peque no, por
lo que no es necesario cuantizado un alto rango de valores para tener un buen desempe no.
En la forma m as sencilla de implementar esta modulaci on PCM diferencial (DPCM), se
cuantizan las diferencias entre dos muestras adyacentes X
k
X
k1
. Dado que estas dos muestras
adyacentes estan altamente correlacionadas, su diferencia tiene variaciones peque nas; por lo
tanto, para lograr un cierto nivel de performance, solo se requieren unos pocos niveles (y por
ende, unos pocos bits) en la cuantizaci on. En palabras simples, DPCM logra un determinado
desempe no a una tasa de bits menor que lo que necesitara PCM.
En la Fig.(Hecha en clases) se muestra una forma de realizar DPCM de una manera simple.
Como se puede observar en dicha gura, la entrada en el cuantizador no es X
k
X
k1
sino que
Y
k
= X
k

k1
, en donde

Y

k1
es una variable altamente relacionada con X
k1
como se vera a
continuacion. La ventaja de la utilizacion de esta nueva variable es que previene la acumulacion
de ruido de cuantizacion. La entrada del cuantizador, Y
k
se cuantiza en forma escalar (uniforme
o no uniforme) para generar

Y
k
en base a las relaciones
Y
k
= X
k


Y

k1
, (3.14)

k
=

Y
k
+

Y

k1
. (3.15)
El error de cuantizaci on entre la entrada y salida del cuantizador estar a determinada por

Y
k
Y
k
=

Y
k
(X
k


Y

k1
)
=

Y
k
X
k
+

Y

k1
=

Y

k
X
k
(3.16)
La salida del receptor esta dada por la relaci on

X
k
=

Y
n
+

X
k1
. (3.17)
Comparando las Ecuaciones (3.15) y (3.17) se puede ver que

Y

k
y

X
k
satisfacen la misma
ecuacion de diferencias con la misma funcion de exitacion,

Y
k
. Por lo tanto, si las condiciones
1
La unica excepcion a esto se produce cuando el espectro del proceso es plano dentro de su ancho de banda.
64
CAP

ITULO 3. MODULACI

ON EN BANDA BASE
inciales de

Y

k
y

X
k
son elegidas iguales, estas tambien seran iguales para todo tiempo k. En
efecto, al juntar ambas ecuaciones se obtiene la relaci on

X
k
=

Y

k


Y

k1
+

X
k1
por lo que al
jar, por ejemplo,

Y

1
=

X
1
= 0 se tiene:

X
0
=

Y

0


Y

1
+

X
1
=

Y

X
1
=

Y

1


Y

0
+

X
0
=

Y

1
.
.
.

X
k
=

Y

k


Y

k1
+

X
k1
=

Y

k
.
Reemplazando este resultado en la Ecuacion (3.16) se obtiene que el ruido de cuantizaci on que
estaba dado por

Y
k
Y
k
cumple la relacion

Y
k
Y
k
=

X
k
X
k
. (3.18)
Esto demuestra que el error de cuantizacion que existe entre la muestra X
k
y su replica
en el receptor

X
k
es la misma que el error de cuantizacion entre la entrada y la salida del
cuantizador. Sin embargo, el rango de variaci on que normalmente presenta Y
k
es mucho menor
que el presentado por X
k
, por lo que Y
k
se cuantiza con menos bits.
3.8 Modulacion Delta
De acuerdo a lo estudiado de PCM, el c odigo binario resultante debe ser capaz de proveer una
medida de la muestra dentro de todo el rango dinamico de la se nal. Por ejemplo, al trabajar con
se nales en un rango -5V a +5V, el c odigo digital debe ser capaz de indicar muestras sobre un
rango de 10V. Adem as, el ruido de cuantizacion resultante es proporcional al rango dinamico
de los datos originales por lo que rangos menores son siempre preferibles. Por ende, si de
alguna forma se pudiese reducir el rango dinamico de los n umeros que se tratan de comunicar,
el performance frente al ruido se mejorara tambien. La Modulacion Delta es una tecnica
sencilla para realizar esta tarea. En vez de enviar el valor de cada una de las muestras, se envia
la diferencia entre la muestra y el valor previo. Si el muestreo se est a realizando a la frecuencia
de Nyquist, esta diferencia tiene un rango din amico igual al de las muestras originales, por lo
que cada muestra es independiente de la anterior. En caso contrario, al muestrear a frecuencias
superiores a la de Nyquist, las muestras resultan ser dependientes entre ellas, por lo que el rango
din amico de la diferencia entre 2 muestras puede ser menor que el de las muestras como tales.
As, al aumentar la frecuencia de muestreo se logra una reducci on en el rango dinamico, por lo
que se puede enviar la misma informacion usando una menor cantidad de digitos binarios para
el mismo ruido de cuantizaci on. Dado esto, se lograra una mejora en la transmision.
En otras palabras, la modulacion delta es una tecnica de conversion analogo-digital usada
para la transmisi on de informacion en la cual la calidad de las se nales no es de vital importancia,
permitiendo realizar una reduccion del rango din amico. Por lo mismo, su utilidad principal es
con se nales de voz. Esta modulaci on reduce el proceso de cuantizaci on a 1 bit. Por ejemplo un
1 representa una diferencia positiva y un 0 una diferencia negativa. Esto a su vez involucra
que solo se trabaja con 2 niveles de codicaci on, a los que se referenciar a como + o . En
terminos generales, la se nal solo podr a aumentar o disminuir en unidades.
Sus principales caractersticas en la generaci on de la ristra de bits son:
65
CAP

ITULO 3. MODULACI

ON EN BANDA BASE
1. La se nal an aloga es aproximada en una serie de segmentos.
2. Cada segmento de la se nal aproximada, es comparada con la se nal original para determinar
aumento o disminuci on en la ampliud relativa.
3. Los bits sucesivos se determinan conforme a esta comparacion.
4. Solo el cambio de informacion es enviada. Esto quiere decir que solo se realiza un cambio
del estado anterior si la se nal de entrada decrece o aumenta, ya que una condicion de
no-cambio involucra la continuidad del 0 o 1 de la muestra anterior.
La Fig. 3.17 muestra una se nal an aloga y la aproximaci on mediante Modulaci on Delta. Dado
que la cuantizacion solo se puede incrementar o decrementar en en cada punto de muestreo,
se trata de realizar la aproximacion a la se nal original mediante una se nal tipo escalera.
Fig. 3.17: Forma de onda analoga (rojo) y su aproximaci on en la Modulaci on Delta (azul).
Como se dijo con anterioridad, se realiza la comparaci on entre ambas se nales: si la escalera
est a bajo la muestra de la se nal analoga, entonces se debe incrementar positivamente en una
unidad; si se encuentre sobre la muestra de la se nal, entonces se debe decrementar en una
unidad. Asumiendo que se realiza la asociacion de que los incrementos valen 1, la ristra de
bits para la gura, esta dada por:
111111111000000011111111111000
As, se tiene que la implementacion de la modulacion Delta es realmente sencilla, pues est a
compuesta por un comparador y un generador de se nal escalera, como se muestra en la Fig. 3.18.
Resulta evidente que existe una clara dependencia entre la calidad de la codicacion con el
valor del incremento . De hecho, para usar efectivamente la modulacion delta se debe realizar
una elecci on inteligente de dos parametros: valor del incremento, , y tasa de muestreo, T
s
. La
elecci on debe ser realizada de tal forma que la se nal escalera sea una buena aproximaci on de la
se nal an aloga original. Dado que la se nal tiene una frecuencia m axima conocida, entonces se
66
CAP

ITULO 3. MODULACI

ON EN BANDA BASE
Fig. 3.18: Diagrama de Bloques de un conversor Delta A/D
sabe a la m axima tasa a la cual esta puede cambiar, lo que permite elegir apropiadamente una
buena frecuencia de muestreo. Ahora bien, si el paso es demasiado peque no, se experimenta
el problema de sobrecarga de pendiente en d onde la escalera no es capaz de seguir los rapidos
cambios que presenta la se nal an aloga. Este problema se muestra en la Fig. 3.19(a). Por otra
parte, si el paso es demasiado grande se tendran considerables sobrepasos durante periodos
en los que la se nal se mantiene practicamente constante. Para este caso, se tiene un ruido
de cuantizaci on muy grande, y se conoce como Ruido Granular. Este problema se puede
observar en la Fig. 3.19(b). El resultado de una buena eleccion del parametro de incremento
para el mismo tiempo de muestreo se puede observar en la Fig. 3.19(c), en donde se observa
que la se nal escalera sigue bien a la original y se puede considerar una buena aproximaci on.
3.8.1 Modulacion Delta Adaptiva
La modulaci on delta adaptiva es un esquema en el cual se permite un ajuste del valor de
incremento dependiendo de las caractersticas de la se nal analoga. Es, por supuesto, de caracter
crtico que el receptor sea capaz de adaptar el valor de los pasos exactamente de la misma
forma en que lo hace el transmisor, ya que si no se da esta situaci on, nunca se podr a hacer una
buena recuperacion de la se nal original cuantizada (funci on tipo escalera). Dado que todo es
transmitido a traves de una serie de dgitos binarios, el tama no del paso debe ser derivado de
dicho tren de bits.
Si un string de bits de largo dado contiene un n umero casi igual de ceros y unos, se puede
asumir que la escalera est a oscilando en torno a una se nal analoga de variaci on muy lenta; en
este caso, se podra reducir el tama no del paso. Por otra parte, un exceso de ceros o unos dentro
del string de bits podra indicar que la escalera est a tratando de alcanzar la funcion; en este
caso, se podra incrementar el tama no del paso. En una implementaci on el control del tama no
del paso se obtiene por un integrador digital, que suma los bits sobre un periodo jo. Si la suma
se desva de aquella que corresponde a un n umero igual de ceros y unos, entonces se realiza la
modicaci on del tama no del paso.
Existen muchos algoritmos de modulacion delta adaptiva que son m as sencillos de imple-
mentar que el discutido arriba. Por ejemplo dos implementaciones son el algoritmo song y el
algoritmo space shuttle.
El algoritmo song compara el bit transmitido con el anterior; si son iguales el paso se
67
CAP

ITULO 3. MODULACI

ON EN BANDA BASE
(a) Pasos muy peque nos (b) Pasos muy grandes
(c) Eleccion

Optima
Fig. 3.19: Consecuencias de una buena o mala elecci on del valor del incremento .
incrementa en una cantidad ja, . Si los dos bits son difentes entonces el paso de disminuye
en la misma cantidad ja, . As el tama no del paso est a siempre cambiando y puede crecer y
crecer sin lmite si es necesario. Un caso extremo de esta implementacion es cuando se quiere
seguir una funci on escalon, ya que al alcanzar la se nal, se debe volver en cantidades jas por lo
que existe una peque na oscilacion en torno al valor m aximo. As, si se espera que una funcion
tenga varios cambios abruptos, entonces dicha oscilaci on del algortimo song puede resultar
problem atica.
El algoritmo space shuttle es una modicaci on del algoritmo song y busca eliminar dichas
oscilaciones. Al igual que antes, cuando dos bits son iguales, se realiza el incremento en el valor
jo, . Sin embargo, cuando los bits son distintos, el tama no del paso se reinicia inmediatamente
a su mnimo valor, que tambien es . Resulta de interes entonces, notar de que este algoritmo
se ajustar a mejor en casos de tener una funcion escal on.
68
Captulo 4
Modulaciones Digitales Pasabanda
4.1 Introducci on
La modulaci on pasabanda de se nales tanto analogas como digitales es un proceso por el cu al
una se nal de informacion es contenida en una forma sinusoidal que sea capaz de transmitirse en
un canal con respuesta pasabanda. Para el caso de las modulaciones digitales, estos sinusoides
de duracion T son referidos como smbolos digitales. As, el modulador en un sistema de
comunicaci on digital, mapea las secuencias de dgitos binarios en sus correspondientes formas
de onda para ser transmitidos en un canal pasabanda.
C omo se estudi o en cursos anteriores, una se nal sinusoidal tiene tres par ametros que iden-
tican una se nal de otra: amplitud, frecuencia y fase. As, la modulaci on pasabanda se puede
denir como el proceso por el cual la amplitud, la frecuencia o la fase de una se nal portadora,
o una combinaci on de ellos, es variada conforme con la informaci on que quiere ser transmitida.
La forma general de una se nal portadora est a determinada por
s(t) = A(t) cos[
c
t + (t)]
en donde A(t) es la amplitud variante en el tiempo,
c
= 2f
c
es la frecuencia angular de la
portadora, y (t) es la fase.
Los tipos b asicos de modulaci on y demodulaci on digitales se muestra en la Tabla 4.1. Cuando
el receptor explota cierto conocimiento de la fase de la portadora para realizar el proceso de
detecci on de la se nal, se habla de deteccion coherente; por otro lado, si no se utiliza ese tipo de
informaci on, el proceso es llamado detecci on no-coherente. Bajo el alero de comunicaciones
con deteccion coherente, en la columna izquierda de la Tabla 4.1 se listan Phase Shift Keying
(PSK), Frecuency Shift Keying (FSK), Amplitude Shift Keying (ASK), Modulaci on de Fase
Continua (CPM) y combinaciones hbridas. La demodulaci on no-coherente se reere a sistemas
que emplean demoduladores que est an dise nados para operar sin conocimiento de la fase de
la se nal de entrada, por lo que no se requiere estimaci on de la fase. As, la ventaja de un
sistema no-coherente frente a uno coherente es su menor complejidad, pero al precio de tener una
probabilidad de error mayor. En la columna derecha de la Tabla 4.1 se listan las demodulaciones
no-coherentes: DPSK y versiones de FSK, ASK, CPM e hbridos que son similares a las listadas
en la columna de coherentes. Resulta interesante decir que la deteccion de DPSK se realiza
mediante la informacion de la fase del smbolo anterior, lo que da origen a su nombre.
69
CAP

ITULO 4. MODULACIONES DIGITALES PASABANDA


Tabla 4.1: Modulaciones Digitales Pasabanda B asicas
Deteccion Coherente Deteccion No-Coherente
Phase shift keying (PSK) Dierential shift keying (DPSK)
Frecuency shift keying (FSK) Frecuency shift keying (FSK)
Amplitude shift keying (ASK) Amplitude shift keying (ASK)
Continous phase modulation (CPM) Continous phase modulation (CPM)
Hbridos Hbridos
En general, en comunicaciones digitales, los terminos demodulacion y deteccion son utilizados
indistintamente, sin embargo la demodulaci on corresponde a la remocion de la portadora, y
detecci on incluye adem as el proceso de decisi on de smbolos. As, en un proceso de detecci on
coherente ideal, en el receptor se tiene disponible una replica o prototipo de cada se nal posible.
Estos prototipos son correlacionado con la se nal entrante de manera de detectar concordancia
de smbolos y poder identicar que es lo que el emisor transmitio.
4.2 Se nales y Ruido
4.2.1 Ruido en Sistemas de Comunicaciones
La tarea del demodulador o detector es entregar la secuencia de bits correspondiente a la forma
de onda de la entrada con el menor error posible, sin importar lo alterada que se encuentre
dicha se nal de entrada. Existen dos posibles causas para dicha alteracion de la se nal: El
primero es el efecto de ltrado que experimenta la se nal producto del transmisor, de el canal
y del receptor. La segunda causa es el ruido producido por distintas fuentes como el ruido
galaxial, el ruido terrestre, el ruido de amplicaci on y se nales no deseadas de otras fuentes. Una
causa de error que resulta imposible de dejar de lado es el movimiento aleatorio y termico de
los electrones en cualquier medio de conducci on. Este movimiento produce el conocido ruido
termico en amplicadores y circuitos, corrompiendo la se nal en una forma aditiva; esto quiere
decir, que la se nal recibida r(t), es la suma de una se nal transmitida, s(t), y el ruido termico
n(t). Las estadsticas del ruido termico se han desarrollado usando mec anica cuantica y estan
bien descritos
1
.
La caracterstica estadstica primaria del ruido termico es que su amplitud esta distribuda
de acuerdo a una distribucion Gaussiana de media cero; es decir la funcion de densidad de
probabilidades (pdf) esta determinada por
p(n) =
1

2
2
exp
_

n
2
2
2
_
, (4.1)
en donde
2
es la varianza del ruido. La distribuci on Gaussiana es comunmente utilizada como
modelo del ruido de un sistema por el teorema del lmite central. Este teorema establece que,
bajo condiciones muy generales, la distribuci on de probabilidades de la suma de k variables
1
Nyquist, H., Thermal Agitation of Electric Charge in Conductors, Phys. Rev., vol 32, Julio de 1928, pp
110-113
70
CAP

ITULO 4. MODULACIONES DIGITALES PASABANDA


aleatorias estadsticamente independientes se aproxima a una distribuci on Gaussiana a medida
que k , sin importar la distribucion individual de cada variable. Por lo tanto, aun cuando
mecansmos individuales puedan tener distribuciones diferentes a la Gaussiana, el conjunto de
todos aquellos mecansmos tendera igualmente a una distribuci on Gaussiana.
La caracterstica espectral primaria del ruido termico es que su densidad espectral de poten-
cia bilateral,
n
(f) es plana para todas las frecuencias de interes para sistemas de comunicacion
por radio, hasta una frecuencia alrededor de los 10
12
[Hz], luego

n
(f) =
N
0
2
,
en donde el factor de 2 es includo para indicar que
n
(f) es una PSD bilateral. Dado que su
densidad espectral de potencia es constante, se reere al ruido termico como un ruido blanco.
La funci on de autocorrelaci on del ruido blanco, est a determinada por la transformada inversa
de Fourier de la PSD, luego
R
n
() = F
1
[
n
(f)] =
N
0
2
() .
As, como la funcion de autocorrelacion es nula para ,= 0, se puede concluir que sin importar
cuan cerca en el tiempo esten dos muestras tomadas, ellas siempre ser an no-correlacionadas.
La potencia promedio del ruido blanco, P
n
, es innita pues su ancho de banda es innito.
A pesar de que el ruido blanco es una abstraccion util, ningun proceso de ruido puede ser
realmente blanco; sin embargo en muchsimos sistemas se puede asumir que el ruido presente
puede ser aproximadamente blanco, ya que su espectro es practicamente constante en el rango
de frecuencias de interes. Adem as, como el ruido termico est a presente en todos los sistemas
de comunicaciones y es la fuente de ruido predominante en la mayora de los sistemas, las
caractersticas del ruido blanco (aditivo, blanco y Gaussiano) se utilizan para modelar el ruido
en el proceso de deteccion y en el dise no de receptores optimos.
Por ende, el modelo matem atico que se utiliza para representar los efectos del ruido en una
se nal transmitida por un canal pasabanda esta determinada por la relaci on
r(t) = s
i
(t) + n(t) . (4.2)
Sin embargo, un modelo m as descriptivo incluira las modicaciones dadas por la respuesta
espectral del canal, h
c
(t), que se reejaran como la convoluci on entre s
i
(t) y dicha respuesta.
Como resultado de esta consideraci on se tendr a una entrada en el receptor dado por la relacion
r(t) = s
i
(t) h
c
(t) +n(t). En este curso se obviar an las modicaciones producidas por el canal
con la base de que en la mayora de los casos esta respuesta es conocida.
4.2.2 Representaci on Geometrica de Se nales
Se sabe con anterioridad de que una base de un espacio tiene que cumplir dos condiciones: que
sus elementos sean linealmente independientes y a su vez que generen de alguna forma dicho
espacio. As, se estudi o en el curso de algebra lineal que el conjunto (1, 0, 0), (0, 1, 0), (0, 0, 1)
corresponda a la base can onica de R
3
y que en general cualquier conjunto ordenado de n-uplas
e
1
, e
2
, . . . , e
n
donde e
i
es uno en la i-esima posici on y cero en el resto, es la base can onica de
R
n
. Adicionalmente se obtuvo que las funciones
2
tambien poseen un conjunto base, tal como
2
Funciones en matematica, se nales en ingeniera.
71
CAP

ITULO 4. MODULACIONES DIGITALES PASABANDA


se ve en el siguiente ejemplo.
Ejemplo 4.1 - Base de se nales.
Determine si el conjunto 1, t, t
2
corresponde a una base de los polinomios de orden menor o
igual a dos con coecientes reales.
Sol. Se puede observar que el conjunto dado genera a cualquier polinomio de la forma a+bt+ct
2
.
Adem as no existe ninguna combinacion lineal que relacione alg un elemento del conjunto con
sus pares, por lo que son linealmente independientes. Entonces, reriendose a la denicion, el
conjunto dado si corresponde a una base.
Procedimiento de Gram-Schmidt
Suponga que tiene un set de se nales con energa nita s
i
(t) , i = 1, 2, . . . , M, del cual
quiere encontrar su base; es decir quiere encontrar un set ortonormal de se nales,
j
(t) , j =
1, 2, . . . , N, en base al set original. El procedimiento de Gram-Schmidt permite realizar dicha
labor mediante pasos simples y f aciles de seguir: Se comienza la primera forma de onda s
1
(t)
con energa E
1
; la primera se nal ortonormal simplemente se construye mediante la relaci on

1
(t) =
1

E
1
s
1
(t) .
La segunda se nal ortonormal se construye desde s
2
(t), proyectando
1
(t) sobre ella mediante
a
21
=
_

s
2
(t)
1
(t) ,
para luego aplicar la relaci on

2
(t) = s
2
(t) a
21

1
(t) .
Esta se nal es ortogonal a
1
(t) pero no necesariamente tendr a energa unitaria por lo que se
normaliza por su energa E
2
para tener

2
(t) =

2
(t)

E
2
.
Generalizando el procedimiento, se puede obtener que la ortogonalizacion de la l-esima
funci on est a determinada por

l
(t) =
1

E
l

l
(t) , (4.3)
en donde

l
(t) = s
l
(t)
l1

j=1
a
lj

j
(t) . (4.4)
Entonces, defnase un espacio ortogonal N-dimensional como un espacio caracterizado por
un set de N funciones linealmente independientes,
j
(t), j = 1, 2, . . . , N, llamadas funciones
72
CAP

ITULO 4. MODULACIONES DIGITALES PASABANDA


base. Las funciones base satisfacen las siguientes condiciones
_
T
0

j
(t)
k
(t) dt = K
j

jk
,
0 t T
j, k = 1, 2, . . . , N
, (4.5)
siendo
jk
(t) el operador conocido como Funcion Delta de Kronecker, y que est a denido por

jk
=
_
1 , j = k
0 , i.o.c.
. (4.6)
Cuando las constantes K
j
son distintas de cero, el espacio de se nales es llamado ortogonal.
Cuando las funciones estan normalizadas de forma que cada K
j
= 1, entonces el espacio es
llamado ortonormal. El proceso de ortogonalidad se puede entender que cualquier funcion
j
(t)
debe ser mutuamente perpendicular a cada una de las otras
k
(t), con k ,= j.
Conforme al procedimiento anteriormente explicado, se puede demostrar que cualquier set
de se nales s
i
(t), i = 1, 2, . . . , M, en donde cada miembro del set puede ser sicamente real-
izable y de una duraci on T, puede ser expresada como una combinaci on lineal de N funciones
ortogonales,
1
(t),
2
(t), . . . ,
N
(t), con N M, vale decir
s
i
(t) =
N

j=1
a
ij

j
(t),
i = 1, 2, . . . , M
N M
, (4.7)
en donde
a
ij
=
1
K
j
_
T
0
s
i
(t)
j
(t) dt,
i = 1, 2, . . . , M
j = 1, 2, . . . , N
0 t T
. (4.8)
Ejemplo 4.2 - Ortogonalizacion de Gram-Schmidt.
Considere las se nales dadas por
s
1
(t) =
_
1 , t [0, 2]
0 , i.o.c.
, s
2
(t) =
_
_
_
1 , t [0, 1]
1 , t ]1, 2]
0 , i.o.c.
, s
3
(t) =
_
1 , t [0, 2]
1 , i.o.c.
, s
4
(t) = 1 ,
todas de duraci on T = 3. Se pide ortonormalizar el set de se nales.
Sol. La primera se nal ortonormal est a siempre determinada por la normalizaci on de la se nal
original, por lo tanto
1
(t) =
s
1
(t)

E
1
=
s
1
(t)

2
. El coeciente necesario para la segunda se nal
ortonormal se calcula mediante a
21
=
_
T
0
s
2
(t)
1
(t) dt = 0, por lo tanto
2
(t) =
s
2
(t)

2
. Para
la tercera se nal se calcula a
31
=

2 y a
32
= 0, luego

3
(t) = s
3
(t) a
31

1
(t) a
32

2
(t) =
s
3
(t) s
1
(t). Como esta se nal resultante tiene energa unitaria, no se requiere dividir por la
energa de la se nal, por lo tanto
3
(t) = s
3
(t) s
1
(t). Similarmente, se obtiene a
41
=

2,
a
42
= 0 y a
43
= 1, luego

4
(t) = s
4
(t) +

2
1
(t)
3
(t) = 0. Este resultado implica que s
4
(t)
es una combinacion lineal de
1
(t) y
3
(t), por lo que
4
(t) = 0.
Dado que, para un set jo de se nales las funciones base seran las mismas, el set completo
s
i
(t) puede ser visto como un set de vectores s
i
= a
i1
, a
i2
, . . . , a
iN
, ya que cada se nal
73
CAP

ITULO 4. MODULACIONES DIGITALES PASABANDA


transmitida estar a completamente determinado por dicho vector de coecientes. Estos se cono-
cen como las coordenadas de la se nal en dicha base. En smbolos
s
i
= [a
i1
, a
i2
, . . . , a
iN
] , i = 1, 2, . . . , M . (4.9)
La raz on principal de enfocar el estudio en el espacio ortogonal de funciones, es por que las
medidas de las distancias Euclidianas que resultan fundamentales en el proceso de detecci on
son formuladas de manera mas sencilla en dicho espacio. Lo importante es que con lo visto
anteriormente, cualquier set de se nales se puede llevar a un esquema de se nales ortogonales
utilizando el procedimiento de ortogonalizacion de Gram-Schmidt.
Energa de Se nales
La energa E
i
que posee cada se nal s
i
(t), sobre el intervalo del smbolo T, se puede obtener en
funci on de las componentes ortogonales de s
i
(t). En efecto:
E
i

_
T
0
s
2
i
(t) dt =
_
T
0
_

j
a
ij

j
(t)
_
2
dt
=
_
T
0

j
a
ij

j
(t)

k
a
ik

k
(t) dt
=

k
a
ij
a
ik
_
T
0

j
(t)
k
(t) dt
=

k
a
ij
a
ik
K
j

jk
E
i
=

j
a
2
ij
K
j
i = 1, 2, . . . , M . (4.10)
La Ecuaci on (4.10) es un caso especial del teorema de Parseval, que relaciona la integral del
cuadrado de una forma de onda, con la suma del cuadrado de coecientes ortogonales. Como
en la mayora de los casos se trabaja con bases ortonormales, el c alculo de la energa se limita
a la sumataria del cuadrado de los coecientes ortonormales.
Representaci on del Ruido Blanco
Utilizando como base el set de se nales
j
, el ruido Gaussiano blanco aditivo (AWGN) tambien
puede ser representado como una combinaci on lineal de ellas, de la misma forma en que se
representan las se nales s
i
(t). Sin embargo, como el ruido no tiene inferencia en la obtenci on
de las se nales base, no necesariamente podra ser completamente representado por dicha base.
Esto quiere decir que existir a una parte del ruido que caer a dentro del espacio de se nales generado
por
j
y otra parte que no. Por lo mismo es conveniente denir
n(t) = n(t) + n(t) , (4.11)
en donde n(t) es la componente del ruido que cae dentro del espacio de se nales y n(t) aquella
parte que cae fuera. Decir que una parte del ruido cae dentro del espacio de se nales equivale a
74
CAP

ITULO 4. MODULACIONES DIGITALES PASABANDA


decir que corresponde a la proyeccion del ruido en las coordenadas de se nales
1
(t),. . . ,
N
(t).
Entonces, n(t) esta determinada por la relaci on:
n(t) =
N

j=1
n
j

j
(t) ,
y, por ende, n(t) = n(t) n(t) ser a el ruido fuera del espacio de se nales. Se puede inferir de lo
explicado anteriormente que la relaci on entre el ruido vestigial y las se nales base est a dado por
_
T
0
n(t)
j
(t) dt = 0.
Dado que n(t) es un proceso aleatorio Gaussiano con media nula, entonces las componentes
de ruido n
j
tambien son Gaussianas de media nula. En efecto
En
j
= E
_
1
K
j
_
T
0
n(t)
j
(t) dt
_
=
1
K
j
_
T
0
En(t)
j
(t) dt = 0 ,
para todo j.
Adem as, estas componentes no est an mutuamente correlacionadas lo que se puede demostrar
calculando la covarianza
En
j
n
k
= E
_
1
K
j
1
K
k
_
T
0
_
T
0
n(t)n()
j
(t)
k
() dt d
_
=
1
K
j
1
K
k
_
T
0
_
T
0
En(t)n()
j
(t)
k
() dt d
=
N
0
2

jk
.
En resumen, las N componentes del ruido son variables aleatorias Gaussianas de media cero y
no correlacionadas con varianza com un dada por
N
0
2
.
Como se demostrara m as adelante, al utilizar un esquema de correlacionador en la detecci on
de se nales, el remanente de ruido, n(t), es rechazado efectivamente por el detector en s; entonces,
n(t) ser a el ruido que afectar a directamente el proceso de detecci on. Por lo tanto, de ahora en
adelante la porci on de ruido n(t) ser a referenciado simplemente como n(t), y se podr a representar
mediente su vector de coecientes de forma similar a lo que se dijo para las se nales, luego
n = [n
1
, n
2
, . . . , n
N
] , (4.12)
en donde n es un vector aleatorio con media cero y distribucion Gaussiana, en la que las
componentes n
j
, j = 1, . . . , N son independientes.
As, la se nal recibida a la entrada del detector tambien podr a representarse mediante un
vector r de la forma r = s
i
+ n. El problema tpico de la deteccion se ve convenientemente
en termino de estos vectores como se muestra en la Fig. 4.1. Los vectores s
j
y s
k
representan
prototipos o se nales de referencia pertenecientes al set de M se nales s
i
(t). El receptor sabe,
a priori, la ubicacion de cada una de estos prototipos en el espacio de se nales. Durante la
transmisi on de cualquiera de estas se nales, estas se perturban por el ruido generando una difusion
en torno a la posicion original; por lo mismo el vector resultante corresponde a una versi on
75
CAP

ITULO 4. MODULACIONES DIGITALES PASABANDA


Fig. 4.1: Se nal y ruido en un espacio de se nales tridimensional
perturbada de las se nales originales (es decir s
j
+ n o s
k
+ n). Dado que el ruido es aditivo
y Gaussiano, la posible se nal recibida se enmarca dentro de una nube de puntos en torno a
los puntos s
j
y s
k
. Dicha nube es densa en el centro y se esparce al ir aumentando la distancia
del prototipo, manteniendo la forma de una distribucion Gaussiana. El vector marcado como
r corresponde a un vector de se nal que puede llegar al receptor durante algun intervalo de
tiempo. La tarea del receptor sera entonces decidir cu al de las dos se nales prototipo tiene
m as semejanza con esta se nal recibida. Una forma de medir esta similitud es mediante la
distancia que existe entre cada uno de estos vectores. M as adelante se estudiara la forma en
que este concepto de distancia se aplica para elegir la forma de onda m as parecida a la recibida,
permitiendo decidir si el vector entrante pertenece a la misma clase que su vecino mas cercano
(vector prototipo mas cercano).
4.3 Tecnicas de Modulaci on Digital Pasabanda
Al transmitir informacion digital sobre un canal de comunicacion, el modulador es quien mapea
la informaci on digital en formas de onda an alogas que cuadren con las carectersticas del canal.
Generalmente, este mapeo es realizado tomando bloques de v = log
2
M digitos binarios a la
vez de la secuencia de informacion x
k
, y seleccionando una de las M = 2
v
formas de onda
s
i
(t) , i = 1, 2, . . . , M, que tienen energa nita y son determinsticas. Cuando este mapeo
se realiza asociando cada forma de onda con la que se transmitio en forma previa, se habla
que el modulador tiene memoria. En caso contrario se habla de modulaci on sin memoria. En
particular en este captulo se estudiar an modulaciones sin memoria en las que se modican
amplitud (ASK), fase (FSK, PSK) o ambas (QAM, APK). En todos los casos se asume que
la secuencia de digitos binarios en la entrada del modulador llega a una tasa de R bits por
segundo.
76
CAP

ITULO 4. MODULACIONES DIGITALES PASABANDA


4.3.1 Amplitude Shift Keying (ASK)
La modulacion digital en amplitud ASK tiene una expresi on analtica dada por:
s
i
(t) =
_
2E
i
(t)
T
cos(
c
t + ), i = 1, 2, . . . , M (4.13)
en donde T es el tiempo de duracion del smbolo a enviar, por lo que 0 t T. El termino
de amplitud
_
2E
i
(t)/T tendr a M posibles valores discretos y la fase, , es una constante
arbitraria.
N otese que el termino E
i
(t) representa la energa de la se nal. En efecto, al considerar que
la potencia de una sinusoidal est a dada por A
2
/2, entonces se tiene P
cos
= E
i
(t)/T. Se utiliza
esta notaci on, pues la energa es el par ametro clave al momento de determinar el performance
de error del proceso de detecci on.
En el caso particular de elegir un valor de M = 2, se tienen dos formas de onda posibles:
_
2E/T y cero. Dado el resultado de la modulaci on ASK binaria, comunmente es referida como
On-O Keying (OOK).

Esta fue una de las primeras modulaciones digitales ya que su principio
se utilizaba en comunicaciones con radiotelegrafos.
Esta modulaci on no se tratara en mayor detalle, ya que actualmente no es utilizada en
sistemas de comunicacion digitales.
4.3.2 Frequency Shift Keying (FSK)
La forma analtica general para la modulacion FSK esta dada por
s
i
(t) =
_
2E
T
cos(
i
t + ),
i = 1, 2, . . . , M
0 t T
(4.14)
en donde el termino de frecuencia,
i
, puede asumir M valores discretos, el termino de fase,
, es una constante arbitraria. El valor de M es generalmente jado en potencias de dos que
son distintas de cero (2, 4, 8, 16, . . . ). El set de se nales est a caracterizado por las coordinadas
cartesianas, por lo que cada eje mutuamente perpendicular representa un sinusoide con una
frecuencia diferente.
4.3.3 Phase Shift Keying (PSK)
La modulacion en fase, es ampliamente utilizada en comunicaciones comerciales y militares. Su
expresi on analtica general esta determinada por:
s
i
(t) =
_
2E
T
cos[
c
t +
i
(t)],
i = 1, 2, . . . , M
0 t T
(4.15)
en d onde el termino de fase asume solo M posibles valores discretos, que en general estan dados
por la forma

i
(t) =
2i
M
, i = 1, 2, . . . , M . (4.16)
77
CAP

ITULO 4. MODULACIONES DIGITALES PASABANDA


El parametro E tambien representa la energa y T es el tiempo de duraci on del smbolo, al igual
que para los casos anteriores.
En las modulaciones PSK binarias, la se nal moduladora cambia la fase de las formas de
onda, s
i
(t) en dos estados: cero o , lo que se traduce en un cambio de fase muy abrupto; si la
secuencia de bits moduladores se alterna entre 0 y 1, entonces se tendran cambios abruptos en
cada transicion.
Los cambios de fase de las se nales pueden ser facilmente representados mediante vectores
en un plano polar. El largo del vector corresponde a la amplitud de la se nal y la direcci on del
vector, para una modulaci on M- aria, corresponde a la fase de las se nales, relativa a las otras
M1 se nales en el set. Para el caso de BPSK, la representaci on se logra mediante dos vectores
separados en 180
o
. Las se nales que pueden ser representadas con tales vectores opuestos son
llamadas set de se nales antipodales.
4.3.4 Amplitude Phase Shift Keying (APK)
Esta modulaci on realiza una combinaci on de ASK y PSK, de donde se obtiene su nombre (APK).
Su forma analtica general, esta dada por:
s
i
(t) =
_
2E
i
(t)
T
cos[
c
t +
i
(t)],
i = 1, 2, . . . , M
0 t T
. (4.17)
La Ecuaci on (4.17) ilustra que se realiza una indexacion del termino de la amplitud y de la fase.
La forma de onda de una se nal APK permite visualizar cambios de amplitud y fase simult aneos.
Por ejemplo, si se trabajara con M = 8, entonces cuatro vectores tendran una misma amplitud y
los otros cuatro tendran una amplitud diferente, con cada uno de los vectores separados en 45
o
.
Cuando un set de M posibles smbolos en un espacio de se nal bidimensional es ubicado en una
constelaci on rectangular, las se nales son referidas como una quadrature amplitud modulation
(QAM) que se estudiar a m as adelante.
Las representaciones vectoriales de cada una de estas tecnicas de modulaci on est an carac-
terizadas por un plano polar para representar amplitud y fase. Caso contrario con lo sucedido
para la modulaci on FSK para el que es un plano de coordenadas cartesianas en donde cada eje
es un tono del set de M posibles tonos ortogonales.
Retomando la denicion analtica para la modulaci on PSK dada en la Ecuacion (4.15), se
puede considerar que el angulo del coseno est a compuesto por la suma de dos angulos. Utilizando
la identidad trigonometrica correspondiente, se tiene que:
s
i
(t) =
_
2E
T
cos
_

c
t +
2i
M
_
=
_
2E
T
_
cos
c
t cos
_
2i
M
_
sin
c
t sin
_
2i
M
__
=
_
2E
T
A
mc
cos
c
t
_
2E
T
A
ms
sin
c
t (4.18)
en donde indirectamente se ha denido A
mc
= cos
_
2i
M

y A
ms
= sin
_
2i
M

.
78
CAP

ITULO 4. MODULACIONES DIGITALES PASABANDA


De la Ecuaci on (4.18), se puede obtener que una se nal digital modulada en fase, puede
representarse geometricamente como vectores bidimensionales con componentes

E cos
_
2i
M

E sin
_
2i
M

. La asignaci on de los v bits a cada uno de los M = 2


v
posibles valores de fase,
se puede realizar de distintas maneras, pero la forma preferida es utilizando codicacion Gray.
Esto consiste en que los puntos adyacentes solo cambian de un dgito binario a la vez.
Se puede probar que la mnima distancia entre dos puntos adyacentes est a dada por
d
min
= 2

E sin

M
(4.19)
y su importancia es que juega un papel importante en la determinacion del desempe no de la
tasa de error (error-rate performance) de un receptor que detecta la se nal PSK con presencia
de ruido gaussiano aditivo (AWGN).
Ejemplo 4.3 - Distancia Mnima.
Determine la distancia mnima para modulaciones PSK-2, 4 y 8 considerando que todas tienen
la misma energa transmitida E. Adem as, calcule en cu antos decibeles se debe incrementar la
se nal de energa para que PSK-8 tenga el mismo performance que PSK-4.
Sol. Para M = 2, d
min
2
= 2

E. Para M = 4, d
min
4
=

2E y para M = 8, d
min
8
=

0.5858E.
Para mantener la misma distancia mnima entre 4 y 8 niveles, se requiere incrementar la energa
en un factor de 2/0.5858 = 3.4142. En dB, esto es 5.33dB.
Para valores grandes de M, se puede realizar la aproximaci on sin

M


M
, luego la distancia
mnima ser a aproximadamente
d
min

2
M

E, M >> 2 (4.20)
Consecuentemente, al aumentar M al doble -lo que permite enviar un bit m as de informaci on
por cada smbolo entonces la energa debe ser aumentada en 6dB para asegurar la misma
distancia mnima entre puntos adyacentes.
4.4 Detecci on de Se nales en la presencia de AWGN
4.4.1 Region de Decision
Considere un espacio bidimensional como el dado en la Fig. 4.2 en las que se tiene dos prototipos
corruptos por ruido (s
1
+n) y (s
2
+n). El vector de ruido, n, es un vector aleatorio de media
nula, por lo que el vector de recepci on, r, es un vector aleatorio de media s
1
o s
2
. La tarea
del receptor, luego de recibir r es decidir cual de las se nales fue originalmente transmitida. El
metodo para esta decisi on usualmente corresponde a decidir cu al de las se nales especicadas
arroja la menor probabilidad de error, sin embargo existen otras formas de realizarlo.
Para el caso de M = 2 en donde ambas se nales posibles son equiprobables y sobre el cual
el ruido es un proceso de ruido aditivo Gaussiano (AWGN), se puede demostrar que el error
79
CAP

ITULO 4. MODULACIONES DIGITALES PASABANDA


Fig. 4.2: Espacio de se nales bidimensional, con vectores arbitarios de igual amplitud s
1
y s
2
mnimo de decision se logra al elegir la clase de se nal en la que la distancia d(r, s
i
) =|r s
i
|
es minimizada, en donde |.| representa la norma del vector. Esta regla es usualmente jada en
terminos de regiones de decisi on, como se muestra en la Fig. 4.2.
4.4.2 Receptor de Correlacion
La detecci on de se nales pasabanda utiliza el mismo principio de se nales en banda base cuando
se realiza el an alisis en presencia de ruido AWGN. El enfoque se dar a principalmente en la real-
izaci on de un ltro encuadrado (matched lter) conocido como correlacionador (correlator).
Se considerar a que la unica fuente de degradaci on ser a por AWGN, por lo que la se nal recibida
estar a dada por
r(t) = s
i
(t) + n(t) (4.21)
para un intervalo de tiempo 0 t T. Dada la se nal recibida, el proceso de deteccion se
realiza en dos pasos. En el primero, la se nal es reducida a una variable aleatoria unica, z(T),
o a un set de variables aleatorias, z
i
(T), i = 1, 2, . . . , M que se origina a la salida del (los)
correlacionador(es) al instante de tiempo t = T. En el segundo paso, se realiza el proceso de
decisi on, comparando dicha variable aleatoria con un cierto umbral o eligiendo el z
i
(T) m aximo,
como se ver a a continuaci on. El primer paso puede ser pensado como una transformaci on de la
se nal en un punto en el plano de decision, y el segundo como el determinar en cu al region de
decisi on se encuentra dicho punto.
Se puede comprobar que el matched lter asegura un SNR m aximo a la salida para el
instante t = T. El correlacionador es una realizacion de dicho ltro, y por ende, el receptor de
correlaci on se puede denir como M correlacionadores que transforman la se nal de entrada r(t)
en una secuencia de M n umeros z
i
(T), i = 1, 2, . . . , M. Cada correlacionador es caracterizado
por el producto-e-integracion de la se nal recibida:
z
i
(T) =
_
T
0
r(t)s
i
(t) dt, i = 1, 2, . . . , M (4.22)
As, una regla de decision razonable es elegir el maximo valor de z
i
(T) pues cuadra mejor
con alguna forma de onda conocida a priori, o en otras palabras, tienen la mayor correlaci on.
80
CAP

ITULO 4. MODULACIONES DIGITALES PASABANDA


Fig. 4.3: Receptor de Correlacion con s
i
(t) como se nales de referencia
La Fig. 4.3 muestra el diagrama de bloques del receptor correlacionador en donde se utiliza el
set s
i
(t) como se nales de referencia para realizar el proceso de decision.
Para el caso de deteccion binaria, lo normal sera tener dos correlacionadores con prototipos
s
1
(t) y s
2
(t) respectivamente y una etapa de decisi on que decida entre el mayor valor de z
i
(T).
Esto se puede mejorar al tomar la diferencia de los correlacionadores z(T) = z
1
(T) z
2
(T)
y alimentar la etapa de decisi on. Si se ha transmitido s
1
(t) entonces z(T) sera positiva y en
caso contrario ser a negativa, por lo que se puede implementar la deteccion binaria mediante la
utilizaci on de un solo correlacionador, en donde se compara la se nal entrante con la diferencia
de los prototipos originales, vale decir s
1
(t) s
2
(t). En efecto,
z(T) = z
1
(T) z
2
(T) =
_
T
0
r(t)s
1
(t) dt
_
T
0
r(t)s
2
(t) dt =
_
T
0
r(t)[s
1
(t) s
2
(t)] dt
Tomando este resultado y recordando que para una modulacion binaria se trabaja en torno
a una sola funcion base, (t), entonces se plantea la opci on de realizar el proceso de detecci on
mediante la comparacion con esta se nal, en smbolos
z(T) =
_
T
0
r(t)(t) dt =
_
T
0
[s
i
(t) + n(t)](t) dt = a
i
(T) + n
0
(T) .
Si no se tuviese ruido, una se nal de entrada s
i
(t) originara en la salida del correlacionador sola-
mente una componente de se nal, z
i
(T) = a
i
(T). Dado que el correlacionador es un dispositivo
lineal y el ruido de entrada es un proceso aleatorio Gaussiano, el ruido de salida tambien ser a
un proceso aleatorio Gaussiano. As la salida del correlacionador en presencia de ruido sera
z(T) = a
i
(T) + n
0
(T), para i = 1, 2. La variable n
0
(T) corresponde a la componente de ruido.
En base al analisis estadstico previo, es sencillo visualizar que z(T) ser a tambien una variable
aleatoria Gaussiana con media en a
1
o a
2
, dependiendo si se envio un cero o un uno.
Es importante considerar que cualquier set de se nales s
i
(t), i = 1, 2, . . . , M puede ser
expresada en funci on a otro set de funciones base
j
(t), j = 1, 2, . . . , N tal como se explico
anteriormente. As, si se considera la Ecuacion (4.7), el banco de M correlacionadores de
la Fig. 4.3 puede ser reemplazado por un banco de N correlacionadores en donde se utilizan
81
CAP

ITULO 4. MODULACIONES DIGITALES PASABANDA


las se nales
j
(t) como referenciales. La salida de los correlacionadores estara determinada
entonces por la generalizaci on de la relaci on antes mencionada
z
j
(T) =
_
T
0
r(t)
j
(t) dt (4.23)
Para la etapa de decisi on, este receptor elige la se nal s
i
(t) de acuerdo al mejor acierto de los
coecientes a
ij
con el set de salidas z
j
(T). En el caso de que se trabaje con se nales s
i
(t)
no-ortogonales, la implementacion con las funciones base es mas efectivo en terminos de costos.
Tal como se explic o con anterioridad, la se nal de ruido remanente n(t) = n(t) n(t) corre-
sponde a un ruido Gaussiano de media cero que no se puede expresar mediante las funciones
base. Anteriormente se demostr o que las componentes de ruido n
j
son Gaussianas, de media
cero y no correlacionadas entre s, teniendo una varianza com un dada por
N
0
2
. Ahora bien,
usando un esquema de N correlacionadores con funciones base
j
(t), se tiene que la salida
del set de correlacionadores esta determinada por
z
j
(T) =
_
T
0
r(t)
j
(t) dt =
_
T
0
[s
i
(t) + n(t)]
j
(t) dt
=
_
T
0
s
i
(t)
j
(t) dt +
_
T
0
n(t)
j
(t) dt
= a
ij
+ n
j
,
en donde se utiliz o la denicion de los coecientes dada anteriormente. Ahora bien, la idea es
demostrar que el ruido remanente n(t) es irrelevante cuando se necesita decidir cual se nal fue
transmitida. Consecuentemente, la decisi on estara determinada completamente por la salida del
correlacionador z
j
(T) = a
ij
+ n
j
. En palabras simples, se busca demostrar que ning un tipo de
informaci on adicional se puede extraer del ruido remanente. De hecho, n(t) es completamente
no correlacionado con las salidas de los N correlacionadores.
E n(t) z
j
(T) = E n(t) [a
ij
+ n
j
] = E n(t) a
ij
+ E n(t) n
j

= E n(t) n
j

= E
__
n(t)

j
n
j

j
(t)
_
n
j
_
= En(t) n
j
E
_

k
n
k

k
(t) n
j
_
= E
_
n(t)
_
T
0
n(t)
j
(t) dt
_
E
_

k
n
k

k
(t) n
j
_
=
_
T
0
En() n(t)
j
(t) dt

k
En
k
n
j

k
(t)
= 0 .
Dado que n(t) y z
j
(T) son gaussianos y no correlacionados, entonces tambien son es-
tadsticamente independientes. Consecuentemente, n(t) no contiene ninguna informaci on que
82
CAP

ITULO 4. MODULACIONES DIGITALES PASABANDA


sea relevante en la decisi on de la se nal transmitida; es decir, toda la informacion est a contenida
en las salidas del correlacionador.
Ejemplo 4.4 - Correlacionador.
Considere que se recibe un pulso rectangular, g(t), de amplitud a y tiempo de duracion T.
Determine la funcion base de este pulso, considerando que se ha generado en base a una se nal
pasabanda PAM. Ademas, considerando un ruido aditivo gaussiano de media nula, estime la
salida de un demodulador tipo correlacionador y la funci on de densidad de probabilidad de
dicha salida.
Sol. La energa del pulso ser a E =
_
T
0
g
2
(t) dt = a
2
T, luego como la generacion se realizo
mediante modulaci on PAM, la funci on base ser a (t) =
1

a
2
T
g(t) =
_
1

T
0 t T
0 i.o.c.
. Ahora,
la salida del correlacionador, estar a determinado por r =
_
T
0
r(t)(t) dt =
1

T
_
T
0
r(t) dt. Reem-
plazando r(t) = s
i
(t) + n(t), se obtiene que r = s
i
+ n. Dado que En = 0, entonces
Er = Es
i
= s
i
, pues s
i
es determinstica. La varianza
2
r
=
2
n
=
1
2
N
0
, por lo que nal-
mente la funci on de probabilidades sera p(r[s
i
) =
1

N
0

exp
_

(rs
i
)
2
N
0
_
por la gaussianeidad del
proceso.
Receptor de Correlaci on Binario
Como se estudio anteriormente, la estadstica de prueba sera una variable aleatoria Gaussiana
con media a
1
o a
2
dependiendo si se envi o un 0 o un 1 binario. Considerando que el ruido tiene
varianza
2
0
, entonces las funciones de densidad de probabilidades (pdfs) estaran determinadas
por
p(z[s
1
) =
1
_
2
2
0
exp
_

(z a
1
)
2
2
2
0
_
(4.24)
p(z[s
2
) =
1
_
2
2
0
exp
_

(z a
2
)
2
2
2
0
_
. (4.25)
Gr acamente, ambas pdfs estan entrelazadas por lo que debe haber un criterio de decisi on
conforme a realizar una buena eleccion del smbolo, determinando en que region se encuentra la
se nal recibida. En la Fig. 4.4 se puede observar esto, marcando las regiones, la linea de decisi on
y el umbral (denotado por
0
).
Para obtener el valor del umbral, se requiere considerar que la decisi on se toma en torno a
las probabilidades conjuntas p(z, s
i
). Esto quiere decir que una buena regla de decision es: si
p(z, s
1
) > p(z, s
2
) entonces lo m as probable es que se haya transmitido s
1
(t); en caso contrario,
lo m as probable es que se haya transmitido s
2
(t). Matem aticamente esto se puede representar
mediante la relacion
p(z, s
1
)
s
1
s
2
p(z, s
2
) .
Ahora bien, al utilizar el teorema de Bayes y la condici on de que la probabilidad de que se
transmita s
1
(t) es q, es decir p(s
1
) = q y p(s
2
) = 1 q, entonces se tiene que p(z, s
1
) =
83
CAP

ITULO 4. MODULACIONES DIGITALES PASABANDA


Fig. 4.4: Funcion de Densidad de Probabilidades Condicionales. p(z[s
1
), p(z[s
2
)
p(s
1
)p(z[s
1
) = qp(z[s
1
) y p(z, s
2
) = p(s
2
)p(z[s
2
) = (1 q)p(z[s
2
). Aplicando esto a la regla de
decisi on se tiene
p(z, s
1
)
s
1
s
2
p(z, s
2
)
q
1
_
2
2
0
exp
_

(z a
1
)
2
2
2
0
_

s
1
s
2
(1 q)
1
_
2
2
0
exp
_

(z a
2
)
2
2
2
0
_
2z(a
1
a
2
) (a
2
1
a
2
2
)
s
1
s
2
2
2
0
ln
_
1 q
q
_
,
por lo que si las se nales son equiprobables, entonces ln
_
1q
q
_
= 0 y por ende
z
s
1
s
2
a
1
+ a
2
2
=
0
, (4.26)
lo que quiere decir que para se nales equiprobables, la mejor alternativa para tomar la decisi on es
mediante la elecci on del punto medio de las medias como el umbral de decision. As, se plantea
la regla de decisi on dada por
z(T)
H
1
H
2
a
1
+ a
2
2
=
0
(4.27)
que determina que la hipotesis H
1
debe ser seleccionada
3
si z(T) >
0
, e hipotesis H
2
deber a
seleccionarse
4
si z(T) <
0
. Para el caso de trabajar con se nales antipodales, entonces s
1
(t) =
s
2
(t), y a
1
= a
2
, por lo que el umbral queda determinado por
z
s
1
s
2
0 ,
tal como se discuti o anteriormente al realizar la deteccion mediante un solo correlacionador.
4.4.3 Detector por Matched-Filter
En vez de utilizar un banco de N correlacionadores para generar las variables de decision, se
puede utilizar un banco de N ltros lineales. Para entender esto de forma especca, suponga
que la respuesta a entrada impulso de cada uno de esos ltros es
h
j
(t) =
j
(T t) , 0 t T
3
Equivalente a decir que la se nal s
1
(t) fue enviada.
4
Equivalente a decir que la se nal s
2
(t) fue enviada.
84
CAP

ITULO 4. MODULACIONES DIGITALES PASABANDA


en donde
j
(t) corresponden a las N funciones base, y h
j
(t) = 0 fuera del intervalo 0 t T.
La salida de los ltros est a determinada por la convolucion entre la entrada del ltro (la se nal
recibida, r(t)) y la respuesta impulso; entonces
y
j
(t) =
_
t
0
r()h
j
(t ) d
=
_
t
0
r()
j
(T t + ) d , j = 1, 2, . . . , N
Ahora, muestreando las salidas de estos ltros en el tiempo t = T, se obtienen exactamente
cada uno de los valores que tambien se obtienen a la salida de los correlacionadores, z
j
(T).
z
j
(T) = y
j
(t = T) =
_
T
0
r()
j
() d .
Un ltro cuya respuesta a entrada impulso sea de la forma h(t) = f(T t), en donde f(t)
se asume que se conna al rango 0 t T, se le llama matched-lter (ltro encuadrado) a la
se nal f(t). La respuesta a la se nal f(T), es
y(t) =
_
t
0
f()f(T t + )d ,
que es b asicamente la autocorrelaci on temporal de la se nal f(t), cuyo m aximo se logra en t = T.
Una de las propiedades m as importantes de esta forma de solucionar el problema es que
si una se nal f(t) se corrompe por AWGN, el ltro con una respuesta impulso encuadrada a
f(t), maximiza la raz on se nal-ruido (SNR) a la salida. Para demostrar esto, asuma que la se nal
recibida r(t) = s(t) + n(t) se hace pasar por un ltro con respuesta impulso h(t) y luego se
muestrea en t = T. Entonces, la salida del ltro + muestreador ser a:
y(T) = y(t)[
t=T
=
_
t
0
r()h(t ) d [
t=T
=
_
t
0
s()h(t ) d [
t=T
+
_
t
0
n()h(t ) d [
t=T
=
_
T
0
s()h(T ) d +
_
T
0
n()h(T ) d
= y
s
(T) + y
n
(T) ,
en donde y
s
(T) corresponde a la componente de la se nal y y
n
(T) a la componente del ruido. El
problema consiste entonces en seleccionar la respuesta a entrada impulso del ltro de forma que
maximice el SNR a su salida, que estar a determinado por la razon SNR
o
=
y
2
s
(T)
E{y
2
n
(T)}
, pues se
evaluan la se nal y el ruido a la salida de dicho ltro.El denomidador corresponde simplemente
a la varianza de la componente de ruido a la salida del ltro, luego
E
_
y
2
n
(T)
_
= E
_
__
T
0
n()h(T ) d
_
2
_
=
2
0
_
T
0
h
2
(T t) dt .
85
CAP

ITULO 4. MODULACIONES DIGITALES PASABANDA


Reemplazando este resultado en la denicion del SNR de la salida del ltro, se tiene
SNR
o
=
y
2
s
(T)
Ey
2
n
(T)
=
_
_
T
0
s()h(T ) d
_
2

2
0
_
T
0
h
2
(T t) dt
=
_
_
T
0
h()s(T ) d
_
2

2
0
_
T
0
h
2
(T t) dt
;
dado que el denominador depende de la energa en h(t), el m aximo SNR sobre h(t) se obtiene
maximizando el numerador con el respaldo de que el denominador se mantiene constante. Esta
maximizaci on se puede realizar utilizando la inecuacion de Cauchy-Schwarz, la que indica que,
en general, si g
1
(t) y g
2
(t) son se nales de energa nita, entonces
__

g
1
(t)g
2
(t) dt
_
2

g
2
1
(t) dt
_

g
2
2
(t) dt ,
siendo iguales cuando se satisface que g
1
(t) = Cg
2
(t), para una constante arbitraria C. Fijando
entonces g
1
(t) = h(t) y g
2
(t) = s(T t), resulta claro que el SNR es maximo cuando h(t) =
Cs(T t), vale decir cuando el ltro esta encuadrado a s(t).
Luego, el m aximo SNR a la salida estar a determinado por
SNR
max
=
1

2
0
_
T
0
s
2
(t) dt =
2E
N
0
, (4.28)
en donde E es la energa de la se nal de entrada s(t).
Es interesante notar que para la elecci on de h(t) = (T t), entonces h(T ) = (),
luego el SNR estar a determinado por la raz on
SNR
max
=
_
_
T
0
s()h(T ) d
_
2

2
0
_
T
0
h
2
(T t) dt
=
_
_
T
0
s()() d
_
2

2
0
_
T
0

2
() d
=
a
2
i

2
0
,
pues es un sistema base ortonormal y () genera los coecientes de la se nal transmitida s(t).
4.5 Deteccion Coherente
4.5.1 Detecci on Coherente para PSK
El detector de la Fig. 4.3 puede ser utilizado para detecci on coherente de cualquier forma de
onda que se tenga en la entrada. Para ejemplicar esto, se considera el ejemplo de modulaci on
BPSK, cuyas se nales, por denici on, seran
s
1
(t) =
_
2E
T
cos(
c
t + ), 0 t T ,
s
2
(t) =
_
2E
T
cos(
c
t + + ) =
_
2E
T
cos(
c
t + ), 0 t T ,
por lo que se tiene que s
1
(t) = s
2
(t). El ruido n(t) es un proceso AWGN. El termino de fase
es una constante arbitaria, por lo que el analisis no se vera afecto al asumirla cero. El par ametro
86
CAP

ITULO 4. MODULACIONES DIGITALES PASABANDA


E es la energa por smbolo, y T es la duraci on de dicho smbolo. Dada la forma de las se nales,
solo se requiere una funcion base que est a determinada por:
(t) =
_
2
T
cos
c
t . (4.29)
As, las se nales transmitidas pueden ser expresadas mediante
s
1
(t) = a
1
(t) =

E(t)
s
2
(t) = a
2
(t) =

E(t)
Las se nales prototipo en el receptor son la misma que la funci on base, pero normalizada
por el factor
_
2
T
, lo que implica que la se nal prototipo del correlacionador 1, sera (t) y la
del correlacionador 2, ser a (t). Ahora, asumiendo que se transmite s
1
(t), entonces r(t) =
s
1
(t) + n(t), y los valores esperados a tener a la salida del integrador son:
Ez
1
[s
1
= E
__
T
0
r(t)(t) dt
_
= E
__
T
0
[s
1
(t) + n(t)] (t) dt
_
= E
__
T
0

E
2
(t) + n(t)(t) dt
_
E{n(t)}=0
= E
__
T
0
2
T

E cos
2

c
t dt
_
=

E .
Similarmente, la salida del correlacionador 2 es
Ez
2
[s
1
= E
__
T
0
r(t)[(t)] dt
_
= E
__
T
0
[s
1
(t) + n(t)] [(t)] dt
_
= E
__
T
0

E
2
(t) n(t)(t) dt
_
E{n(t)}=0
= E
__
T
0

2
T

E cos
2

c
t dt
_
=

E .
La etapa de decisi on debe elegir cu al se nal fue transmida mediente la determinacion de la
ubicaci on en el espacio de las se nales. La eleccion de (t) =
_
2
T
cos
c
t normaliza las salidas
de los correlacionadores, por lo que el valor medio obtenido sera siempre Ez
i
=

E. La
etapa de decision elige la se nal con el mayor valor de z
i
(T), por lo que para este ejemplo, a la
salida se tendr a s
1
(t).
4.5.2 Detecci on Coherente para PSK M ultiple
PSK M ultiple (M- aria PSK, MPSK) es expresada conforme a la Ecuacion (4.18). Asumiendo
un espacio ortonormal para las funciones base, de acuerdo a la Ecuaci on (4.7) se pueden elegir
convenientemente los ejes:

1
(t) =
_
2
T
cos
c
t
87
CAP

ITULO 4. MODULACIONES DIGITALES PASABANDA

2
(t) =
_
2
T
sin
c
t
en d onde la amplitud
_
2
T
se elige para mantener la salida normalizada conforme a lo estudiado
anteriormente. Ahora, el set completo de se nales se puede expresar de la forma
s
i
(t) = a
i1

1
(t) + a
i2

2
(t),
i = 1, 2, . . . , M
0 t T
=

E cos
i

1
(t) +

E sin
i

2
(t) (4.30)
con
i
=
2i
M
. Notese que la Ecuacion (4.30) describe un set de M se nales de fase m ultiple
(intrinsecamente no-ortogonales) en terminos de solo dos componentes portadores ortogonales.
El caso de M = 4 (QPSK, quadriphase shift keying) es unico dentro de las se nales MPSK en el
sentido de que las formas de onda QPSK son representadas por una combinacion de miembros
antipodales y ortogonales. Los contornos de decision dividen el espacio de las se nales en M = 4
regiones. La regla de decisi on para el detector es decidir que s
1
(t) fue transmitida si el vector
de la se nal recibida cae en la regi on 1, que se transmiti o s
2
(t) si cae en la region 2, etc. En
otras palabras, se debe elegir la i-esima forma de onda si z
i
(T) es la m axima salida de los
correlacionadores, conforme a lo estudiado anteriormente.
La forma del correlacionador de la Fig. 4.3, muestra que siempre se requieren M correla-
cionadores de producto al demodular se nales MPSK. Sin embargo, como se discutio anterior-
mente, en la practica la demodulacion MPSK se implementa con N = 2 correlacionadores dado
que la base de la modulacion es conforme a las funciones base
1
(t) y
2
(t). La se nal recibida,
r(t), puede ser expresada como
r(t) =
_
2E
T
[cos
i
cos
c
t + sin
i
sin
c
t] + n(t) (4.31)
en donde n(t) es un proceso de ruido blanco Gaussiano con media cero. La Fig. 4.5 ilustra el
demodulador con las consideraciones hechas. Las se nales X y Y corresponden al c alculo de los
correlacionadores superior e inferior respectivamente, y se denen mediante:
X =
_
T
0
r(t)
1
(t) dt (4.32)
Y =
_
T
0
r(t)
2
(t) dt . (4.33)
La variable

es la estimacion ruidosa
5
de la fase real transmitida
i
. La forma en la
que se ha implementado en el demodulador es mediante el calculo de la arcotangente de las
componentes en fase (X) y en cuadratura (Y ) del vector de la se nal recibida r. El resultado
obtenido de dicho c alculo es comparado con cada una de los prototipos almacenados,
i
. El
demodulador elige el
i
m as cercano al angulo estimado. En otras palabras, el demodulador
calcula la distancia [
i

[ para cada protoripo y elige el angulo


i
que arroje la menor salida.
5
Denominada as, por la presencia del ruido AWGN en la entrada del demodulador.
88
CAP

ITULO 4. MODULACIONES DIGITALES PASABANDA


Fig. 4.5: Demodulador para se nales MPSK
4.5.3 Detecci on Coherente de FSK
La modulaci on FSK esta caracterizada por modicar la frecuencia del carrier, conforme a lo
estudiado anteriormente y que se presento en la Ecuacion (4.14) mediante la denici on de las
funciones analticas tpicas. El termino de fase, , es considerado nulo ya que es simplemente
una constante arbitraria al momento de hablar de detecci on coherente en fase. Esto implica que
la fase se estima de forma preliminar a la detecci on mediante por ejemplo un lazo PLL.
Asumiendo que el set de funciones base
1
(t), . . . ,
N
(t) corresponden a un set ortogonal, la
forma mas util de denirlas es mediante

j
(t) =
_
2
T
cos
j
t, j = 1, 2, . . . , N (4.34)
para lograr una salida esperada normalizada, al igual que lo visto para la modulaci on PSK.
De la Ecuaci on (4.8) se puede escribir:
a
ij
=
_
T
0
_
2E
T
cos
i
t
_
2
T
cos
j
t dt =
_
E , i = j
0 , i.o.c.
. (4.35)
En otras palabras, el i-esimo vector del prototipo de la se nal, esta ubicado en i-esimo eje
coordenado a un desplazamiento de

E desde el origen en el espacio de se nales. En este


esquema, para el caso general de MFSK, la distancia entre dos vectores de prototipos s
i
y s
j
es
constante:
d(s
i
, s
j
) =|s
i
s
j
| =

2E, i ,= j .
La Fig. 4.6 muestra los vectores de las se nales prototipo y las regiones de decision para un
sistema FSK-3 coherentemente detectado. Como en el caso de PSK, el espacio de las se nales es
particionado en M regiones distintas, cada una conteniendo un vector de se nal prototipo; aca,
dado que las regiones de decisi on son tridimensionales, los lmites de decision son planos en vez
de lneas. La regla de decisi on optima es decidir que la se nal transmitida pertenece a la clase
cuyos ndices corresponden a la regi on en donde la se nal recibida se encuentra. Por ejemplo, en
la Fig. 4.6, el vector de la se nal recibida r est a en la regi on 2. Utilizando la regla de decision
impuesta arriba, el detector clasica r como la se nal s
2
.
Dado que el ruido es un vector aleatorio Gaussiano, existe una probabilidad mayor que cero
de que r pueda haberse producido por una se nal distinta a s
2
. Por ejemplo, si el transmisor
89
CAP

ITULO 4. MODULACIONES DIGITALES PASABANDA


Fig. 4.6: Particionado del espacio de se nales para se nales FSK-3
envi o s
2
, entonces r ser a la suma de la se nal m as ruido, s
2
+n
a
, y la decisi on de haber elegido
s
2
es correcta. Sin embargo, si el transmisor envio s
3
, el vector r podra ser la suma de la se nal
m as ruido, s
3
+n
b
y la decisi on de elegir s
2
ser a un error. El desempe no de error para sistemas
FSK coherentemente detectada sera tratada mas adelante.
En la detecci on coherente de FSK, la se nal recibida, r(t), se correlaciona con cada una de
las M posibles se nales, asumiendo que la fase fue correctamente estimada. Este requerimiento
hace que la demodulaci on coherente FSK sea extremadamente compleja y poco pr actica, espe-
cialmente cuando se trabaja con muchas se nales. Por lo mismo, no se considera como un punto
importante de estudio dentro del curso, y se hara mas incapie en la detecci on no-coherente de
FSK en la siguiente secci on.
4.6 Detecci on No-Coherente
4.6.1 Detecci on No-Coherente de FSK
En este curso, se estudiar a la detecci on de la se nal FSK usando ltros pasabanda y detectores
de envolvente, al igual que para el caso analogo. El demodulador consta de M ltros centrados
en f
i
=

i
2
y con un ancho de banda de W
f
=
1
T
. Posteriormente, los detectores de envolvente
consisten en un recticador seguido de un ltro pasa bajo. Los detectores estan concentrados en
la envolvente de cada se nal y no en las se nales en s. La fase de la portadora no es importancia
en la denici on de una envolvente, por lo tanto no se utiliza informaci on de esta variable.
Para el caso de FSK binaria, la decision de si se recibi o un cero o un uno es hecha en base
a cu al de los dos detectores de envolvente tiene la mayor amplitud al momento de tomar la
90
CAP

ITULO 4. MODULACIONES DIGITALES PASABANDA


Fig. 4.7: Detecci on no-coherente para modulaci on FSK usando detector de envolvente
medida. Similarmente, para sistemas FSK m ultiple (MFSK), la decision acerca de cu al de las
M se nales fue transmitida es hecha en base a cual de los detectores de envolvente presenta la
m axima salida.
Espacio Mnimo de tonos para FSK
La modulacion FSK es normalmente implementada mediante espacios ortogonales, en donde
cada tono (sinusoidal) en el set de se nales no puede interferir con ninguno de los otros tonos.
Entonces, aparece de forma natural la pregunta Cu al es la distancia en frecuencia mnima
requerida,
i+1

i
, para asegurar la ortogonalidad del set de se nales? Para responder esta
pregunta, considere dos se nales cos(
1
t+) y cos
2
t, en donde ser a una constante arbitaria en
el intervalo [0, 2], que cuanticara la diferencia de fase entre ambos tonos y no necesariamente
la fase particular de la primera se nal. La idea, es encontrar alguna restricci on sobre ambas
frecuencias
1
= 2f
1
y
2
= 2f
2
que permita asegurar la ortogonalidad del espacio generado.
Considere adem as que f
1
> f
2
y que la duraci on de cada tono (smbolo) es T segundos; luego
la tasa de smbolos sera 1/T smbolos por segundo. Entonces, ambas se nales ser an ortogonales
si y solo si
I =
_
T
0
cos(
1
t + ) cos
2
t dt = 0 ,
entonces, resolviendo la integral se tiene
I =
_
T
0
cos(
1
t + ) cos
2
t dt
= cos
_
T
0
cos
1
t cos
2
t dt sin
_
T
0
sin
1
t cos
2
t dt
=
1
2
cos
_
sin(
1
+
2
)T

1
+
2
+
sin(
1

2
)T

2
_
...
+
1
2
sin
_
cos(
1
+
2
)T 1

1
+
2
+
cos(
1

2
)T 1

2
_
.
Asumiendo que f
1
+ f
2
>> 1, se puede realizar la aproximacion
sin(
1
+
2
)T

1
+
2

cos(
1
+
2
)T

1
+
2
0 ,
91
CAP

ITULO 4. MODULACIONES DIGITALES PASABANDA


lo que al reemplazar e igualar con cero, permite obtener
cos sin(
1

2
)T + sin [cos(
1

2
)T 1] = 0 . (4.36)
Para obtener el resultado nal, se deben analizar dos casos: FSK coherente y no coherente.
Para el caso de FSK no-coherente, no se puede realizar ninguna consideraci on sobre la fase ,
por lo que ambos terminos solo podr an sumar cero cuando ambos sean cero, es decir
sin(
1

2
)T = 0 cos(
1

2
)T = 1
(
1

2
)T = n (
1

2
)T = 2k n, k Z
(
1

2
)T = 2k
f
1
f
2
=
k
T
,
por lo tanto el mnimo se logra con k = 1, dando un espaciado mnimo de f
1
f
2
=
1
T
, que
corresponde a la tasa de smbolos.
Para el caso de FSK coherente, se tendr a algun conocimiento sobre la fase de la se nal
utilizando, por ejemplo, un lazo PLL. Dado dicho conocimiento, la etapa de correlacion se hara
con la se nal de referencia de fase conocida, lo que permite jar = 0 sin perdida de generalidad.
Reemplazando esto en la Ecuaci on (4.36), la igualdad a cero se traduce en sin(
1

2
)T = 0.
Entonces f
1
f
2
=
n
2T
, con n Z, por lo que el mnimo espaciado requerido est a determinado
por f
1
f
2
=
1
2T
. Por lo tanto, para la misma tasa de smbolos, la modulaci on FSK detectada en
forma coherente, puede ocupar menos ancho de banda que la detectada en forma no-coherente,
y aun asi mantener el requerimiento sobre la ortogonalidad de las se nales. Se puede decir, que
FSK coherente es mas eciente en ancho de banda que FSK no-coherente.
A modo de explicar este resultado en forma mas pr actica, considere un tono con frecuencia
f
i
que es encendido por un intervalo de tiempo de duracion T y luego es apagado. Luego esta
descrito por la relaci on
s
i
(t) = cos(
i
t) rect
_
t
T
_
,
en donde
rect
_
t
T
_
=
_
1 ,
T
2
t
T
2
0 , [ t [>
T
2
.
La transformada de Fourier de la se nal s
i
(t) sera entonces F [s
i
(t)] = Tsinc[(f f
i
)T]. Ahora
bien, si se gracaran dos tonos adyacentes de frecuencias f
1
y f
2
, como en la Fig. 4.8, entonces
la atenci on se centra en que ambos no se intereran entre s durante la deteccion. Esto se logra
si el valor peak del tono 1 coincide con uno de los puntos en que el espectro del tono 2 se hace
cero, y similarmente, que el peak del espectro del tono 2 coincida con una de las pasadas por
cero del espectro del tono 1. Entonces, la distancia que existe entre l obulo principal y el primer
cruce con cero, representa el espaciado mnimo requerido. Esto dice que la separaci on mnima
entre los tonos debe ser de
1
T
Hertz, tal como se obtuvo anteriormente.
Detecci on en Cuadratura de FSK
El metodo de detecci on de envolvente es una solucion bastante simple, pero el uso de ltros
usualmente resulta en mayores costos y peso que otras metodologas como el detector por
92
CAP

ITULO 4. MODULACIONES DIGITALES PASABANDA


Fig. 4.8: Espaciado mnimo entre tonos para detecci on no-coherente de FSK ortogonal
cuadratura, que en general pueden ser implementados digitalmente. El detector por cuadratura
para FSK no-coherente corresponde a una realizacion particular de la version utilizada en PSK
coherente, en donde la detecci on se realizaba mediante la comparacion directa con se nales
cosenoidales y senoidales. Considere que la se nal recibida es de la forma
r(t) = s
i
(t) + n(t) =
_
2E
T
cos(
i
t + ) + n(t) ,
en donde representa la fase desconocida y n(t) es un proceso AWGN. La comparaci on de
esta se nal recibida se realiza mediante 2M correlacionadores que utilizan se nales prototipo
en cuadratura. Por ejemplo, para el k-esimo par de correlacionadores las se nales prototipo
est an dadas por
_
2
T
cos
k
t para la componente en lnea, y
_
2
T
sin
k
t para la componente en
cuadratura. Entonces, la salida del k-esimo par se puede inferir del resultado anterior, y ser a
z
(I)
k
=
_
T
0
r(t)
_
2
T
cos
k
t dt =
_
T
0
_
_
2E
T
cos(
i
t + ) + n(t)
_
_
2
T
cos
k
t dt
=

E
2
T
__
T
0
cos(
i
t + ) cos
k
t dt +
_
T
0
n(t) cos
k
t dt
_
=
2

E
T
_
cos
_
T
0
cos
i
t cos
k
t dt sin
_
T
0
sin
i
t cos
k
t dt
_
+ n
(I)
k
=

E
_
sin(
i

k
)T
(
i

k
)T
cos
cos(
i

k
)T 1
(
i

k
)T
sin
_
+ n
(I)
k
,
para la componente en lnea, y
z
(Q)
k
=

E
_
cos(
i

k
)T 1
(
i

k
)T
cos +
sin(
i

k
)T
(
i

k
)T
sin
_
+ n
(Q)
k
,
para la componente en cuadratura. Los terminos n
(I)
k
y n
(Q)
k
denotan las componentes de ruido
Gaussiano en la salida del correlacionador. Es facil observar que cuando i = k, entonces los
93
CAP

ITULO 4. MODULACIONES DIGITALES PASABANDA


valores de las muestras en el detector son

E cos + n
(I)
k
y

E sin + n
(Q)
k
, mientras que
para i ,= k, las componentes practicamente desaparecen independiente del valor que tenga la
diferencia de fase . Esto ultimo se da por que la separaci on frecuencial entre muestras se elige
como m ultiplos de la tasa de bits, conforme a lo que se estudio anteriortemente. Entonces, para
el resto de los 2(M 1) correlacionadores, la salida ser a simplemente la componente de ruido
en fase y cuadratura.
En base a estos resultados, se incluye la etapa de decisi on posteror al banco de estos cor-
relacionadores, eligiendo evidentemente el par de correlacionadores con mayor salida.
4.6.2 Detecci on de PSK Diferencial
El nombre PSK diferencial en ocaciones necesita ser claricado pues se puede estar haciendo
referencia a dos aspectos diferentes en el proceso de modulacion/demodulaci on: el encoding
y la detecci on. El termino encoding difencial se reere al proceso por el cual el encoding se
realiza de forma tal, que la presencia de un uno o un cero se maniestra como una similitud
o diferencia de smbolos cuando se compara con el smbolo anterior. El termino deteccion
coherente diferenciada de una modulaci on PSK con encoding diferencial es el signicado com un
de DPSK.

Esta se reere a un esquema de detecci on clasicado como no-coherente pues no
requiere fase de referencia para la portadora del receptor. A pesar de ello, una se nal PSK con
encoding diferencial, tambien puede ser coherentemente detectada.
En sistemas no-coherentes, no se realiza ning un esfuerzo en estimar el valor actual de la fase
de la se nal entrante. Por lo tanto, si la forma de la se nal transmitida es
s
i
(t) =
_
2E
T
cos[
c
t +
i
(t)] ,
entonces la se nal recibida estara caracterizada por
r(t) =
_
2E
T
cos[
c
t +
i
(t) + ] + n(t),
i = 1, 2, . . . , M
0 t T
,
en donde es una constante arbitaria y tpicamente es asumida como una variable aleatoria
uniformemente distribuda entre cero y 2; en smbolos, U[0, 2]. El termino n(t) es un
proceso AWGN.
Si se asume que vara lentamente con respecto al tiempo de dos periodos, 2T, entonces la
diferencia de fase entre dos se nales de entrada consecutivas,
j
(T
1
) y
k
(T
2
) resulta ser indepen-
diente de , esto es:
[
k
(T
2
) + ] [
j
(T
1
) + ] =
k
(T
2
)
j
(T
1
) =
i
(T
2
) . (4.37)
La fase de la portadora del intervalo anterior, se puede usar como referencia de fase para
la demodulaci on. Su uso requiere un encoding diferencial de la secuencia del mensaje en el
transmisor, dado que la informacion es acarreada por diferencias de fases entre dos formas
de onda consecutivas. As, para enviar el i-esimo mensaje (i = 1, 2, . . . , M), la se nal actual
debe tener un incremento de
i
= 2i/M radianes por sobre la se nal previa. El detector, en
general, calcula las coordenadas de la se nal entrante correlacionandola con las se nales internas
94
CAP

ITULO 4. MODULACIONES DIGITALES PASABANDA


_
2/T cos
c
t y
_
2/T sin
c
t; luego mide el angulo entre el vector de la se nal actualmente
recibida y el vector de la se nal previa.
En general, DPSK presenta menos eciencia que PSK, pues los errores tienden a propagarse
entre tiempos de smbolos adyacentes dada la correlacion entre las formas de onda. Una forma
de ejemplicar esta diferencia, es que PSK compara con una se nal pura, en cambio en DPSK
dos se nales ruidosas son comparadas entre si. Se podra decir que existe el doble de ruido
aproximadamente en DPSK, por lo que a primera vista, la estimaci on de DPSK se maniesta
con una degradacion de aproximadamente 3dB en comparaci on con la modulaci on PSK. Esta
degradaci on aumenta drasticamente con el incremento del SNR. A pesar de esta perdida de
performance, se gana al tener un sistema con una complejidad menor.
PSK Diferencial Binaria
La escencia de la deteccion coherente diferencial en DPSK es que la identidad de los datos es
inferida desde cambios que existan en la fase entre smbolo y smbolo. Por lo mismo, dado que
los datos se detectan examinando la onda en forma diferencial, entonces primero la informaci on
debe ser codicada de en una forma tambien diferencial. En la Tabla 4.2 se ilustra el encoding
diferencial de un mensaje binario, m(k), siendo k la unidad de tiempo. El encoding diferencial
comienza (tercera la en la Tabla) con el primer bit del la secuencia, c(k = 0), elegido en forma
arbitraria (en este caso se consider o como un uno). As, la secuencia de bits codicados pueden,
en general, ser codicados de dos formas:
c(k) = c(k 1) m(k) , (4.38)
o,
c(k) = c(k 1) m(k) , (4.39)
en donde el smbolo representa la suma en m odulo 2 y la barra superior representa el com-
plemento. En la Tabla 4.2 el encoding diferencial se ha obtenido utilizando la Ecuaci on (4.39).
En palabras, el bit de codigo actual, c(k), es uno si el bit del mensaje, m(k), y el bit de codigo
anterior, c(k 1), son iguales, en otro caso, c(k) es cero. La cuarta la traduce el bit de la
secuencia en el corrimiento de fase requerido, (k), en donde un uno est a caracterizado por un
corrimiento de 180
o
y un cero por uno de 0
o
.
Tabla 4.2: Encoding Diferencial para modulaci on DPSK binaria

Indice de Muestreo, k 0 1 2 3 4 5 6 7 8 9 10
Mensaje de Informaci on, m(k) 1 1 0 1 0 1 1 0 0 1
Encoding Diferencial del mensaje, c(k) 1 1 1 0 0 1 1 1 0 1 1
Fase, (k) 0 0 0
En la Fig. 4.9 se muestra el diagrama en bloques de un demodulador DPSK binario. N otese
que el multiplicador-integrador similar al utilizado en la Fig. 4.3, es la escencia de este proceso
de detecci on; como en PSK coherente, aun se trata de correlacionar la se nal entrante con alguna
se nal de referencia. La diferencia interesante, es que aqu la se nal de referencia es simplemente
una version retardada de la se nal entrante en T unidades de tiempo, con T como la duraci on
95
CAP

ITULO 4. MODULACIONES DIGITALES PASABANDA


de cada smbolo. En otras palabras, durante cada duraci on de smbolo, estamos comparando
un smbolo recibido con el smbolo recibido anteriormente, para luego mirar la correlaci on o la
anticorrelaci on.
Fig. 4.9: Demodulador para DPSK utilizando deteccion coherente diferencial
Considere la se nal recibida con fase (k) en la entrada del detector de la Fig. 4.9 con la
ausencia de ruido. La fase (k = 1) es comparada con su valor anterior, (k = 0), y como ambas
tienen el mismo valor , entonces el primer bit detectado es m(k = 1) = 1. Luego se compara
(k = 2) con (k = 1) y como nuevamente tienen el mismo valor, entonces m(k = 2) = 1. Luego
se compara (k = 3) con (k = 2) pero ahora tienen valores diferentes, por lo que m(k = 3) = 0,
y as sucesivamente.
Conforme a la literatura, el esquema planteado no es optimo en terminos de performance de
error, ya que una versi on optima requiere la referencia de la portadora en frecuencia, pero no
necesarimente tiene que ser en fase con el carrier entrante. La Fig. 4.10 muestra el diagrama de
bloques que sasface dicho requerimiento. N otese que la funcion (t) corresponde a
_
2
T
cos
c
t.
Fig. 4.10: Demodulador

Optimo en terminos de performance del error para DPSK utilizando
detecci on coherente diferencial
4.7 Desempe no de Error en Sistemas Binarios
Una medida importante del performance de un sistema digital corresponde a la probabilidad de
error, ya que es utilizada en la comparacion de esquemas de modulaciones digitales. El c alculo
para obtener dicha probabilidad puede ser visto como un problema geometrico que envuelve
encontrar la probabilidad de que, dado un vector de una se nal particular transmitida, digamos
s
1
, el vector de ruido n, dara origen a una se nal recibida que cae fuera de la regi on de decisi on
correspondiente, en este caso, la regi on 1. As, la probabilidad de que el detector realice una
mala decisi on es conocida como la probabilidad de error de smbolo (probability of symbol error)
y se representa como P
E
.
96
CAP

ITULO 4. MODULACIONES DIGITALES PASABANDA


4.7.1 Probabilidad de Error de Bit para BPSK Coherente
Por conveniencia, en esta secci on se tratar a la detecci on coherente de modulaci on BPSK. Para
este caso, el error de smbolo es el error de bit. Asuma que las se nales son igualmente probables
y que la se nal s
i
(t), i = 1, 2 es transmitida. La se nal recibida ser a r(t) = s
i
(t) +n(t), en donde
n(t) es un proceso AWGN. Las se nales antipodales s
1
(t) y s
2
(t), pueden ser caracterizadas en
un espacio de se nal unidimensional conforme a lo descrito en la Ecuaci on (4.29), luego
s
1
(t) =

E (t) (4.40)
s
2
(t) =

E (t) (4.41)
en donde 0 t T. La etapa de decisi on del detector, escogera la se nal s
i
(t) que entregue la
mayor correlacion z
i
(T) a la salida del correlacionador, o en este caso simplemente se debera
implementar la regla de decisi on de la Ecuaci on (4.27). En esta etapa se pueden cometer dos
errores posibles. El primero coresponde a que se envi o la se nal s
1
(t) pero el ruido es tal, que
el detector mide valores negativos de z(T), eligiendo la hip otesis H
2
. La otra opci on, es que
ocurra lo contrario: se eliga H
1
a pesar de que se transmitio s
2
(t). As la probabilidad de error
estar a determinada por
P
B
= P[(H
2
, s
1
), (H
1
, s
2
)]
= P(H
2
, s
1
) + P(H
1
, s
2
)
= P(H
2
[s
1
)P(s
1
) + P(H
1
[s
2
)P(s
2
)
P
B
=
1
2
P(H
2
[s
1
) +
1
2
P(H
1
[s
2
) (4.42)
en donde se ha considerado que la transmisi on de las se nales es equiprobable.
Dada la naturaleza de las se nales recibidas (variables aleatorias Gaussianas con media nula y
varianza ja) y la simetra de sus funciones de densidad de probabilidad en la Fig. 4.4, entonces
se puede decir que:
P
B
= P(H
2
[s
1
) = P(H
1
[s
2
) .
As, la probabilidad de error de bit es numericamente igual al area bajo la cola de alguna de
las pdf, p(z[s
1
) o p(z[s
2
) que cae en el lado incorrecto del umbral ( area achurada en Fig. 4.4).
En otras palabras, el calculo de P
B
se hace integrando p(z[s
1
) entre los lmites y
0
o, como
se muestra aca, integrando p(z[s
2
) entre los lmites
0
y . Luego
P
B
=
_

0
p(z[s
2
) dz
en donde p(z[s
2
) tiene distribuci on Gaussiana con media a
i
, y el umbral optimo,
0
, est a dado
por (a
1
+ a
2
)/2 como se demostr o anteriormente.
Se puede demostrar que
P
B
=
_

(a
1
a
2
)/2
0
1

2
exp
_

u
2
2
_
du = Q
_
a
1
a
2
2
0
_
(4.43)
97
CAP

ITULO 4. MODULACIONES DIGITALES PASABANDA


en donde
0
es la desviaci on est andar del ruido fuera del correlacionador. La funci on Q(x) es
llamada funcion de error complementario o funcion de co-error, y se dene mediante:
Q(x) =
1

2
_

x
exp
_

u
2
2
_
du . (4.44)
Para se nales antipodales de igual energa, como el caso de BPSK, las salidas del receptor
son a
1
=

E
b
cuando s
1
(t) fue enviada y a
2
=

E
b
cuando se envio s
2
(t), en donde E
b
es
la energa de la se nal por smbolo binario. Para AWGN, la varianza se puede reemplazar por
N
0
/2 como se demostr o anteriormente. Entonces, se puede obtener que
P
B
= Q
_
_
2E
b
N
0
_
. (4.45)
Ejemplo 4.5 - Probabilidad de Error de Bit para BPSK.
Encuentre la probabilidad de error para un sistema BPSK con un bit rate de 1Mbit/s. Las
formas de onda recibidas tienen una amplitud de 10mV y se detectan de forma coherente.
Asuma que la PSD del ruido es 10
11
W/Hz y tanto la potencia de las se nales como la energa
por bit est an normalizadas a una carga de 1.
Sol. Dado que la tasa de bits es 1Mbit/s, el tiempo de duraci on por smbolo est a determinado
por T = 1/R = 1s. La amplitud de la se nal esta determinada por
_
2E
b
T
= 10
2
, por lo que se
obtiene que E
b
= 5 10
11
J. Ahora, P
B
= Q
__
2E
b
N
0
_
= Q(

10) = 8 10
4
.
Ejemplo 4.6 - Probabilidad de Error BPSK.
Encuentre el n umero de bits erroneos en un da para un receptor BPSK coherente con las
siguientes caractersticas: Tasa de bits: 5000 bits por segundo, formas de onda de entrada
s
1
(t) = Acos
0
t y s
2
(t) = Acos
0
t, con A = 1mV . La densidad espectral de potencia del
ruido es N
0
= 10
11
W/Hz. Asuma que la potencia de las se nales como la energa por bit est an
normalizadas a una carga de 1.
Sol. La energa por bit es E
b
= P T =
A
2
2
T, luego P
B
= Q
__
2E
b
N
0
_
= Q
_
A

N
0
R
_
=
Q(

20) 4.05 10
6
errores por bit. Ahora, el n umero totales de bits errados en un da es:
5000
bit
s
86400
s
dia
4.05 10
6
= 1750 bits erroneos en un da de transmision.
Ejemplo 4.7 - Probabilidad de Error BPSK.
Un sistema de detecci on coherente para BPSK de operacion continua, tiene errores a una tasa
media de 100 errores por da. Asumiendo una tasa de datos de 1000 bits por segundo y una
potencia de ruido de N
0
= 10
10
W/Hz, calcule la probabilidad de error de bit promedio.
Sol. El n umero total de bits por da que recibe el sistema esta dado po 1000
bit
s
86400
s
dia
=
8.64 10
7 bit
dia
. Entonces, la probabilidad de error por bit promedio estara determinada por
P
B
=
100
errores
dia
8.6410
7 bit
dia
= 1.1574 10
6
errores por bit.
98
CAP

ITULO 4. MODULACIONES DIGITALES PASABANDA


4.7.2 Probabilidad de Error de Bit para DPSK
La probabilidad de error de bit para PSK codicada en forma diferencial y detectada en forma
coherente est a determinada por
P
B
= 2Q
_
_
2E
b
N
0
__
1 Q
_
_
2E
b
N
0
__
, (4.46)
y dada lo complejo de la demostraci on
6
, escapa a los alcances de este curso por lo que solo se
dejar a planteada.
4.7.3 Probabilidad de Error de Bit para FSK Coherente
La Ecuacion (4.45) describe la probabilidad de error de bit para detecci on coherente de se nales
antipodales. Dicha ecuaci on fue directamente obtenida de la Ecuacion (4.43), que a su vez se
obtuvo en base a la consideracion del umbral optimo
0
. Para lograr minimizar la probabilidad
de error, que es lo que necesitara para optimizar una transmisi on, se requiere maximizar el
argumento de la funcion de co-error, Q(x). Para realizar esto, se necesita una forma mas
generalizada del argumento
a
1
a
2
2
0
. Resulta interesante notar que el valor (a
1
a
2
)
2
corresponde
a la energa de la diferencia de las se nales s
1
(t) y s
2
(t); en efecto, al considerar que s
1
(t) = a
1
(t)
y s
2
(t) = a
2
(t), entonces
E
d
=
_
T
0
[s
1
(t) s
2
(t)]
2
dt = (a
1
a
2
)
2
_
T
0

2
(t) dt = (a
1
a
2
)
2
.
Por lo tanto, el numerador del argumento original corresponde a la raiz de la energa E
d
.
Recordando que
2
0
es la varianza del ruido AWGN y que N
0
/2 es su densidad espectral de
potencia, entonces la razon del argumento de la funcion de coerror es simplemente
_
E
d
2N
0
.
Entonces, en terminos m as generales la Ecuacion (4.43) se puede expresar de la forma
P
B
= Q
_
_
E
d
2N
0
_
. (4.47)
Para generalizar a un mas este resultado y poder aplicarlo en se nales que no necesariamente
son antipodales, se trabaja directamente sobre la energa de la diferencia de se nales. Anteri-
ormente se dijo que era normal elegir un set de se nales con la misma energa, por lo que el
desarrollo de la energa diferencial es
E
d
=
_
T
0
[s
1
(t) s
2
(t)]
2
dt
=
_
T
0
s
2
1
(t) dt +
_
T
0
s
2
2
(t) dt 2
_
T
0
s
1
(t)s
2
(t) dt
= 2E
b
2
_
T
0
s
1
(t)s
2
(t) dt
= 2E
b
(1 ) ,
6
Disponible en: Lindsey and Simon, Telecommunication Systems Engineering, Prentice-Hall, Inc., Englewood
Clis, 1973
99
CAP

ITULO 4. MODULACIONES DIGITALES PASABANDA


en donde se ha considerado que E
s
1
= E
s
2
= E
b
, y el par amentro
=
1
E
b
_
T
0
s
1
(t)s
2
(t) dt (4.48)
es el coeciente de correlacion cruzada en el tiempo. Este coeciente de correlaci on, es una
medida de la similitud que existe entre las se nales binarias, por lo que 1 1. En terminos
de vectores de se nales, el coeciente de correlaci on cruzada puede ser expresado como = cos ,
siendo el angulo que existe entre los vectores s
1
y s
2
. Utilizando la expresi on generalizada
dada en la Ecuacion (4.47) y lo obtenido para la energa diferencial en la Ecuaci on (4.48) se
obtiene la forma generalizada del c alculo de la probabilidad de error de bit no limitada solo a
se nales antipodales. Esta ecuacion queda determinada entonces por
P
B
= Q
_
_
E
d
2N
0
_
= Q
_
_

(1 )E
b
N
0
_
_
. (4.49)
Para = 1 (equivalentemente = 0) las se nales son perfectamente correlacionadas (son
identicas). Para = 1 (equivalentemente = ) las se nales son anticorrelacionadas (antipo-
dales). Dado que las se nales de PSK binario son antipodales entonces se puede jar = 1,
y la Ecuaci on (4.49) se convierte en la Ecuaci on (4.45). Para se nales ortogonales como FSK
binaria (BFSK) = /2, pues los vectores s
1
y s
2
son perpendiculares entre s. As, = 0 y se
obtiene
P
B
= Q
_
_
E
b
N
0
_
. (4.50)
en donde la funcion de co-error est a denida por la Ecuaci on (4.44).
Como dato al margen, es interesante notar que para la modulaci on OOK, la probabilidad de
error de bit descrita por la Ecuacion (4.50), es identica al performance de error para detecci on
coherente de se nales OOK.
4.7.4 Probabilidad de Error de Bit para FSK No-Coherente
Considere el set de se nales equiprobables para FSK binaria, s
i
(t), que fueron previamente
denidas por la Ecuaci on (4.14). Al trabajar con FSK no coherente el termino de fase, , es
desconocido pero se asume constante. El detector estara caracterizado por M = 2 canales de
ltros pasabanda y detectores de envolvente, como se mostr o en la Fig. 4.7. La entrada del
detector corresponde a la se nal recibida, dada por la ecuaci on r(t) = s
i
(t) + n(t), como se ha
discutido hasta ahora, en donde el termino n(t) es un proceso AWGN con densidad espectral
de potencia N
0
/2. Asumiendo que las se nales est an lo sucientemente separadas en frecuencia
para que el traslape sea despreciable, se puede plantear la probabilidad de error de igual forma
como se comenz o para la modulaci on PSK:
P
B
=
1
2
P(H
2
[s
1
) +
1
2
P(H
1
[s
2
) =
1
2
_

0

p(z[s
1
) dz +
1
2
_
+

0
p(z[s
2
) dz
100
CAP

ITULO 4. MODULACIONES DIGITALES PASABANDA


Conforme a lo estudiado anteriormente, para FSK tambien se puede probar que el umbral
optimo de decision es
0
= 0. Esto implica que existe una simetra entre ambas pdfs y se
relacionan mediante p(z[s
1
) = p(z[s
2
), por lo tanto se puede escribir
P
B
=
_
+
0
p(z[s
2
) dz = P(z
1
> z
2
[s
2
) (4.51)
en donde z
1
y z
2
corresponden a las salidas de z
1
(T) y z
2
(T) de las detectores de envolvente de
la Fig. 4.7. Lo obtenido por la Ecuaci on (4.51) se traduce en decidir por la hip otesis H
1
, cuando
en realidad se ha transmitido la se nal s
2
(t), tal como se estudio recientemente.
Ahora bien, si se ha transmitido la se nal s
2
(t), entonces la salida del correlacionador 1,
z
1
(T) sera netamente una variable aleatoria de ruido Gaussiano, ya que no tendr a componente
de se nal. Cuando una variable aleatoria con distribucion Gaussiana se hace pasar a traves de un
detector de envolvente no lineal, se origina una variable aleatorioa que sigue una distribucion
de Rayleigh a la salida, dada por
p(z
1
[s
2
) =
_
z
1

2
0
exp
_

z
2
1
2
2
0
_
, z
1
0
0 , z
1
< 0
(4.52)
en donde
2
0
es el ruido a la salida del ltro. Por otra parte, dado que la entrada al detector de
envolvente 2 es una sinusoidal mas ruido, z
2
(T) tendra una distribucion Rician dada por
p(z
2
[s
2
) =
_
z
2

2
0
exp
_

z
2
1
+A
2
2
2
0
_
I
0
_
z
2
A

2
0
_
, z
2
0
0 , z
2
< 0
(4.53)
en donde A =
_
2E/T. La funci on I
0
(x) es conocida como la funcion de Besel modicada de
primera clase y orden cero, y est a denida por
I
0
(x) =
1

2
_
2
0
exp[x cos ] d . (4.54)
Realizando la integraci on de la Ecuaci on (4.51) en base a la denici on dada por las Ecua-
ciones (4.52) y (4.53), se obtiene que la probabilidad de error de bit para esta modulacion est a
determinada por
P
B
=
1
2
exp
_

A
2
4
2
0
_
(4.55)
Utilizando el hecho de que la varianza del ruido puede ser calculada mediante
2
0
= 2
N
0
2
W
f
, con
W
f
como el ancho de banda del ltro del demodulador de la Fig. 4.7, se obtiene
P
B
=
1
2
exp
_

A
2
4N
0
W
f
_
, (4.56)
en donde se puede notar que el performance de error depende del ancho de banda del ltro
pasabanda, teniendo una disminucion del error a medida que W
f
disminuye. Este resultado
es valido solo si no existe interferencia entre smbolos (o al menos es despreciable) como fue
101
CAP

ITULO 4. MODULACIONES DIGITALES PASABANDA


postulado al comienzo del desarrollo en la primera parte de esta seccion. Se puede demostrar que
dicha condici on se logra para un W
f
mnimo de R = 1/T bits por segundo. As la Ecuacion (4.56)
puede ser reescrita mediante
P
B
=
1
2
exp
_

A
2
T
4N
0
_
=
1
2
exp
_

1
2
E
b
N
0
_
. (4.57)
En la Fig. 4.11 se muestra una comparacion de las probabilidades de error de bit para
distintas tecnicas de modulaci on binaria. Notese que el factor E
b
/N
0
puede se expresado como
la raz on entre la potencia promedio de la se nal y la potencia promedio del ruido (SNR), por lo
que existe una relaci on directa dada por:
E
b
N
0
=
S T
N
0
=
S
R N
0
=
S W
R N
0
W
=
S
N
W
R
= SNR
W
R
en donde W es el ancho de banda de la se nal, S la potencia promedio de la se nal modulante, T
la duracion de cada smbolo, R = 1/T la tasa de bits y N = N
0
W.
Fig. 4.11: Probabilidad de Error de Bit para diferentres tipos de sistemas binarios
Tabla 4.3: Probabilidad de Error para modulaciones binarias estudiadas
Modulacion P
B
PSK Coherente Q
__
2E
b
N
0
_
DPSK No-Coherente
1
2
exp
_

E
b
N
0
_
FSK Coherente Q
__
E
b
N
0
_
FSK No-Coherente
1
2
exp
_

1
2
E
b
N
0
_
102
Captulo 5
Introducci on a la Codicaci on
5.1 Introducci on
En el presente captulo se presentan metodos para codicaci on, con el n ultimo de alcanzar
los lmites para el canal impuestos por Shanon que se estudiaron en el Captulo 2 del curso;
es decir, se quiere alcanzar la capacidad del canal. El problema es que lograr la capacidad del
canal es mucho mas dicil que dise nar buenos c odigos para la fuente.
La introducci on general de objetivo del captulo, se hara mediante un ejemplo particular,
para demostrar que la codicaci on logra mejorar la probabilidad de error en comunicaciones
digitales. Considere entonces un sistema de comunicaciones digital con potencia del transmisor
P y tasa de la fuente R. El sistema emplea una modulaci on PSK con M = 4 (QPSK), en el que
los pares de bits son mapeados en cualquiera de las cuatro se nales dadas por la constelacion de la
Fig. 5.1. La energa de cada se nal determina el radio de la circunferencia mediante

E. N otese
que por trabajar con QPSK, esta energa corresponde a la energa por cada dos bits, por lo que
el radio del crculo est a determinado por

2E
b
, en donde E
b
representa la energa por bit. Lo
interesante de expresarla de esta forma es que la energa por bit est a determinada por el producto
de la tasa de bits por segundo y la potencia del transmisor, en smbolos E
b
= PT = P/R.

1
(t)

2
(t)

2E
b
s
1
s
2
s
3
s
4
Fig. 5.1: Constelaci on de las se nales para QPSK
103
CAP

ITULO 5. INTRODUCCI

ON A LA CODIFICACI

ON
La distancia Euclidiana entre se nales adyacentes esta determinada por 2

E
b
, por ende la
mnima distancia cuadr atica para esta modulacion es
d
2
min
= 4E
b
= 4
P
R
. (5.1)
Considere que ahora que en vez de transmitir una se nal QPSK (que es bidimensional), se utilizan
3 se nales ortonormales para transmitir los mismos 2 bits. Por ejemplo se puede asumir que dicho
set est a dado por (t), (tT), y (t2T), en donde (t) es nula fuera del intervalo de tiempo
[0, T], y adem as que
_
T
0

2
(t) dt = 1. Al tener tres se nales ortonormales, las se nales se pueden
ubicar en una esfera de forma similar al crculo obtenido en el espacio bidimensional. As, el
cuadrado formado por QPSK puede reemplazarse por un cubo, en donde cada una de las se nales
se ubicara en alguno de los 8 vertices. Entonces, al utilizar esta nueva base, las cuatro se nales
originales quedan por ejemplo determinadas por
s
1
(t) =

E[+(t) + (t T) + (t 2T)]
s
2
(t) =

E[+(t) (t T) (t 2T)]
s
3
(t) =

E[(t) (t T) + (t 2T)]
s
4
(t) =

E[(t) + (t T) (t 2T)]
o equivalentemente, en notacion vectorial,
s
1
=

E(+1, +1, +1)


s
2
=

E(+1, 1, 1)
s
3
=

E(1, 1, +1)
s
4
=

E(1, +1, 1) ,
tal como lo muestra la Fig. 5.2. Ahora bien, la distancia Eucludiana entre esta nueva realizaci on
ser a, en todos los casos, la diagonal de las caras. Como estas se nales tienen una energa E,
entonces la distancia al origen de cada vertice sera

E, por lo que la distancia cuadratica entre


se nales ser a
d
2
i,j
= [[s
i
s
j
[[
2
= 8E, i ,= j .
Para este caso, la energa E se relaciona con la energa por bit, al considerar que cada se nal
transmite 2 bits y a su vez cada se nal se representa por la combinacion de 3 se nales base, luego
2E
b
= 3E; entonces E = 2E
b
/3 = (2/3)(P/R), lo que implica que
d
2
i,j
=
16
3
P
R
, i ,= j . (5.2)
Comparando las Ecuaciones (5.1) y (5.2), se puede observar que la distancia mnima se ha visto
aumentada por un factor de
d
2
i,j
d
2
QPSK
=
16
3
P
R
4
P
R
=
4
3
.
Dado que la probabilidad de error es una funci on decreciente de la distancia Euclidiana mnima,
se ha reducido la probabilidad de error al emplear este nuevo esquema. De hecho, se puede decir
104
CAP

ITULO 5. INTRODUCCI

ON A LA CODIFICACI

ON
(t)
(t T)
(t 2T)
s
1
s
2
s
3
s
4
Fig. 5.2: Codicacion en los vertices de un cubo para QPSK
que la disminuci on resultante en la probabilidad de error es equivalente a la obtenida por un
incremento de la potencia en un factor de
4
3
, lo que se traduce en 1.25dB de ganancia de
potencia. Evidentemente esta ganancia no se logro gratis, ya que ahora durante la duraci on
de dos smbolos, 2/R = 2T, se deben transmitir tres se nales, reduciendo el tiempo disponible
de cada se nal en un factor de
2
3
lo que se traduce en un aumento de
3
2
en el ancho de banda
requerido para la transmision. Un segundo problema que se obtiene con el esquema planteado,
es que tiene que ser mucho m as elaborado y el esquema de decodicacion resulta mas complejo.
Los resultados anteriores ejemplican lo que un c odigo busca lograr: disminur la probabili-
dad de error (lo que es equivalente a una SNR efectiva mayor) al costo de incrementar el ancho
de banda y la complejidad del sistema. Sin embargo, es importante mencionar que existen
esquemas de codicaci on-modulacion que incrementan la distancia Euclidiana entre los c odigos
de palabra sin el costo del ancho de banda. En palabras m as simples, para el ejercicio previo,
se realizo un mapeo de un espacio bidimensional (QPSK) a uno tridimensional, equivalente a:
(+1, +1) (+1, +1, +1)
(+1, 1) (+1, 1, 1)
(1, 1) (1, 1, +1)
(1, +1) (1, +1, 1)
en donde se puede observar que el rol de este mapeo es incluir un bit de paridad a los dos bits de
informaci on. Esta paridad es agregada contal de que el n umero de +1 en la palabra codicada
sea siempre impar (o equivalentemente, que el n umero de 1s sea un n umero par).
En forma mas general, un esquema de codicacion de forma de onda toma secuencias de
largo k = RT de la fuente y los mapea en secuencias de largo n de la forma
s
i
=

E (1, 1, . . . , 1)
. .
n
,
105
CAP

ITULO 5. INTRODUCCI

ON A LA CODIFICACI

ON
en donde cada uno de estos puntos se ubican en los vertices de un hipercubo de distancia 2

E.
La razon entre k y n,
R
c
=
k
n
,
es conocida como la tasa del c odigo (code rate). Dado que se mapea en un espacio n-dimensional,
existen 2
n
vertices posibles del hipercubo, de los cuales se deben elegir M = 2
k
vertices como
c odigos de palabra. Evidentemente se quieren elegir aquellos 2
k
vertices que se encuentran lo
m as lejanos posibles entre s, pues eso entrega una distancia Euclidiana grande, reduciendo as
la probabilidad de error. Para el caso anterior, se tena k = 2 y n = 3, y se eligen 2
k
= 4 puntos
de los 2
3
= 8 posibles vertices que posee el cubo tridimensional. La tasa de dicho c odigo es de
R
c
= 2/3.
Asuma que se han elegido 2
k
vertices del hipercubo como c odigos de palabra y que cada
palabra se encuentra al menos a una distancia de d
H
min
de las otras componentes. El par ametro
d
H
min
es llamada la distancia de Hamming mnima para el c odigo. La distancia Hamming entre
dos c odigos c
i
y c
j
es el n umero de componentes en las cuales ambos codigos dieren, es decir
cuando un c odigo es 1 y el otro es cero. La relaci on que existe entre la distancia Euclidiana y
la distancia Hamming se puede obtener mediante la relaci on
_
d
E
ij
_
2
= 4d
H
ij
E ,
lo que signica que las distancias mnimas se pueden relacionar mediante
_
d
E
min
_
2
= 4d
H
min
E.
Asumiendo que se transmiti o la se nal s
i
, se puede demostrar que la probabilidad de error
de codigo est a acotada por
P
M
i
MQ
_
_

4d
H
min
E
2N
0
_
_

M
2
exp
_
d
H
min
E
N
0
_
,
en donde se ha utilizado la cota propia de la funci on de coerror anteriormente denida. Notando
que el contenido de energa de cada palabra del c odigo es nE, y tiene que ser igual al producto
PT, entonces como E
b
= P/R se tiene
E =
PT
n
=
RT
n
E
b
=
k
n
E
b
= R
c
E
b
,
en donde R
c
es la tasa del c odigo. Entonces, como la cota no depende del valor de i, se tiene la
cota general dada por
P
M

M
2
exp
_
d
H
min
R
c
E
b
N
0
_
.
Ahora bien, de no haber utilizado codicacion es decir se habrian utilizado los k vertices del
hipercubo k-dimensional y no k vertices en un hipercubo n-dimensional se tendra la siguiente
probabilidad de error
P
M
M Q
_
_
2E
b
N
0
_

M
2
exp
_

E
b
N
0
_
.
106
CAP

ITULO 5. INTRODUCCI

ON A LA CODIFICACI

ON
Comparando estas dos cotas, se puede concluir que la ganancia en potencia obtenida con la
codicaci on es equivalente a
G = d
H
min
R
c
, (5.3)
que es conocida como ganancia asintotica del codigo, o, simplemente, ganancia del codigo. En
general, R
c
< 1 y d
H
min
1, por lo que la ganancia puede ser tanto menor como mayor a 1.
Resulta obvio que pueden haber muchos c odigos que generan buenas ganancias. La relacion que
dene la ganancia del c odigo enfatiza que dados n y k, el mejor c odigo ser a aquel que genere la
distancia Hamming mas alta.
Con respecto al requerimiento de ancho de banda de la se nal, se tiene que al no utilizar
codicaci on la duraci on de cada uno de los k smbolos es T = 1/R, sin embargo cuando existe
codicaci on en dicho tiempo se tienen que enviar n pulsos, por lo que se produce una reduccion
del tiempo por smbolo de k/n = R
c
. As, la raz on de expansi on del ancho de banda es dado
por
B =
W
c
W
nc
=
1
R
c
=
n
k
(5.4)
en donde W
c
y W
nc
representan los anchos de banda con y sin c odigo respectivamente.
Se puede demostrar que en un canal AWGN, existe una secuencia de c odigos con parametros
(n
i
, k
i
) con un tasa ja (R
c
= k
i
/n
i
, i) que satisface la relacion
R
c
<
1
2
log
_
1 +
P
N
0
W
_
, (5.5)
en donde el lado derecho de la ecuacion es la capacidad del canal en bits por transmision
conforme a la Ecuaci on (2.12). Para esta capacidad la probabilidad de error tiende a cero a
medida que n
i
se vuelve cada vez m as grande.
En este curso se estudian las formas b asicas de codicaci on, dividiendo el estudio en codigos
por bloques y convolucionales. En codicaci on por bloque (como el ejemplo estudiado) las
secuencias de informacion se dividen en bloques de largo k, y cada uno de estos bloques se
mapea en bloques de largo n. Este mapeo es independiente del bloque anterior, por lo que no
tienen memoria. En codigos convolucionales, se utiliza un registro de desplazamiento de largo
k
0
L, como se muestra en la Fig. 5.3. Los k
0
bits de informaci on entran en el registro por vez;
luego n
0
bits que son una combinacion lineal de varios registros se transmiten por el canal.
Estos n
0
bits no solo dependen de los k
0
bits recientes, sino tambien de los (L1)k
0
anteriores
en el registro que constituyen su estado. El n umero de estados en un codigo convolucional es
2
(L1)k
0
y su tasa se dene como R
c
= k
0
/n
0
. La principal diferencia que existe entre los codigos
por bloques y convolucionales es la existencia de memoria en estos ultimos.
Fig. 5.3: Codicador Convolucional
5.2 Codigos Lineales por Bloque
Un codigo de bloque (n, k) es una colecci on de M = 2
k
secuencias binarias, cada una de largo
n, llamadas palabras de codigos. Un c odigo C consta de M palabras c
i
, para 1 i 2
k
. En
107
CAP

ITULO 5. INTRODUCCI

ON A LA CODIFICACI

ON
smbolos,
C = c
1
, c
2
, . . . , c
M
,
en donde cada c
i
es una secuencia de largo n con componentes iguales a 0 o 1. La coleccion de
palabras se llama bloque del c odigo o, simplemente, codigo.
Se dice que un c odigo es lineal si la suma en modulo 2 de cualquiera de sus palabras, es
tambien una palabra. Es decir, si c
i
y c
j
son palabras del codigo, entonces c
i
c
j
tambien debe
ser una palabra del c odigo. Con esta denici on se puede notar que un c odigo lineal por bloque es
un subespacio k-dimensional de un espacio n-dimensional. Adem as, de esta denici on se deriva
que la palabra compuesta solo de ceros (que se denotar a por 0) es una palabra de cualquier
c odigo lineal, dado que se puede escribir c
i
c
i
para cualquier palabra c
i
. Si se considera que
la secuencia de informacion x
1
(de largo k) se mapea en la palabra de c odigo c
1
(de largo n),
y que la secuencia de informaci on x
2
se mapea en la palabra de c odigo c
2
, entonces x
1
x
2
se
mapear a en c
1
c
2
.
Ejemplo 5.1 - Codido Lineal.
Un codigo (5,2) es denido, por ejemplo mediante las siguientes palabras
C
1
= 00000, 10100, 01111, 11011 ,
en donde el mapeo de la informaci on se hace de la siguiente forma:
00 00000
01 01111
10 10100 (5.6)
11 11011 .
Es sencillo vericar el c odigo es lineal, sin embargo el c odigo dado por
C
2
= 00000, 11100, 01111, 11011 ,
no lo es pues la suma de la segunda y tercera palabra no es una palabra del codigo.
Se entendera por distancia Hamming entre dos palabras del c odigo c
i
y c
j
, como el n umero
de componentes a las cuales 2 palabras de c odigo dieren, es decir el n umero de componentes
en donde una de las palabras es 1 y la otra es 0. La distancia Hamming sera denotada por
d(c
i
, c
j
), a diferencia de la distancia Euclidiana en donde se har a la diferencia con el superndice
E
, llamandola d
E
. La distancia mnima de un codigo, corresponde a la mnima distancia de
Hamming entre dos palabras diferentes, es decir
d
min
= min
c
i
, c
j
i = j
d(c
i
, c
j
) . (5.7)
El peso de Hamming o, simplemente, el peso de una palabra c
i
, corresponde al n umero
de unos en la palabra, y se denota por w(c
i
). Adem as se hablar a del peso mnimo de un codigo
108
CAP

ITULO 5. INTRODUCCI

ON A LA CODIFICACI

ON
como el valor mnimo de todos los pesos, sin incluir la palabra compuesta solo de ceros, 0.
w
min
= min
c
i
=0
w(c
i
) (5.8)
Asuma un c odigo lineal en donde c es una palabra de dicho codigo; luego no es dicil
notar que la relaci on w(c) = d(c, 0) es v alida para cualquier palabra. Adem as si c
i
y c
j
son
palabras del mismo c odigo lineal y c = c
i
c
j
entonces d(c
i
, c
j
) = w(c). Esto implica que
en cualquier c odigo lineal, correspondientemente a cualquier peso de una palabra, existe una
distancia Hamming entre dos palabras, y, correspondientemente a cualquier distancia Hamming,
existe un peso de una palabra. En particular, esto demuestra que en cualquier c odigo lineal,
d
min
= w
min
.
5.2.1 Matrices de Generaci on y Paridad
En un codigo lineal de (n, k) considere las secuencias de informacion e
1
= (1000 0), e
2
=
(0100 0), e
3
= (0030 0), . . . , e
k
= (0000 1) que se mapean en las palabras g
1
, g
2
, g
3
,
. . . , g
k
, respectivamente, en donde cada g
i
es una secuencia binaria de largo n. Ahora, cualquier
secuencia de informacion x = (x
1
, x
2
, x
3
, . . . , x
k
) puede ser escrito de la forma
x =
k

i=1
x
i
e
i
, (5.9)
por lo que cada una de las palabras del c odigo en forma correspondiente seran
c =
k

i=1
x
i
g
i
. (5.10)
Si se dene la Matriz de Generaci on para el c odigo como
G

=
_

_
g
1
g
2
g
3
.
.
.
g
k
_

_
=
_

_
g
11
g
12
g
13
g
1n
g
21
g
22
g
23
g
2n
g
31
g
32
g
33
g
3n
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
g
k1
g
k2
g
k3
g
kn
_

_
(5.11)
entonces, de la Ecuaci on (5.10), se puede escribir
c = xG (5.12)
en donde x es vector la de k componentes, y G es la matriz de generacion, con dimensiones
kn. Esto demuestra que cualquier combinaci on linear de las las en la matriz de generaci on es
una palabra del codigo. Notese que el rango de la matriz de generacion es k ya que por denicion,
k es la dimensi on del subespacio. Dado que la matriz de generaci on describe completamente un
c odigo, entonces al conocerla, la estructura del encoder es realmente sencilla.
109
CAP

ITULO 5. INTRODUCCI

ON A LA CODIFICACI

ON
Ejemplo 5.2 - Codigo Lineal y Matriz de Generaci on.
Determinar la matriz de generaci on para el c odigo C = 00000, 10100, 01111, 11011 y determine
la secuencia de generaci on de las palabras.
Sol. Primero, es necesario determinar la linealidad del c odigo. Para esto, se realiza la suma
componente a componente. Entonces, como c
1
c
i
= c
i
, i y c
i
c
i
= 0 = c
1
, solo resta evaluar
los siguientes elementos: c
2
c
3
= 11011 = c
4
, c
2
c
4
= 01111 = c
3
, y c
3
c
4
= 10100 = c
2
, por
lo que el c odigo es lineal. Dado el mapeo del codigo de la Ecuaci on (5.6), se tiene que los valores
de g
1
y g
2
est an dados por los c odigos de 10 y 01, vale decir 10100 y 01111 respectivamente.
As la matriz de generacion esta determinada por G =
_
10100
01111
_
. Para las secuencias de
informaci on (x
1
, x
2
), las palabras del c odigo estan dadas por la relaci on c = xG, que para este
ejemplo sera (c
1
, c
2
, c
3
, c
4
, c
5
) = (x
1
, x
2
)G = [x
1
, x
2
, x
1
x
2
, x
2
, x
2
]
T
, lo que implica que c
1
= x
1
,
c
2
= x
2
, c
3
= x
1
x
2
, c
4
= c
5
= x
2
.
El c odigo utilizado en el Ejemplo 5.2, posee la propiedad que la palabra correspondiente a
cada secuencia de informacion comienza con una replica de dicha secuencia seguida por bits
extras.

Este tipo de c odigos son llamados codigos sistematicos y los bits extras se les llama bits
de chequeo de paridad. Una condicion necesaria y suciente para que un c odigo sea sistem atico
es que la matriz de generacion sea de la forma
G = [I
k
[ P]
en donde I
k
es la matriz identidad de dimension k k y P es una matriz binaria de k (nk).
En un c odigo sistematico, se tiene
c
i
=
_
x
i
, 1 i k

k
j=1
p
ji
x
j
, k + 1 i n .
Por denici on un c odigo lineal C es un subespacio de dimensi on k de un espacio de di-
mensi on n. Del algebra lineal, se sabe que al tomar todas las secuencias de largo n que son
ortogonales a todos los vectores del subespacio k-dimensional, el resultado ser a un subespacio
lineal de dimensi on (n k) y que recibira el nombre de complemento ortogonal del subespacio
de dimension k. Este nuevo subespacio (n k)-dimensional dene un nuevo codigo lineal de
(n, n k) que recibe el nombre de codigo dual del codigo (n, k) original y se denota por C

.
Resulta evidente que las palabras del codigo original C y las del codigo dual C

son ortogonales
entre si. En particular, si se denota por H a la matriz de generacion del c odigo dual, esta tendra
una dimensi on (n k) n, y cualquier palabra del c odigo original ser a ortogonal con todas las
las de H, es decir
cH
T
= 0, c C . (5.13)
La matriz H que es la matriz generadore del c odigo dual C

, es llamada matriz de chequeo


de paridad del c odigo original C. Dado que todas las las de una matriz de generacion son
palabras del c odigo, se tiene que
GH
T
= 0 . (5.14)
110
CAP

ITULO 5. INTRODUCCI

ON A LA CODIFICACI

ON
En el caso especial de c odigos sistematicos, se puede demostrar que
H = [P
T
[ I
nk
] . (5.15)
Ejemplo 5.3 - Matriz de Paridad.
Encuentre la matriz de paridad del c odigo utilizado en el Ejemplo 5.2.
Sol. Dado que G =
_
10100
01111
_
, se puede hacer la descomposicion en I
k
=
_
10
01
_
y P =
_
100
111
_
. Entonces, al tomar la traspuesta P
T
=
_
_
11
01
01
_
_
, se puede obtener H =
_
_
11100
01010
01001
_
_
.
Ejemplo 5.4 - Ecuaciones de Paridad.
Encuentre las ecuaciones de paridad para el Ejemplo 5.3.
Sol. Las ecuaciones se obtienen de la Ecuaci on (5.13), cH
T
= 0, luego se obtiene
c
1
c
2
c
3
= 0
c
2
c
4
= 0
c
2
c
5
= 0 .
5.3 Codigos Convolucionales
111
Libros de Referencia.
La informaci on contenida en el presente texto, ha sido extrada de variados textos escritos
que posee en DIE, el Laboratorio de Transmision y simplemente yo. Toda la informacion aca
expresada tiene caracter netamente educacional y no pretende ser en ninguna forma un atentado
contra los derechos de copia ni de autor de cada uno de los libros que aca se citan. El contenido
grueso de esta obra es de autora de:
Fundamentals of Communication Systems, John Proakis, Masoud Salehi. c _2005,
Pearson Education, Inc.
Introducci on a los Sistemas de Comunicaciones, F. G. Stremler. c _ 1993, Addi-
son Wesley Iberoamericana, S.A.
Digital Communications - Fundamentals and Applications, Bernard Sklar.
c _ 1998, Pretince-Hall Inc.
Elements of Information Theory, Thomas Cover, Joy Thomas. c _ 1999, John
Wiley & Sons, Inc.
Elementary Statistics, Paul Hoel. c _ 1976, John Wiley & Sons, Inc.
112

You might also like