You are on page 1of 12

61

I. REPRESENTACION ESPECTRO-TEMPORAL DE SEÑALES

A⎡ t ⎤ t A t A t t
x(t ) = ⎢⎣1 + cos( 2 π ) ⎥⎦Π( ) = Π( ) + Π( ) cos( 2 π )
2 τ τ 2 τ 2 τ τ
A t Aτ f
pero Π( ) ⇔ sinc( ) , y del teorema de la modulación,
2 τ 2 1/ τ
Aτ Aτ ⎡ f + 1/ τ f − 1/ τ ⎤
X( f ) = sinc(τf ) + ⎢⎣ sinc( ) + sinc( )⎥
2 2 1/ τ 1/ τ ⎦
Aτ sen(πτf ) Aτ ⎡ sen(πτf + π) sen(πτf − π) ⎤
X (f ) = + +
2 πτf 4 ⎢⎣ πτf + π πτf − π ⎥⎦
Aτ sinc( τf )
Desarrollando y simplificando se obtiene finalmente X( f ) =
2 1− τ 2 f 2
X(f) se muestra en la Fig. 1.41(b).
De (1.117), el ancho de banda B del impulso en coseno elevado es
x (0) A 1
B≥ = =
2 X(0) 2 Aτ / 2 τ

El impulso en coseno elevado es de gran aplicación en la transmisión de impulsos en banda


de base, como veremos en el Capítulo V. En el Capítulo V se tratará este mismo ejercicio, pero
aplicado a un sistema (Filtros de Nyquist).

1.11. FUNCIONES DE CORRELACION
1.11.1. Introducción
En muchas aplicaciones en ingeniería no es suficiente decir que dos señales son similares;
en general uno desea saber cuán similares son esas señales. Es deseable entonces disponer de una
cifra o un conjunto de cifras que nos permitan comparar y cuantificar el grado de similaridad o
semejanza entre diferentes clases de señales, y esto se puede lograr mediante las llamadas
“Funciones de Correlación”.
Las funciones de correlación, surgidas de la teoría moderna de la información, son muy
útiles en el análisis de señales reales tanto determinísticas como aleatorias. Por ejemplo, si un
proceso físico produce diferentes señales del tiempo, una descripción completa de ellas se puede
obtener mediante un análisis correlativo. Esta forma de análisis es muy importante en dos grandes
áreas de aplicación: (1) en la “Autocorrelación”, la cual se puede utilizar para detectar una señal
repetitiva inmersa en ruido, o para medir una banda particular de frecuencias de una señal; y (2) en
la “Intercorrelación”, que se utiliza para comparar dos señales (que pueden estar perturbadas por
ruido) a fin de determinar algún tipo o grado de similaridad entre ellas.
62
I. REPRESENTACION ESPECTRO-TEMPORAL DE SEÑALES

1.11.2. Autocorrelación
Consideremos el conjunto de señales mostrado en la Fig. 1.42. Vamos a investigar el grado
de similaridad que hay entre ellas.

x 1 (t ) a1 a2
t

x 2 (t ) b1 b2
t

x 3 (t ) c1
t

x 4 (t ) τ1
t
d1
Fig. 1.42.

Un buen método para medir la similaridad entre dos señales es multiplicarlas entre sí,
ordenada por ordenada, y luego sumar los productos durante la duración de las señales. Por
ejemplo, para estimar la similaridad entre las señales x 1 ( t ) y x 2 (t ) , Fig. 1.42, se multiplican las
ordenadas a1 por b1 , a2 por b2 y así sucesivamente, y luego se suman estos productos a fin de
obtener una cifra que es una medida de la similaridad entre x 1 ( t ) y x 2 (t ) . En la Fig. 1.42,
x 1 ( t ) y x 2 (t ) son idénticas, de manera que cada producto contribuye con un término positivo a la
sumatoria y la suma será grande. Pero si efectuamos el mismo proceso entre las señales
x 1 ( t ) y x 3 ( t ) , vemos que habrá productos positivos y negativos que tenderán a cancelarse y el
valor de la sumatoria será menor puesto que las señales no son idénticas. El valor de la sumatoria es
entonces una medida o estimación de la similaridad o semejanza entre dos señales.
Consideremos ahora las señales x 3 (t ) y x 4 ( t ) . Ellas son idénticas en forma pero x 4 (t )
está desplazada en un tiempo τ1 respecto a x3(t). Si se efectúa el proceso de multiplicación de
ordenadas (de las cuales c 1 y d 1 son un ejemplo) vemos de nuevo que productos positivos tienden
a ser cancelados por productos negativos y la suma será pequeña. Si se tuviera que estimar la
similaridad entre una señal x(t) y una versión desplazada de ella x(t+τ), puede esperarse que la
sumatoria resultante tenga valores cada vez más pequeños para valores crecientes del despla-
zamiento τ. El valor máximo de la similaridad se tendrá cuando τ = 0, es decir, cuando las
señales están superpuestas. Este es, en esencia, el proceso denominado “autocorrelación”. El
proceso de autocorrelación proporciona una medida de la similitud, semejanza o coherencia entre
una señal dada y una réplica de ella desplazada en un tiempo τ variable.
La función de autocorrelación es utilizada ampliamente en la detección y reconocimiento de
señales que están inmersas en ruido. Un estudio más avanzado de las funciones de correlación está
fuera de los objetivos del presente texto.
63
I. REPRESENTACION ESPECTRO-TEMPORAL DE SEÑALES

Definición
En términos más formales, la “Función de Autocorrelación” de una señal real x(t) de
potencia se define en la forma
T/ 2


1
R x ( τ) = lim x( t ) x( t + τ )dt =< x( t ) x( t + τ) > (1.119)
T→∞ T −T/ 2

Si x(t) es periódica de período T,


T/ 2


1
R x ( τ) = x( t ) x( t + τ) dt (1.120)
T −T/ 2

En general, si x(t) es compleja,


R x ( τ ) =< x ( t )x ∗ (t + τ ) >=< x ∗ ( t )x (t + τ ) > (1.121)
En estas definiciones, la variable τ juega el papel de un parámetro de exploración o
búsqueda.
La función de autocorrelación se puede definir también para señales de energía, en cuyo
caso, para x(t) real,

∫ ∫
∞ ∞
R x (τ ) = x (t ) x ( t + τ ) dt = x ( t − τ ) x ( t )dt (1.122)
−∞ −∞

Esta integral se conoce con el nombre de “Integral de Correlación de x(t)”.


En la Fig. 1.43 se muestra la función de autocorrelación de tres señales de potencia
diferentes.

R x (τ ) R x (τ )
R x (τ )

τ τ τ
0 (a) 0 0
(b) (c)
Fig. 1.43.

La Fig. 1.43(a) representa la función de autocorrelación típica de una señal. La forma


mostrada en (b) representa una señal que no tiene ninguna relación entre dos puntos infinitamente
cercanos, característica ésta propia de las señales aleatorias como, por ejemplo, el ruido blanco que
estudiaremos en el Capítulo II. En (c) se muestra la función de autocorrelación de una señal
constante en el tiempo; esta correlación no tiene sentido físico.
Un examen más atento del proceso de correlación nos muestra que la función de
autocorrelación R x ( τ ) es una medida de la rapidez de variación de una señal x(t). En efecto, la
función de autocorrelación está comprimida en el dominio de τ si x(t) tiene componentes de alta
frecuencia, y extendida en el dominio de τ si x(t) contiene solamente componentes de baja
frecuencia. Esto nos induce a pensar que si la función de autocorrelación posee una transformada de
Fourier, esta transformada estará relacionada en alguna medida con el contenido espectral de x(t).
64
I. REPRESENTACION ESPECTRO-TEMPORAL DE SEÑALES

Demostraremos más adelante que esa relación no está basada en la transformada de Fourier de x(t)
pues x(t) no posee una, sino en la densidad espectral de potencia S x ( f ) de x(t).
En el Capítulo III, se calculan algunas funciones de autocorrelación que se utilizan en la
caracterización de algunas de las señales digitales que veremos en el Capítulo V.
Propiedades de la Función de Autocorrelación
1. La potencia promedio de x(t) es igual a R x (0) . En efecto, para τ = 0,
1

T/ 2
R x ( 0) = lim x 2 ( t ) dt =< x 2 ( t ) > (1.123)
T →∞ T − T/ 2

El valor de la función de autocorrelación en el origen es igual a la potencia promedio de


la señal x(t).
2. La función de autocorrelación es una función par de τ. En efecto,
R x ( τ ) =< x ( t )x (t + τ ) > para 0< τ y R x ( τ ) =< x ( t − τ ) x ( t ) > para τ < 0
Como es indiferente que los desplazamientos sean en el sentido positivo o negativo de t,
se sigue que
R x (τ ) = R x (− τ ) (1.124)
3. La función de autocorrelación es máxima en el origen. Esto se sigue a partir de la
desigualdad [válida para x(t) real],

0 ≤ [ x ( t ) ± x(t + τ )] = x 2 (t ) ± 2x(t)x(t + τ ) + x 2 ( t + τ ) ,
2
de donde

± 2x(t)x(t + τ ) ≤ x 2 ( t ) + x 2 (t + τ )
Integrando ambos miembros en un intervalo (-T/2, T/2), dividiendo por T y tomando el
límite T→ ∞,
1
∫ 1⎡
∫ ∫ ⎤
T/ 2 T/ 2 T/ 2
± lim 2 x (t ) x ( t + τ ) dt ≤ lim ⎢ x 2 ( t ) dt + x 2 ( t + τ ) dt ⎥
T →∞ T − T/ 2 T →∞ T ⎣ − T/ 2 − T/ 2 ⎦
± 2R x ( τ ) ≤ 2 R x ( 0), de donde
R x ( 0) ≥ R x (τ ) (1.125)
4. Si x(t) es periódica de período T, entonces R x ( τ ) será también periódica con el mismo
período. En efecto, si x(t) es periódica de período T, entonces
x ( t ) = x ( t + T) = x (t + nT) donde n es un entero ≥ 1
R x ( τ ) =< x ( t )x (t + τ ) >=< x ( t + T )x (t + T + τ ) >=< x ( t + nT )x (t + nT + τ ) > , de donde
R x ( τ ) = R x ( τ + T) = R x (τ + nT) (1.126)
5. Si el valor promedio (componente continua) de x(t) es distinto de cero, entonces R x ( τ )
poseerá una componente continua de valor igual al cuadrado del valor promedio de x(t).
En efecto, si < x (t ) >≠ 0, entonces se puede escribir x(t) en la forma
x ( t ) = b o + x o ( t ) , donde b o =< x (t ) > es la componente continua de x(t), y
< x o ( t ) >= 0. La función de autocorrelación de x(t) será
65
I. REPRESENTACION ESPECTRO-TEMPORAL DE SEÑALES

R x ( τ ) =< [ b o + x o ( t )][ b o + x o ( t + τ )] >


R x ( τ ) =< b o2 + b o x o (t + τ ) + b o x o ( t ) + x o ( t ) x o (t + τ ) >

R x (τ ) =< b 2o > + b o < x o (t ) > + b o < x o (t + τ ) > + < x o ( t )x o ( t + τ ) >

pero < b 2o >= b 2o ; < x o (t ) >=< x o ( t + τ ) >= 0; R xo ( τ ) =< x o ( t ) x o (t + τ ) > , entonces

R x (τ ) = b 2o + R xo (τ ) cuando < x ( t ) >= b o (1.127)


Esta expresión nos permite investigar el comportamiento de R x (τ ) cuando |τ|→ ∞.
En efecto, si < x ( t ) >= 0, entonces
lim R x ( τ ) = 0 cuando < x ( t ) >= 0 (1.128)
|τ |→∞

Esto es así porque cuando | τ | → ∞ , las señales x ( t ) y x(t + τ ) son tan disímiles que
ellas pierden toda relación y ya no hay correlación entre ellas, es decir,
R x ( τ ) → 0 cuando | τ | → ∞ .
Si < x ( t ) >= b o ≠ 0, entonces cuando | τ | → ∞, y de la expresión (1.127),

lim R x ( τ ) = lim [ b 2o + R xo ( τ )] = b 2o + lim R xo ( τ )


|τ |→∞ |τ |→∞ |τ |→∞

pero, de (1.128), lim R xo ( τ ) = 0 , de donde


|τ |→∞

lim R x ( τ ) = b o2 cuando < x(t) >= b o ≠ 0 (1.129)


|τ |→∞

Las expresiones (1.128) y (1.129) son válidas siempre que x(t) no contenga
componentes periódicas. Si x(t) contiene componentes periódicas, entonces, de acuerdo
con la Propiedad 4, para altos valores de τ, aún cuando | τ | → ∞, R x (τ ) exhibirá un
comportamiento periódico.
6. Si R x ( τ ) =< x ( t )x (t + τ ) > y R x (τ ) =< x ( t ) x ( t + τ ) > , se puede demostrar (Ver
Problema de Aplicación 2.27) que
R x (τ ) = R x (τ ) y R z ( τ ) = 2[ R x ( τ ) + jR x ( τ )] (1.130)
donde R z ( τ ) es la función de autocorrelación de z( t ) = x( t ) + jx( t ), y R x ( τ ) es la
transformada de Hilbert de R x ( τ ) .
Obsérvese que si z(t) es la señal analítica de x(t), entonces R z ( τ ) / 2 es la señal
analítica de R x ( τ ) . Por lo tanto, la transformada de Fourier de R z ( τ ) (que
demostraremos más adelante que es su densidad espectral de potencia) deberá tener un
espectro idénticamente nulo para f < 0.
Todas estas propiedades se aplican tanto a señales determinísticas como aleatorias.
66
I. REPRESENTACION ESPECTRO-TEMPORAL DE SEÑALES

♣ Ejemplo 1.31. Autocorrelación de una Señal Sinusoidal


Sea x( t ) = A cos(ω c t + φ ) , donde φ es un desfase constante.
A2

T/2
R x (τ ) = {cos(ωc t + φ ) ⋅ cos[ωc ( t + τ ) + φ]}dt
T −T/ 2

A2
∫ { cos[2(ωc t + φ ) + ω c τ ] + cos(ω c τ )}dt
T/ 2
R x (τ ) =
2T − T/ 2

A2
∫ A2

T/ 2 T/ 2
R x (τ ) = cos(ω c τ ) dt + cos[2 (ω c t +φ ) + ω c τ ]dt
2T − T/ 2 2T − T/ 2

pero la segunda integral es cero debido a la periodicidad del integrando. Entonces,


A2 A2
R x (τ ) = cos(ω c τ ) = cos(2πf c τ)
2 2
El resultado sería el mismo para x ( t ) = A sen(ω c t + φ ) . Nótese que la información de fase
se pierde en la función de autocorrelación.

♣ Ejemplo 1.32. Función de Autocorrelación de una Señal Periódica Rectangular
Vamos a determinar la función de autocorrelación de la señal periódica de la Fig. 1.44(a).
Sea R x ( τ ) = R x − (τ ) para τ<0 y R x (τ ) = R x + ( τ ) para 0≤τ
En consecuencia, R x ( τ ) = R x − ( τ ) + R x + (τ ) para todo τ .
De la Propiedad 2: R x ( τ ) = R x (− τ ), o también R x + ( τ ) = R x − (− τ )

x(t) R x (τ )
A
A2 / 2
ooo ooo oo ooo

t τ
-T -T/4 0 T/4 T -T -T/2 0 T/2 T
(a) Señal x(t) (b) Función de Autocorrelación de x(t)
Fig.1.44

Por consiguiente, R x (τ ) = R x− (τ ) + R x− (− τ ) .
Solamente se calcula R x− ( τ ) , y para 0 ≤ τ se hace τ → − τ en R x − (τ ) . Entonces,

∫ A2 A2 τ
T 1 τ T
para − < τ < 0, R x − (τ ) = A dt =
2
(τ + )= (1 + )
2 T − T/ 2 T 2 2 T/ 2
T A2 τ
para 0 ≤ τ < , R x + (τ ) = R x − (− τ ) = (1 − ).
2 2 T/ 2
Puesto que x(t) es periódica, combinando estos dos términos se obtiene la señal generatriz
R gx (τ ) de R x ( τ ). Entonces,
67
I. REPRESENTACION ESPECTRO-TEMPORAL DE SEÑALES

A2 ⎡ | τ| ⎤ A 2 τ
R gx (τ ) = ⎢⎣1 − ⎥⎦ = Λ( )
2 T/ 2 2 T/ 2
La función de autocorrelación de la señal periódica rectangular x(t) será también periódica:
∞ ∞
R x ( τ ) = R gx ( τ ) ∗ ∑δ(τ - nT) =
n=-∞
A2
2
∑Λ⎡⎢⎣ τT-/nT2 ⎤⎥⎦
n=-∞

la cual tendrá la forma mostrada en la Fig. 1.44(b).



1.11.3. Teorema de Wiener-Kintchine
Hemos visto que las señales de potencia se pueden caracterizar mediante la densidad
espectral de potencia y sería muy conveniente averiguar si hay alguna operación que utilizando las
funciones de correlación permita relacionarlas con la densidad espectral de potencia. En efecto, la
función de autocorrelación, además de ser una medida de la semejanza entre una señal x(t) y una
réplica de ella desplazada en un tiempo τ , verifica la relación (de la Propiedad 1)



R x ( 0) =< x 2 ( t ) >= S x ( f ) df
−∞

Esta expresión nos dice que la potencia promedio de una señal de potencia, igual a Rx (0),
es igual al área de su densidad espectral de potencia. Esto nos induce a pensar que entre la función
de autocorrelación y la densidad espectral existe una relación muy estrecha que vamos a tratar de
determinar. Consideremos entonces la densidad espectral de potencia de una señal de potencia, es
decir,
| X T ( f )|2
x ( t ) ⇒ S x (f ) = lim
T →∞ T
donde X T (f ) es el espectro de la señal truncada de x(t). Por transformada de Fourier inversa

{S x (f )} = ∫−∞ lim
1 ∞ | X T ( f )|2
exp( j2πτf ) df (1.131)
T →∞ T
En la expresión (1.131) se ha elegido una nueva variable τ pues la variable t está ya
implícita en la definición de X T ( f ) . Intercambiando el orden de las operaciones,

→∞ T ∫
{S x ( f )} = Tlim
1
1 X T ( f ) X ∗T ( f ) exp( j2πτf )df
−∞

Como x(t) es real, entonces,

∫ ∫
T/ 2 T/ 2
X T (f ) = x T ( t ' ) exp(− j2 πft ' )dt ' y X ∗T ( f ) = X T (− f ) = x T ( t ) exp( j2 πft )dt
−T/ 2 −T/ 2

Rearreglando,
⎧ ⎫
∫ x T (t )⎨ ∫ x T (t ' )⎢ ∫ exp[ j2 π (t − t '+ τ )f ]df ⎥dt '⎬dt
⎡ ⎤

{S x (f )} = Tlim
1 T/ 2 T/ 2
1
→∞ T − T / 2 ⎩ − T/ 2 ⎣ −∞ ⎦ ⎭
68
I. REPRESENTACION ESPECTRO-TEMPORAL DE SEÑALES

La integral dentro de los corchetes es, de (1.21d), igual a δ( t − t '+ τ ) , y de la propiedad de


muestreo del impulso unitario se obtiene finalmente
T/ 2

→∞ ∫
1 {S x ( f )} = Tlim x T ( t )x T ( t + τ )dt
− T/ 2

Como x T ( t ) = x ( t ) en el intervalo (-T/2, T/2), entonces


1 {S ( f )} = lim
x
1 T/ 2
T→∞ T − T / 2
∫x ( t )x (t + τ )dt =< x (t ) x ( t + τ ) >= R x ( τ ) , de donde

S x (f ) ⇔ R x (τ ) (1.132a)
Este resultado, de gran importancia en el análisis espectral de señales, se conoce con el
nombre de “Teorema de Wiener-Kintchine” o “Relaciones de Wiener-Kintchine”. Este teorema
establece que la función de autocorrelación y la densidad espectral de potencia forman un par de
transformadas de Fourier, es decir,

∫ ∫
∞ ∞
R x (τ ) = S x ( f ) exp( j2 πτf )df ⇔ S x ( f ) = R x (τ ) exp(− j2 πfτ ) dτ (1.132b)
−∞ −∞

La deducción rigurosa del Teorema de Wiener-Kintchine está fuera de los límites que nos
hemos impuesto.
Las relaciones de Wiener-Kintchine demuestran que la función de autocorrelación de una
señal contiene solamente aquellas componentes de frecuencia presentes en la señal misma, es decir,
la función de autocorrelación no depende de la forma de la señal en el dominio del tiempo (pues ha
perdido la información de fase) sino de su contenido espectral. Esta equivalencia tiempo ⇔
frecuencia es aplicable tanto a señales determinísticas como aleatorias.
Si las señales son de energía, se verifica que



x( t ) ⇔ X( f ); R x ( 0) = x 2 ( t ) dt = E x energía de x(t)
−∞

G x ( f ) =| X( f )|2 = X( f ) ⋅ X( − f ) ⇔ R x ( τ ) = x( t ) ∗ x(-t) (1.133)


El Teorema de Wiener-Kintchine proporciona un método práctico para la determinación de
la densidad espectral de potencia de una señal x(t) cualquiera. En efecto, primero se determina la
función de autocorrelación R x ( τ ) de x(t), y por transformación de Fourier de R x ( τ ) se obtiene
S x ( f ) , la densidad espectral de potencia de x(t). La mayoría de las señales en las comunicaciones y
en muchas otras áreas de la ingeniería eléctrica son señales de potencia cuyo contenido espectral
debe ser bien conocido, y la importancia práctica del Teorema de Wiener-Kintchine es que las
operaciones de cálculo se pueden efectuar en forma muy eficiente y rápida mediante cálculo
numérico en computadoras digitales, aplicando las técnicas del cálculo numérico de la transformada
de Fourier que se dan en el APENDICE A.
1.11.4. Teorema de la Modulación para Señales de Potencia
En la Sección 1.9.2 se demostró el Teorema de la Modulación para Señales de Potencia.
Este teorema lo podemos demostrar también utilizando el Teorema de Wiener-Kintchine.
Sea x(t) una señal pasabajo de potencia, de banda limitada B, y sea la señal modulada
x c ( t ) = x ( t ) A cos(ω c t ) con f c ≥ B , donde
69
I. REPRESENTACION ESPECTRO-TEMPORAL DE SEÑALES

x(t ) ⇒ S x (f ) ⇔ R x (τ ) y x c ( t ) ⇒ S xc (f ) ⇔ R xc (τ )

R xc ( τ ) =< x c ( t )x c ( t + τ ) >= A 2 < x (t ) cos(ω c t ) ⋅ x (t + τ ) cos[ω c ( t + τ )] >

A2
R xc ( τ ) = < x ( t ) x (t + τ )[ cos[ωc ( 2 t + τ )] + cos(ωc τ )] >
2
A2 A2
R xc (τ) = cos(ωc τ) < x ( t ) x ( t + τ) > + < x ( t ) x ( t + τ) cos[ωc (2 t + τ)] >
2 2
Debido a la periodicidad del segundo término, la integral correspondiente es cero, es decir,
< x ( t ) x ( t + τ ) cos[ω c ( 2 t + τ )] >= 0 , de donde

A2
R xc (τ) = R x (τ) cos(2πf c τ) (1.134a)
2
donde R x ( τ ) =< x( t ) x( t + τ ) > es la función de autocorrelación de x(t) y R x (τ) ⇔ S x (f ) .
Mediante el Teorema de Wiener-Kintchine, la transformada de Fourier de R xc ( τ ) es

A2
S xc ( f ) =
4
[ S x (f + f c ) + S x (f − f c )] (1.134b)

resultado ya obtenido anteriormente, expresión (1.112), y que es el Teorema de la Modulación para


Señales de Potencia.
1.11.5. Intercorrelación
La intercorrelación, llamada también “correlación cruzada” o “correlación mutua”, permite
la comparación entre dos señales diferentes pero coherentes. La función de intercorrelación
contiene información respecto a las frecuencias comunes a ambas señales y a la diferencia de fase
entre ellas.
La intercorrelación entre dos señales x(t) e y(t) se define en la forma
1

T/ 2
R xy (τ ) = lim x ( t )y (t + τ )dt =< x ( t )y (t + τ ) > (1.135)
T →∞ T −T/ 2

Puede observarse que si entre las señales x(t) e y(t) existe algún grado de semejanza,
entonces la función de intercorrelación existirá en un cierto rango de τ , proporcionando así una
medida cuantitativa del grado de similitud o coherencia entre ellas. Cuando las señales son tan
disímiles que aún para τ = 0 la intercorrelación es cero, se dice entonces que las señales son
ortogonales, es decir, si
1

T/ 2
R xy ( τ ) = lim x ( t )y (t + τ )dt = 0 para todo τ (1.136a)
T →∞ T − T/ 2

entonces x(t) e y(t) son ortogonales y no habrá ninguna correlación entre ellas. En general, como
vimos en la Sección 1.2.5, la condición de ortogonalidad total entre dos señales x(t) e y(t) se
expresa mediante la integral



x ( t )y (t ) dt = 0 (1.136b)
−∞
70
I. REPRESENTACION ESPECTRO-TEMPORAL DE SEÑALES

Si x(t) e y(t) son periódicas de período T, la función de intercorrelación será


1

T/ 2
R xy ( τ ) = x ( t )y (t + τ )dt (1.137)
T − T/ 2

Se puede demostrar que la función de intercorrelación resultante es también periódica de


períodoT.
En cuanto al dominio de la frecuencia, la “densidad interespectral de potencia” o “densidad
espectral mutua” o “densidad espectral cruzada” de dos señales, se define como la transformada de
Fourier de su función de intercorrelación, es decir,
S xy ( f ) ⇔ R xy ( τ ) (1.138)

La densidad interespectral de potencia suministra, en el dominio de la frecuencia, la misma


información acerca de las señales que la que suministra la función de intercorrelación.
Propiedades de la Función de Intercorrelación
A continuación damos, sin demostrarlas, algunas propiedades de la función de
intercorrelación.
1. La función de intercorrelación no es conmutativa, es decir,
R xy ( τ ) = R yx (− τ ) (1.139)

2. (a) R x ( 0) ⋅ R y ( 0) ≥| R xy ( τ )| (1.140)

(b)
1
2
[R x ( 0) + R y ( 0) ] ≥| R xy ( τ )| (1.141)

3. Si dos señales x(t) e y(t) no están correlacionadas y sus valores promedio son distintos
de cero, se cumple que su función de intercorrelación es igual al producto de sus valores
promedio, es decir,
Si < x (t ) >≠ 0 y < y(t) > ≠ 0, entonces
R xy ( τ ) =< x ( t )y (t + τ ) >=< x ( t ) > ⋅ < y ( t ) > (1.142)

pero si < x ( t ) > ó < y(t) > o ambos son cero, entonces R xy ( τ ) = 0. Asimismo, si

x(t) e y(t) son ortogonales, entonces


R xy ( τ ) = 0 si x(t) y y(t) son ortogonales (1.143)

Nótese que si x(t) o y(t) no poseen una componente continua, entonces la ortogonalidad
implica no correlación. Sin embargo, en general, ortogonalidad implica no correlación,
pero no correlación no necesariamente implica ortogonalidad. La ortogonalidad es una
condición mucho más estricta que la no correlación, como puede apreciarse en la
expresión (1.136b).
4. Si x(t) e y(t) son periódicas de período T=1/fo , y sus funciones generatrices son
x g ( t ) ⇔ X g ( f ) e y g (t ) ⇔ Yg ( f ) , se verifica que

R xy (τ ) ⇔ S xy ( f ) = f o2 ∑X g ( nf o ) Yg ( nf o )δ ( f − nf o ) (1.144)
n=-∞
71
I. REPRESENTACION ESPECTRO-TEMPORAL DE SEÑALES

La intercorrelación es muy útil en la descripción del grado de conformidad entre dos señales
diferentes en función de su desplazamiento mutuo. Su habilidad para medir cuantitativamente el
grado de semejanza o coherencia entre dos señales, permite visualizar con más profundidad los
fenómenos investigados que si se analizara cada señal por separado.
1.11.6. Detección de una Señal Periódica en presencia de Ruido
En muchas ocasiones es necesario detectar periodicidades escondidas dentro de otras
señales, en especial señales contaminadas con ruido, como, por ejemplo, en la transmisión de
señales digitales, en la detección de señales de radar o de periodicidades en encefalogramas, en el
estudio de vibraciones y en muchas otras aplicaciones del Análisis Espectral de Señales. En estos
casos las técnicas de correlación tienen una gran importancia, pero aquí sólo trataremos la detección
de una componente periódica en presencia de ruido.
Sea una señal x(t) que contiene una componente periódica de período T más una señal
aleatoria (ruido) que enmascara completamente la componente periódica. La señal x(t) se puede
expresar en la forma
x(t ) = p (t ) + n(t )
donde p(t) es una componente periódica de período T y n(t) es una señal aleatoria. No hay
correlación entre p(t) y n(t), y suponemos que sus valores promedio son cero, es decir,
< p (t ) >=< n ( t ) >= 0. Entonces,
R x (τ ) =< x ( t )x ( t + τ ) >=< [ p ( t ) + n ( t )][ p ( t + τ ) + n ( t + τ )] >
R x ( τ ) = R p ( τ ) + R n ( τ ) + R pn (τ ) + R np (τ )

Pero de la Propiedad 3 de la función de intercorrelación,


R pn ( τ ) = R np (τ ) = 0 puesto que < p(t) >=< n(t) >= 0 . Entonces,
R x (τ ) = R p (τ ) + R n (τ )

Tomemos el límite | τ | → ∞ de esta expresión:


lim R x ( τ ) = lim R p (τ ) + lim R n ( τ )
|τ |→∞ |τ |→∞ |τ |→∞

Puesto que p(t) es periódica de período T, su función de autocorrelación también será


periódica de período T para todo τ , por lo tanto
lim R x ( τ) = R p ( τ + kT) + lim R n ( τ )
|τ|→∞ |τ|→∞

pero de (1.128), como < n( t ) >= 0, entonces lim R n ( τ ) = 0 . Finalmente,


|τ |→∞
lim R x ( τ ) = R p ( τ + kT) (1.145)
|τ|→∞

La importancia de esta expresión es que para valores altos de τ la función de


autocorrelación de la señal x(t) exhibe un comportamiento periódico del mismo período de p(t). En
general, si la función de autocorrelación de una señal x(t) cualquiera muestra un comportamiento
periódico de período T, es porque la señal x(t) contiene una componente periódica con el mismo
período.
72
I. REPRESENTACION ESPECTRO-TEMPORAL DE SEÑALES

En una forma alterna, se puede correlacionar mutuamente x(t) con un proceso periódico
q(t), generado localmente, del mismo período que p(t), la componente periódica de x(t). Se tiene
entonces,
R xq ( τ) =< x( t ) ⋅ q ( t + τ) >=< [p( t ) + n( t )] ⋅ q ( t + τ ) >=< p( t ) ⋅ q ( t + τ) > + < n( t ) ⋅ q( t + τ) >

Como n(t) y q(t) no están correlacionados y además < n( t ) >= 0 , entonces


< n( t ) q ( t + τ) >= 0 , de donde
R xq ( τ) =< p( t ) ⋅ q( t + τ) >= R pq ( τ)

Puesto que los procesos p(t) y q(t) tienen componentes de igual período, R pq ( τ ) tendrá
también una componente del mismo período. Por consiguiente, R xq ( τ) exhibirá un
comportamiento periódico del mismo período que q(t). Si q(t) tiene la forma de un tren de impulsos
unitarios de período T, se puede demostrar [Lathi, 1968] que R xq ( τ) reproduce q( τ) . Esto quiere
decir que este método no sólo detecta la presencia de una componente periódica, sino que también
revela la forma o perfil de dicha componente. En el Capítulo II aplicamos estos conceptos a los
sistemas lineales.
Un estudio más avanzado de estas técnicas está fuera de los objetivos de este texto.
1.12. RESUMEN
El objetivo principal de este capítulo es la representación en los dominios del tiempo y de la
frecuencia de señales con énfasis en sus aplicaciones en el área de las comunicaciones. Es
necesario, por lo tanto, el desarrollo de modelos matemáticos que representen las señales y sistemas
físicos para emprender el análisis de las interrelaciones señales-sistemas.
El estudio sistemático de los modelos de señales se inicia mediante el establecimiento de
una primera clasificación que se corresponda con los fenómenos físicos o señales reales que se
observan en la práctica. Esta primera clasificación comprende las señales determinísticas y
aleatorias por un lado, y por el otro comprende las señales de energía y de potencia. Asimismo, se
establecen modelos para señales periódicas y no periódicas, pues éstas son señales de mucha
aplicación en el campo de la ingeniería eléctrica y particularmente en las telecomunicaciones. La
mayoría de las señales utilizadas en la práctica corresponde a algunos de estos modelos; por
ejemplo, una señal periódica rectangular es a la vez una señal de potencia y es determinística, y es
el modelo de una señal de temporización (reloj).
El análisis espectral de señales es esencial para comprender muchos fenómenos no
perceptibles en el dominio del tiempo. Este análisis lo enfocamos desde el punto de vista de las
Series y Transformadas de Fourier, que nos proveen de las herramientas analíticas necesarias para
emprender el estudio de las señales y sistemas en el dominio de la frecuencia. A partir del Análisis
de Fourier, de sus propiedades y teoremas derivados (Parseval, Raleigh, Wiener-Kintchine, etc.),
comprendemos los conceptos de espectro, de ancho de banda, de densidad espectral de potencia y
energía. Otras técnicas matemáticas, tales como la convolución y las funciones de correlación, se
han definido y aplicado en el análisis espectro-temporal de señales.
Dado el carácter introductorio de este texto, el Capítulo I es simplemente una muestra de la
ingente cantidad de herramientas matemáticas y conceptuales necesarias para un estudio más
avanzado de la Teoría de la Comunicación, pero es suficiente para comprender los conceptos que se
estudiarán en el resto del texto.

You might also like