You are on page 1of 123

Captulo 11

MODELOS

11.1.

Ideas generales

Una de las tareas mas interesantes y complejas en el analisis de sistemas es la


de construir modelos para describir cuantitativamente lo que ocurre en el sistema
bajo analisis.
Un modelo es siempre una representacion aproximada de la realidad y, en sus
aspectos esenciales, se relaciona ntimamente con el proposito que nos mueve a
obtener el modelo. Por ejemplo, un motor electrico puede tener distintos modelos
seg
un cual es el interes del analista: un modelo electromecanico, un modelo termico,
un modelo que describa los fenomenos vibratorios y de esfuerzos, etc.
En cualquier caso, una vez definido el proposito del modelo, este debe capturar
los rasgos esenciales que hacen del sistema un ente particular y diferente de los
demas, tanto cualitativa como cuantitativamente.
Es importante se
nalar que el objetivo esencial de un modelo es tener
un mecanismo que permita predecir el comportamiento del sistema bajo
condiciones de excitaci
on distintas a las observadas. En otras palabras el
modelo es un mecanismo de inferencia y prediccion.
El problema que queremos resolver aqu se puede definir de la siguiente forma:

Dada una historia de datos del sistema (datos de entrada y salida, en tiempo
continuo o discreto), determinar un modelo matematico que pueda replicar en
la forma mas precisa posible (bajo alg
un criterio de optimalidad) la historia de
datos disponibles y otras historias de datos que se puedan obtener del mismo
sistema, para validar el modelo obtenido.
Note que exite un mecanismo generador de los datos, es decir, el sistema cuyo
comportamiento queremos modelar. Ademas la historia de datos del sistema debe
ser tal que permita observar los rasgos de interes del sistema. Por ejemplo, si el
sistema que deseamos modelar es una red RC, no nos servira recolectar datos del
sistema cuando las fuentes que alimentan la red son constantes, porque en ese caso
sera imposible calcular los parametros de cualquier modelo dinamico.
301

302

Modelos

Captulo 11

Otra idea que aparece en la definicion del problema es que la construccion del
mejor modelo tiene asociado un criterio de calidad optima.
En la determinacion de un modelo existen pues, tres elementos
1. La seleccion de una clase de modelos, M. Por ejemplo, una ecuacion diferencial
de cierto orden.
2. Un experimento que permite recolectar datos. Por ejemplo, el aplicar una excitacion de amplio espectro al sistema.
3. Un criterio de optimizacion que permite seleccionar uno de los miembros de la
clase elegida en base a los datos experimentales. Por ejemplo, el minimizar la
suma (o integral) de los errores cuadraticos.
La clase de modelos se elige, en primera instancia, usando citerios fenomenologicos. Por ejemplo, si el comportamiento del sistema a modelar esta dominado por 3
componentes dinamicos, una clase razonable es el conjunto de las ecuaciones diferenciales de tercer orden.
En muchos casos, el experimento no puede ser dise
nado de acuerdo a las necesidades del analista, sino que se debe usar datos provenientes de la operacion normal
del sistema a modelar. Ademas, es com
un que se desee o necesite ir refinando el
modelo en forma recursiva (e incluso en tiempo real, es decir, se va refinando el
calculo a medida que se van obteniendo nuevos datos).
Tambien es crucial notar que el que se use un procedimiento de optimizacion solo
se garantiza, en el mejor de los casos, que se encontrara el modelo optimo dentro de
la clase elegida. Si el mecanismo generador de los datos no pertenece a la clase de
modelos elegida, como suele suceder, entonces siempre habra un error de modelado,
sin importar cuan informativo sea el experimento para recolectar datos.
Los metodos mas robustos que se conocen para construir modelos son aquellos
que usan un criterio de optimizacion cuadratica. En ellos concentraremos nuestra
atencion en lo que sigue.

11.2.

Modelado de sistemas de tiempo continuo. Teora b


asica.

Para motivar la discusion y el tratamiento teorico del tema, consideramos el


siguiente ejemplo.
Ejemplo 11.1. Suponga que la clase de modelos elegida, M, est
a definida por
ym (t) = (u(t))3

(11.2.1)

donde u(t) es la entrada del sistema a modelar.


Suponga adem
as que se realiza un experimento recolector de datos en el sistema
a modelar. Como resultado del mismo se obtienen datos1 de entrada y salida, u(t)
1 Note

que se trata de datos experimentales de la planta

Section 11.2.

303

Modelado de sistemas de tiempo continuo. Teora b


asica.

e y(t), en el intervalo [0; tf ]. Entonces el mejor valor de ,


, en (11.2.1) se puede
calcular minimizando un funcional de costo J() dado por
Z

tf

J() =

2
(y( ) (u( ))3 d

(11.2.2)

entonces

= arg mn J()

(11.2.3)

La minimizaci
on se realiza derivando J() respecto de y haciendo esa derivada
igual a cero. Esto lleva a
Z

tf

1 Z
(u( ))6 d

tf

y( )(u( ))3 d

(11.2.4)

Note que si el sistema a modelar perteneciese a la clase de modelos elegida, es


decir, si existe o tal que y(t) = o (u(t))3 , entonces
= o , siempre que u(t) 6= 0
en alg
un lapso no cero en el intervalo [0; tf ].
La ecuaci
on (11.2.4) arroja una estimaci
on del par
ametro una vez que se han
recogido los datos. Existe una formulaci
on alternativa donde
evoluciona a medida
que se obtienen m
as datos, tal como se demuestra a continuaci
on.
Para hacer el tratamiento m
as simple haremos las siguientes substituciones
Z
p(t) =

1
(u( ))6 d

(11.2.5)

0
3

(t) = (u(t))

(11.2.6)

Entonces, si reemplazamos tf por t en (11.2.4) tenemos que


Z

(t) = p(t)

y( )( ) d

(11.2.7)

Luego, al derivar (11.2.5), se obtiene


1

dp(t)
d (p(t))
2
= (p(t)(t))
dt
dt

= ((t))

(11.2.8)

Al derivar (11.2.7) y al usar (11.2.8) se obtiene


(t)
d
= p(t)(t) (y(t)
(t)(t))
|
{z
}
dt

(11.2.9)

e(t)

donde e(t) es el error que se comete al predecir la salida y(t) usando el modelo y la
entrada observada de la planta.

304

Modelos

Captulo 11

Las ecuaciones (11.2.8) y (11.2.9) permiten calcular


(t) en tiempo real, como
se puede verificar en la simulaci
on implementada en el esquema SIMULINK de la
Figura 11.1. En esa figura, el sistema a modelar, o mecanismo generador de datos
aparece enmascarado. El lector puede verificar, al observar e(t) en el oscilloscopio,
que ese sistema pertenece a la clase M.
u(t)

y(t)
SISTEMA
e

(u(1))^3

e (t)

p (0)

\phi (t)
K

1/s

p (t)

1/s

alfa
alfa (t)

alfa (0)

Antes de empezar la simulacin, defina el SISTEMA (haga un doble click en el bloque y edite) y asigne los
valores iniciales p(0) y alfa(0) en los bloques de integracin correspondientes

Figura 11.1. Estimacion por mnimos cuadraticos


Note adem
as que, para que este programa SIMULINK funcione se debe asignar
una condici
on distinta de cero a p(0) (en el bloque integrador correspondiente). Se
invita al lector a observar el efecto de distintas elecciones para p(0). En cambio, el
valor inicial
(0) puede ser cualquier valor, incluyendo cero.
222
Es importante repetir que, en el ejemplo precedente, se plantearon dos formas de
calcular un valor estimado para el parametro . En la primera, dada por la ecuacion
(11.2.4), se requiere conocer previamente un conjunto de datos en un lapso no cero.
En cambio, en la forma construida por las ecuaciones (11.2.8) y (11.2.9), el valor
estimado se va construyendo a medida que los datos se van obteniendo.
Formularemos a continuacion el metodo general para sistemas de tiempo continuo.
La clase de modelos a usar, M, esta definida por
ym (t) = m (t)T

(11.2.10)

donde (t)m es un vector, llamado vector de regresion,. Los elementos de m (t) son

Section 11.2.

Modelado de sistemas de tiempo continuo. Teora b


asica.

305

conocidos como regresores. Existen tres grandes lneas en la construccion del vector
de regresion:
En base a la entrada de la planta y la salida del modelo. Este enfoque es la
base de los llamados m
etodos de error de predicci
on, reconocidos por su
sigla inglesa PEM (prediction error methods).
En base a la entrada del modelo, la que resulta de medir la entrada a la planta2
y a la salida del modelo. Esta eleccion genera los metodos conocidos como de
errores en la variables
En base a la entrada de la planta y la salida de la planta. Esta eleccion es
la base del metodo clasico de estimaci
on por errores cuadr
aticos. Es
conocido por la sigla inglesa LSE (least squares errors). Ese el metodo mas
robusto y mas usado, y es el que usaremos en este texto. Distinguiremos esta
eleccion de las otras dos reemplazando m (t) por (t) en la derivacion de las
ecuaciones del metodo.
Por su parte, el vector Rp contiene los parametros 1 , 2 , . . . , p que distinguen cada elemento en M.
Note que la expresion es bastante general, ya que la u
nica restriccion es que el
modelo sea lineal en los parametros a estimar, y no necesariamente debe ser lineal
en los datos. Por ejemplo
p
ym (t) = a u(t) + b u(t) + c cos(u(t)) + d
(11.2.11)
Entonces, el modelo (11.2.11) puede ser puesto en la forma (11.2.10) con las
siguientes asociaciones
p
(t) = [ u(t) u(t) cos(u(t)) 1]T
(11.2.12)
= [a b c d ]T

(11.2.13)

Veremos ademas en una seccion siguiente que (11.2.10) puede describir sistemas
dinamicos.
Para modelar un sistema con entrada u(t) y salida y(t), como miembro de la
clase M, debemos encontrar un estimado optimo, , para de modo que se minimice
Z
J( ) =

tf

(y( ) ( )T )2 d

(11.2.14)

El producto ( )T corresponde a una estimacion de la salida del sistema a modelar, utilizando el elemento generico de la clase M. La diferencia y( ) ( )T es
conocida como el error de prediccion (no confundir con los metodos PEM). El metodo de estimacion cuadratica permite determinar cual de los elementos de M es el
2 Hay

una diferencia entre ambos debido al ruido de medici


on

306

Modelos

Captulo 11

que arroja la prediccion con menor error cuadratico acumulado. Esto es equivalente
a seleccionar el optimo .
La minimizacion de (11.2.14) se hace a traves del procedimiento tradicional:
derivando respecto de la incognita y luego haciendo esa derivada igual a cero. Como
se trata de la derivada de una funcion escalar respecto de un vector, la derivada
corresponde al gradiente . As el mejor estimado esta dado por
= arg mnp J( )

(11.2.15)

El procedimiento descrito lleva a


Z tf
dJ( )
J( ) =
= 2
( )(y( ) ( )T ) d
d
0
Al hacer cero el gradiente se obtiene el estimado dado por
Z
=

tf

1 Z
( )T d
( )

(11.2.16)

tf

( )y( ) d

(11.2.17)

Para demostrar que la expresion (11.2.17) minimiza el funcional, se debe calcular


la segunda derivada (o Hessiano) de J( ), la que debe ser una matriz positiva
definida (ver Apendice F). Esto da
Z tf
d 2 J( )
( )T d
HJ ( ) =
=
2
( )
(11.2.18)
d 2
0
Entonces el Hessiano HJ ( ) es positivo definido si el vector ( ) cumple algunas
condiciones muy poco exigentes3 en [0; tf ].
La expresion (11.2.17) proporciona una forma de construir el modelo, estimando
, una vez que se han acumulado los datos en un lapso [0; tf ]. Tal como se ilustro en
el Ejemplo 11.1, es posible construir un estimado, (t), que vaya evolucionando a
medida que se van considerando nuevos datos. Esto aparece resuelto en el siguiente
teorema.
Teorema 11.1. Considere la clase M definida por (11.2.10), el funcional en (11.2.14)
y un experimento que permite construir ( ) para [0; t]. Entonces el estimador

optimo, (t) se puede obtener a traves de

dP(t)
(t)
(t)T P(t)
= P(t)
dt
d(t)
(t)(y(t) (t)(t)) = P(t)
(t)e(t)
= P(t)
dt
3 Cuya

deducci
on escapa al marco de este texto.

(11.2.19)
(11.2.20)

Section 11.2.

Modelado de sistemas de tiempo continuo. Teora b


asica.

307

Demostraci
on
Definamos previamente la matriz P(t) Rpp de la forma
Z

P(t) =

1
( )
( )T d

(11.2.21)

y la matriz
Z
1

Q(t) = P(t)

( )T d
( )

(11.2.22)

entonces
dP(t)Q(t)
dP(t)
dQ(t)
=0=
Q(t) + P(t)
dt
dt
dt

(11.2.23)

dP(t)
dQ(t)
(t)
(t)T P(t)
= P(t)
P(t) = P(t)
dt
dt

(11.2.24)

Esto lleva a

donde hemos usado el hecho que


Q(t)
(t)T
= (t)
dt

(11.2.25)

Por otro lado, al usar (11.2.17)


Z
(t) = P(t)

tf

( )y( ) d

(11.2.26)

con lo cual, al derivar se obtiene


Z
d
dP(t) tf
(t)y(t)
=
( )y( ) d + P(t)
dt
dt
0
Z tf
dQ(t)
(t)y(t)
= P(t)
P(t)
( )y( ) d +P(t)
dt
0
{z
}
|

(11.2.27)
(11.2.28)

(t)

lo que lleva a (11.2.20) al usar (11.2.25).


El Teorema 11.1 establece un procedimiento a traves del cual la estimacion de
los parametros del modelo se va obteniendo a medida que se dispone de nueva
informacion.

308

11.3.

Modelos

Captulo 11

Modelado de sistemas de tiempo continuo. Modelos lineales.

La teora desarrollada en la seccion precedente se aplica a cualquier clase de


modelos M, con la u
nica condicion que los miembros de esa clase sean lineales
en el vector de parametros, es decir, tengan la forma (11.2.10). Esto no excluye
modelos que son no lineales en la entrada y la salida, tal como se ilustra en el
Ejemplo 11.1. Sin embargo, en esta seccion enfocaremos nuestra atencion en modelos
dinamicos lineales de tiempo continuo. Con este objetivo definiremos la clase M por
la ecuacion diferencial (3.2.1), la que reproducimos a continuacion (reemplazando
y(t) por ym (t)).
dn ym (t)
dn1 ym (t)
dn1
dn2
+a
+.
.
.+a
y
(t)
=
b
u(t)+b
u(t)+. . .+b0 u(t)
n1
0
m
n1
n2
dtn
dtn1
dtn1
dtn2
(11.3.1)
Antes de desarrollar la metodologa general, examinaremos un ejemplo muy
simple, para adquirir perspectiva
Ejemplo 11.2. La clase M es elegida como en (11.3.1), con n = 1, es decir
dym (t)
+ a0 ym (t) = b0 u(t)
(11.3.2)
dt
La primera opci
on para contruir la forma (11.2.10) en este caso es (note la
sustituci
on de ym (t) por y(t) en el vector (t))
(t) =

hR
t

u( )d
0

T
= b0 a0

Rt
0

y( )d

iT

(11.3.3)
(11.3.4)

Sin embargo, esta forma de selecci


on del vector de regresi
on (t) no es razonable,
porque basta que las se
nales tengan un valor medio distinto de cero (por peque
no
que sea) para que el vector (t) crezca sin lmites.
Intentaremos otro enfoque, usando el operador de Heaviside (definido en (3.2.8).
El modelo (11.3.2) puede ser re-escrito como
0 = ( + a0 )ym (t) + b0 u(t)

(11.3.5)

Supongamos se define un polinomio operador m


onico estable E() = + e0
(e0 > 0), entonces (11.3.5) se puede escribir como
0=

b0
+ a0
ym (t) +
u(t)
E()
E()

(11.3.6)

Sumando ym (t) a ambos lados se obtiene


ym (t) = ym (t)

+ a0
b0
ym (t)
u(t)
ym (t) +
u(t) = (e0 a0 )
+ b0
E()
E()
E()
E()

(11.3.7)

Section 11.3.

309

Modelado de sistemas de tiempo continuo. Modelos lineales.

As, una elecci


on natural es

(t) =

T
y(t)
E()
T
e0 a0

u(t)
E()

= b0

(11.3.8)
(11.3.9)

Note que hemos reemplazado ym (t) por y(t) en el vector de regresi


on, as el
vector de regresi
on resulta dependiente s
olo de los datos de entrada y salida del
sistema a modelar, lo cual es consistente con la idea del metodo LSE.
222
El Ejemplo 11.2 permite inducir una metodologa general.
Definamos
A() = n + an1 n1 + . . . a0

(11.3.10)

n1

(11.3.11)

B() = bn1
n

+ bn2

E() = + en1

n1

n2

+ . . . b0

+ . . . e0

(11.3.12)

donde E() es un polinomio operador estable.


Entonces el modelo (11.3.1) se puede escribir como
0=

A()
B()
ym +
u(t)
E()
E()

(11.3.13)

Si ahora sumamos ym (t) a ambos lados se obtiene


E() A()
B()
ym +
u(t)
E()
E()
Entonces la eleccion de (t) consistente con el metodo LSE es
n1

u(t) n2 u(t)
u(t) n1 y(t) n2 y(t)
(t) =

E()
E()
E()
E()
E()
ym (t) =

(11.3.14)

T
y(t)
E()
(11.3.15)

y el vector de parametros es

= bn1

bn2

b0

en1 an1

en2 an2

T
e0 a0
(11.3.16)

Ejemplo 11.3. Supongamos que la clase M es el conjunto de ecuaciones diferenciales de tercer orden, lineales y de coeficientes constantes, entonces

2 u(t) u(t) u(t) 2 y(t) y(t) y(t)


(t) =
E()
E() E()
E()
E() E()

T
= b2 b1 b0 e2 a2 e1 a1 e0 a0

T
(11.3.17)
(11.3.18)

310

Modelos

Captulo 11

donde E() es cualquier polinomio de tercer grado cuyas races tenga parte real
menor que cero.
222

11.4.

Modelado de sistemas de tiempo discreto. Teora b


asica.

La construccion de modelos para sistemas de tiempo continuo es de gran interes


conceptual. Sin embargo, la implementacion de las ecuaciones de esa construccion
requiere el uso de una maquina digital, en cuyo caso necesariamente se debe usar
una discretizacion y ello hade de mayor relvancia la construiccion de sistemas de
tiempo discreto.
Al igual que en el caso de tiempo continuo, usaremos un ejemplo para motivar
la discusion.
Ejemplo 11.4. Suponga que la clase de modelos elegida, M, est
a definida por
ym [k] = (u[k])3

(11.4.1)

donde u[k] es la entrada del sistema a modelar.


Suponga adem
as que se realiza un experimento recolector de datos en el sistema
a modelar. Como resultado del mismo se obtienen datos4 de entrada y salida, u[k]
e y[k], en el intervalo [0; N ]. Entonces el mejor valor de ,
, en (11.4.1) se puede
calcular minimizando un funcional de costo J() dado por
J() =

N
X

2
(y[`] (u[`])3

(11.4.2)

`=1

entonces

= arg mn J()
R

(11.4.3)

La minimizaci
on se realiza derivando J() respecto de y haciendo esa derivada
igual a cero. Esto lleva a
"

N
X
`=1

#1
(u[`])6

N
X

y[`](u[`])3

(11.4.4)

`=1

Note que si el sistema a modelar perteneciese a la clase de modelos elegida, es


decir, si existe o tal que y[k] = o (u[k])3 , entonces
= o , siempre que u[k] 6= 0
en alg
un lapso no cero en el intervalo [0; N ].
La ecuaci
on (11.4.4) arroja una estimaci
on del par
ametro una vez que se han
recogido los datos. Existe una formulaci
on alternativa donde
evoluciona a medida
que se obtienen m
as datos, tal como se demuestra a continuaci
on.
4 Note

que se trata de datos experimentales de la planta

Section 11.4.

311

Modelado de sistemas de tiempo discreto. Teora b


asica.

Para hacer el tratamiento m


as simple haremos las siguientes substituciones
"
p[k] =

N
X

#1
6

(u[`])

(11.4.5)

`=1
3

[k] = (u[k])

(11.4.6)

Entonces, si reemplazamos N por k en (11.4.4) tenemos que

[k] = p[k]

k
X

y[`][`]

(11.4.7)

`=1

Luego, al usar (11.4.5), se obtiene


p[k] =

p[k 1]
= p[k 1] p[k 1][k]2 p[k]
1 + p[k 1][k]2

(11.4.8)

Combinando (11.2.7) y (11.2.8) se obtiene

[k] =
[k 1] + p[k][k] (y[k]
[k 1][k])
|
{z
}

(11.4.9)

e[k]

donde e[k] es el error que se comete al predecir la salida y[k] usando el modelo y la
entrada observada de la planta.
Las ecuaciones (11.4.8) y (11.4.9) permiten calcular
[k] en tiempo real, como
se puede verificar en la simulaci
on implementada en el esquema SIMULINK de la
Figura 11.2. En esa figura, el sistema a modelar, o mecanismo generador de datos
aparece enmascarado. El lector puede verificar, al observar e[k] en el oscilloscopio,
que ese sistema pertenece a la clase M.
Note adem
as que, para que este programa SIMULINK funcione se debe asignar
una condici
on distinta de cero a p[0] (en el bloque de retardo correspondiente). Se
invita al lector a observar el efecto de distintas elecciones para p[0]. En cambio, el
valor inicial
[0] puede ser cualquier valor, incluyendo cero.
222
Es importante repetir que, en el ejemplo precedente, se plantearon dos formas de
calcular un valor estimado para el parametro . En la primera, dada por la ecuacion
(11.4.4), se requiere conocer previamente un conjunto de datos en un lapso no cero.
En cambio, en la forma construida por las ecuaciones (11.4.8) y (11.4.9), el valor
estimado se va construyendo a medida que los datos se van obteniendo.
Formularemos a continuacion el metodo general sistemas de tiempo discreto.
La clase de modelos a usar, M, esta definida por
ym [k] = m [k]T

(11.4.10)

312

Modelos

u[k]

y[k]

Captulo 11

SISTEMA

p [0]
e [k]

z
p [k]
u(1)/(1+u(1)*u(2)^2)

(u(1))^3
\phi [k]

p
alfa [0]
1
z
alfa
alfa [k]

Antes de empezar la simulacin, defina el SISTEMA (haga un doble click en el bloque y edite) y asigne los
valores iniciales p[0] y alfa[0] en los bloques de retardo correspondientes

Figura 11.2. Estimacion por mnimos cuadraticos


donde m [k] es un vector, llamado vector de regresion,. Los elementos de m [k] son
conocidos como regresores. Existen tres grandes lneas en la construccion del vector
de regresion, y ellas son las mismas que en el caso continuo:
m
etodos de error de predicci
on, (PEM) (prediction error methods).
metodo de errores en la variables
Metodo clasico de estimaci
on por errores cuadr
aticos (LSE)(least squares
errors). Distinguiremos esta eleccion de las otras dos reemplazando m [k] por
[k] en la derivacion de las ecuaciones del metodo.
Por su parte, el vector Rp contiene los parametros 1 , 2 , . . . , p que distinguen cada elemento en M.
Note que la expresion es bastante general, ya que la u
nica restriccion es que el
modelo sea lineal en los parametros a estimar, y no necesariamente debe ser lineal
en los datos. Por ejemplo
p
ym [k] = a u[k] + b u[k] + c cos(u[k]) + d
(11.4.11)
Entonces, el modelo (11.4.11) puede ser puesto en la forma (11.4.10) con las
siguientes asociaciones
p
[k] = [ u[k] u[k] cos(u[k]) 1]T
(11.4.12)
= [a b c d ]T

(11.4.13)

Section 11.4.

Modelado de sistemas de tiempo discreto. Teora b


asica.

313

Veremos ademas en una seccion siguiente que (11.4.10) puede describir sistemas
dinamicos.
Para modelar un sistema con entrada u[k] y salida y[k], como miembro de la
clase M, debemos encontrar un estimado optimo, , para de modo que se minimice
J( ) =

N
X

(y[`] [`]T )2

(11.4.14)

El producto [`]T corresponde a una estimacion de la salida del sistema a modelar, utilizando el elemento generico de la clase M. La diferencia y[`] [`]T es
conocida como el error de prediccion (no confundir con los metodos PEM). El metodo de estimacion cuadratica permite determinar cual de los elementos de M es el
que arroja la prediccion con menor error cuadratico acumulado. Esto es equivalente
a seleccionar el optimo .
La minimizacion de (11.4.14) se hace a traves del procedimiento tradicional:
derivando respecto de la incognita y luego haciendo esa derivada igual a cero. Como
se trata de la derivada de una funcion escalar respecto de un vector, la derivada
corresponde al gradiente . As el mejor estimado esta dado por
= arg mnp J( )

(11.4.15)

El procedimiento descrito lleva a


N

J( ) =

X
dJ( )
= 2
[`](y[`] [`]T )
d

(11.4.16)

`=1

Al hacer cero el gradiente se obtiene el estimado dado por


"
=

N
X

#1
T

[`]
[`]

`=1

N
X

[`]y[`]

(11.4.17)

`=1

Para demostrar que la expresion (11.4.17) minimiza el funcional, se debe calcular


la segunda derivada (o Hessiano) de J( ), la que debe ser una matriz positiva
definida (ver Apendice F). Esto da
N

HJ ( ) =

X
d 2 J( )
[`]T
=2
[`]
2
d

(11.4.18)

k=1

Entonces el Hessiano HJ ( ) es positivo definido si el vector [`] cumple algunas


condiciones muy poco exigentes5 en 0 < ` N .
La expresion (11.4.17) proporciona una forma de construir el modelo, estimando
, una vez que se han acumulado los datos en un lapso [0; tf ]. Tal como se ilustro en
5 Cuya

deducci
on escapa al marco de este texto.

314

Modelos

Captulo 11

el Ejemplo 11.4, es posible construir un estimado, [k], que vaya evolucionando a


medida que se van considerando nuevos datos. Esto aparece resuelto en el siguiente
teorema.
Teorema 11.2. Considere la clase M definida por (11.4.10), el funcional en (11.4.14)
y un experimento que permite construir [`] para 0 < ` N . Entonces el estimador

optimo, [k] se puede obtener a traves de

[k]
[k]T P[k 1]
P[k 1]
T
[k]
1 + [k] P[k 1]

[k](y[k] [k] [k]) = P[k]


[k]e[k]
[k] = [k 1] + P[k]

P[k] = P[k 1]

(11.4.19)
(11.4.20)

Demostraci
on
Definamos previamente la matriz P[k] Rpp de la forma
"
P[k] =

k
X

#1
T

[`]
[`]

(11.4.21)

`=1

y la matriz
1

Q[k] = P[k]

k
X

[`]T = Q[k 1] + [k]


[k]T
[`]

(11.4.22)

`=1

entonces podemos aplicar el lema de inversi


on de matrices para obtener P[k](=
Q[k]1 ) en funci
on de P[k 1](= Q[k 1]1 ), lo cual lleva a (11.4.19).
Por otro lado, al usar (11.4.17) se tiene que
P[k]1[k] =

k
X

[`]y[`]

(11.4.23)

[`]y[`]

(11.4.24)

`=1

P[k 1]1[k 1] =

k1
X
`=1

lo cual lleva a
[`]y[`]
[k] = P[k]P[k 1]1[k 1] + P[k]

(11.4.25)

de donde, al usar (11.4.19), se obtiene (11.4.20).


222
El Teorema 11.2 establece un procedimiento a traves del cual la estimacion de
los parametros del modelo se va obteniendo a medida que se dispone de nueva
informacion.

Section 11.5.

11.5.

315

Modelado de sistemas de tiempo discreto. Modelos lineales.

Modelado de sistemas de tiempo discreto. Modelos lineales.

La teora desarrollada en la seccion precedente se aplica a cualquier clase de


modelos M, con la u
nica condicion que los miembros de esa clase sean lineales
en el vector de parametros, es decir, tengan la forma (11.4.10). Esto no excluye
modelos que son no lineales en la entrada y la salida, tal como se ilustra en el
Ejemplo 11.4. Sin embargo, en esta seccion enfocaremos nuestra atencion en modelos
dinamicos lineales de tiempo discreto. Con este objetivo definiremos la clase M por
la ecuacion diferencial (4.2.1), la que reproducimos a continuacion (reemplazando
y[k] por ym [k]).

ym [k] + an1 ym [k 1] + . . . + a1 ym [k n + 1] + a0 ym [k n] =
bm u[k] + bm1 u[k 1] + . . . + b1 u[k m + 1] + b0 u[k m] (11.5.1)
Antes de desarrollar la metodologa general, examinaremos un ejemplo muy
simple, para adquirir perspectiva
Ejemplo 11.5. La clase M es elegida como en (11.5.1), con n = 1, es decir
ym [k] + a0 ym [k 1] = b0 u[k]

(11.5.2)

La primera opci
on para contruir la forma (11.4.10) en este caso es (note la
sustituci
on de ym [k] por y[k] en el vector [k])

T
[k] = u[k] ym [k 1]

T
= b0 a0

(11.5.3)
(11.5.4)

A diferencia del caso de tiempo continuo, esta forma de selecci


on del vector de
regresi
on [k] es razonable y la metodologa de la secci
on anterior puede ser aplicada
sin mayores dificultades.
222
El Ejemplo 11.5 permite inducir una metodologa general, ya que podemos expresar la ecuacion (11.5.1) como
ym [k] = [k]T [k]

[k] = u[k] u[k 1]

[k] = bm

bm1

...

(11.5.5)
. . . u[k m]
b0

an1

ym [k 1]
an2

. . . a0

ym [k 2]

...

ym [k n]
(11.5.6)
(11.5.7)

Apendice A

SERIES DE TAYLOR

A.1.

Serie de Taylor en una variable

Considere una funcion g(x), donde x R y sea xQ un valor arbitrario en R, tal


que g(x) es continua en x = xQ .
Suponga ademas que g(x) es infinitamente diferenciable en x = xQ , es decir,
todas las derivadas de g(x) en x = xQ son continuas.
Entonces la funcion g(x) se puede expandir en serie de potencias de (x xQ ),
es decir, admite la siguiente representacion en una serie de Taylor

d x
1 d 2 x
1 d 3 x
2
g(x) = g(xQ ) +
(x xQ ) +
(x xQ ) +
(x xQ )3 + . . .
dt Q
2! dt 2 Q
3! dt 3 Q

X
i=0

(A.1.1)

1 d i x
(x xQ )i
i! dt i Q

(A.1.2)

n
donde ddt nx Q denota la derivada n-esima de g respecto de x y evaluada en x = xQ .
A partir de esta expansion, podemos construir aproximaciones de primer, segundo, tercer orden, etc. truncando la serie despues de la potencia de primer, segundo,
tercer grado, etc., respectivamente. Por ejemplo, la aproximacion de primer orden
es

g1 (x) = k0 + k1 (x xQ );

k0 = g(xQ );

d g
k1 =
dx Q

(A.1.3)

Esta aproximacion de primer orden se puede apreciar graficamente, como se


muestra en la Figura A.1.

dg
En esta figura m = k1 = dx
. Se observa que, en la medida que nos alejamos
Q

del punto de operacion, el error de modelado lineal aumenta.


316

Section A.2.

317

Serie de Taylor en dos variables

g(x)

g1 (x)
m

g(xQ )

xQ

Figura A.1. Aproximacion de primer orden para funcion no lineal de una variable.

A.2.

Serie de Taylor en dos variables

La misma idea resumida en la seccion anterior se puede extender al caso de una


funcion g(x1 , x2 ), con x1 R, x2 R.
Sea (x1Q , x2Q ) un par arbitrario tal que g(x1 , x2 ) es continua e infinitamente
diferenciable en x1 = x1Q , x2 = x2Q . Entonces g puede expandirse en serie de
potencias de (x1 x1Q ) y (x2 x1Q )

g
g
1 2 g
g(x1Q , yQ ) +
(x1 x1Q )2 +
(x1 x1Q ) +
(x2 x2Q ) +
x1 Q
x2 Q
2 x21 Q

1 2 g
2 f
2
(x

x
)
+
(x1 x1Q )(x2 x2Q ) + . . . (A.2.1)
2
2Q
2 x2
x1 x2
2 Q

donde el termino general de la expansion es

1 i+j g
(x1 x1Q )i (x2 x2Q )j
i!j! xi1 xj2
Q

(A.2.2)

En forma analoga al caso de una variable, podemos truncar esta serie para tener
aproximaciones de primer, segundo, tercer, etc. orden. Por ejemplo, la aproximacion
de primer orden esta dada por

318

Series de Taylor

g1 (x1 , x2 ) = k0 + k11 (x1 x1Q ) + k12 (x2 x2Q )


k0 = g(x1Q , x2Q )

d g
k11 =
dx1 Q

d g
k12 =
dx2 Q

A.3.

Ap
endice A

(A.2.3)
(A.2.4)
(A.2.5)
(A.2.6)

El caso general

La idea desarrollada en las dos secciones anteriores se puede generalizar al caso


de una funcion g(x1 , x2 , . . . , xn ) con x1 R, x2 R, . . ., xn R.
Sea (x1Q , x2Q , . . . , xnQ ) una n-tupla tal que g(x1 , x2 , . . . , xn ) es continua e infinitamente diferenciable en x1 = x1Q , x2 = x2Q , . . ., xn = xnQ . Entonces la expansion
en serie de Taylor esta dada por

g(x1 , x2 , . . . , xn ) = g(x1Q , x2Q , . . . , xnQ )

X
1
ni g

i1 ,i2 ,...,in

(x1 x1Q )i1 (x2 x2Q )i2 . . . (xn xnQ )in

i
i
i
1
2
n
i
!i
!

i
!

x
1
2
n
1
2
n
Q
=0
(A.3.1)

donde ni = i1 + i2 + . . . + in .
La aproximacion de primer orden, por truncamiento de la serie es entonces

g1 (x1 , x2 , . . . , xn ) = k0 +

n
X

k1i (xi xiQ )

(A.3.2)

i=1

k0 = g(x1Q , x2Q , . . . , xnQ )

d g
k1i =
dxi

(A.3.3)
(A.3.4)

(A.3.5)
Es importante se
nalar que los desarrollos precedentes siguen siendo validos
aunque las variable x1 , x2 , . . ., xn sean funciones de una variable temporal u otra
variable independiente.

A.4.

Algunas reglas pr
acticas para la expansi
on en serie

La teora general precedente permite construir algunas reglas basicas para expandir funciones complicadas en serie de potencias.

Section A.4.

319

Algunas reglas pr
acticas para la expansi
on en serie

R1 Considere las funciones no lineales g(x) y h(x) y un punto de operacion com


un
dado por xQ , entonces las aproximaciones de primer orden para las funciones
que se indican son

d g(x)
(x xQ )
dx Q

d h(x)

[R1,2]
h1 (x) = h(xQ ) +
(x xQ )
dx Q

!
d g(x)
d h(x)
\
[R1,3]g(x) + h(x)1 = g(xQ ) + h(xQ ) +
+
(x xQ )
dx Q
dx Q

d
g(x)
d
h(x)
\ = g(xQ )h(xQ ) + h(xQ )
+ g(xQ )

(x xQ )
[R1,4] g(x)h(x)
1

dx Q
dx Q
[R1,1]

g1 (x) = g(xQ ) +

d ` x(t)
dt `

R2 La aproximacion de primer orden de g(x) =


cion x = xQ , g(xQ ) = 0 es
g1 (x) =

en torno al punto de opera-

d ` (x(t) xQ )
dt `
h

R3 La aproximacion de primer orden de g(x) =


h `
ik1
de operacion x = xQ , d dtx(t)
= 0 es
`
g1 (x) = 0

d ` x(t)
dt `

(A.4.1)
ik

, k > 1 en torno al punto

(A.4.2)

Apendice B

BASES MATEMATICAS
PARA LAS SERIES DE
FOURIER

B.1.

Espacios vectoriales y bases ortogonales

En esta seccion se revisan los conceptos basicos de los espacios vectoriales, incluyendo definiciones y propiedades. Se introducen ademas las ideas de ortogonalidad y bases, ideas matematicas abstractas de mucha utilidad para fundamentar el
analisis mediante series de Fourier y otros topicos dentro de la teora de sistemas como es, por ejemplo, la construccion de modelos y la estimacion de se
nales utilizando
el enfoque de mnimos cuadrados.
Definici
on B.1. Un espacio vectorial V es un conjunto de objetos ~v1 , ~v2 , . . .
, llamados vectores, donde se definen dos operaciones: suma de dos vectores, y
multiplicaci
on por un escalar y que satisfacen las siguientes propiedades:
1.

Si ~vi V y ~vj V, entonces ~vi + ~vj V

2.

Si ~vi V y ~vj V, entonces ~vi + ~vj = ~vj + ~vi

3.

Si ~vi , ~vj , ~vk son vectores cualesquiera de V, entonces ~vi + (~vj + ~vk ) = (~vi +
~vj ) + ~vk

4.

Existe un vector ~0 V, tal que para todo ~vi V se cumple ~vi + ~0 = ~vi

5.

Para cada ~vi V existe un vector ~vi V, tal que ~vi + (~vi ) = ~0

6.

Si ~vi V y es un escalar, entonces ~vi V

7.

Si ~vi y ~vj est


an en V y es un escalar, entonces (~vi + ~vj ) = ~vi + ~vj

8.

Si y son escalares y ~vi V, entonces ( + )~vi = ~vi + ~vi

320

Section B.1.

9.

Espacios vectoriales y bases ortogonales

321

Si y son escalares y ~vi V, entonces (~vi ) = ()~vi

10.

Existe el escalar 1 tal que 1~vi = ~vi , para todo ~vi V

Existe un sinn
umero de conjuntos de elementos que son ejemplo de espacios
vectoriales, de entre los cuales se deja al lector verificar que los siguientes cumplen
las propiedades recien enumeradas:
El espacio Rn en que los escalares son n
umeros reales,
El espacio Cn en que los escalares pueden ser n
umeros reales o bien complejos,
El conjunto de funciones reales seccionalmente continuas1 en un intervalo [a, b],
en que los escalares son n
umeros reales.

Definici
on B.2. Dado un conjunto de vectores G = {~v1 , . . . , ~vn } V, diremos que
el espacio generado por G, es el conjunto de todos los vectores de la forma:
~v = 1~v1 + . . . + n~vn
Es decir, ~v es una combinaci
on lineal de ~v1 , . . . , ~vn .
Se deja al lector probar que el subespacio generado por el subconjunto de vectores
G V tambien cumple las propiedades de un espacio vectorial.
Definici
on B.3. Un conjunto de vectores ~v1 , . . . , ~vn se dice linealmente independiente, si la ecuaci
on:
1~v1 + . . . + n~vn = 0
se cumple s
olo para los escalares 1 = 2 = . . . = n = 0. En caso contrario se
dice que los vectores son linealmente dependientes.
La independencia lineal en un conjunto de vectores es una propiedad muy importante pues nos permite afirmar que ninguno de los vectores del conjunto puede
expresarse como una combinacion lineal de los demas vectores. Esta demostracion
se deja al lector.
Definici
on B.4. Dado un espacio vectorial V, diremos que un conjunto de vectores
B = {~v1 , . . . , ~vn } es base de V si:
1.
1 Es

{~v1 , . . . , ~vn } es linealmente independiente, y


decir, que poseen a lo m
as un n
umero finito de puntos de discontinuidad.

322
2.

Bases matem
aticas para las Series de Fourier

Ap
endice B

{~v1 , . . . , ~vn } genera todo el espacio V.

En este caso diremos que el espacio vectorial V tiene dimensi


on igual a n. Por
ejemplo, el espacio de vectores en el plano tiene dimension n = 2, en el espacio
n = 3, mientras que existen otros espacios como por ejemplo el de funciones que
pueden tener dimension infinita.

Definici
on B.5. Dados dos vectores cualesquiera ~vi y ~vj en un espacio vectorial V con escalares en C, entonces diremos que h~vi , ~vj i es un producto interno,
producto escalar o producto punto si cumple las siguientes propiedades:
1.

h~vi , ~vj i es un escalar

2.

h~vi , ~vj + ~vk i = h~vi , ~vj i + h~vi , ~vk i

3.

h~vi , ~vi i > 0 si ~vi 6= ~0

4.

h~vi , ~vj i = h~vj , ~vi i , en que () denota el complejo conjugado de ()


Este producto ademas induce una norma en el espacio vectorial V:
p
~vi = h~vi , ~vi i

Recordamos que una norma se define como sigue:



Definici
on B.6. Una norma en un espacio vectorial es una funci
on que va
del espacio V a R que cumple con :


1. ~vi 0 y ~vi = 0 si y s
olo si ~vi = ~0
2.



~vi = ||~vi en que || es el valor absoluto o m
odulo del escalar

3.


~vi + ~vj ~vi + ~vi ( desigualdad triangular) .

Con la norma inducida de esta forma con el producto interno en el espacio


vectorial podemos introducir la idea de distancia entre dos vectores:

d(~vi , ~vj ) = ~vi ~vj

Definici
on B.7. Un espacio vectorial donde se ha definido una norma, es decir,
se tiene una medida de distancia y longitud se denomina espacio euclideano

Section B.1.

323

Espacios vectoriales y bases ortogonales

Ademas puede definirse el coseno del


angulo entre dos vectores como
h~vi , ~vj i

cos (~vi , ~vj ) =
~vi ~vj

Definici
on B.8. De la definici
on del
angulo entre dos vectores es claro que podemos decir que dos vectores son ortogonales bajo el producto interno h, i, si este
producto es igual a cero. Es decir:
~vi ~vj h~vi , ~vj i = 0

Lema B.1. Supongamos un espacio vectorial V de dimension n, en que se tiene


una base de vectores:
B = {~v1 , ~v2 , . . . , ~vn }

(B.1.1)

Si los vectores de la base B son ortogonales entre si bajo un producto interno


h, i, es decir:
(
0
; si i 6= j
(B.1.2)
h~vi , ~vj i =
> 0 ; si i = j
Entonces, un vector arbitrario ~u V se representa como una combinaci
on lineal
de los vectores de la base B de la forma:
~u = 1~v1 + 2~v2 + . . . + n~vn

(B.1.3)

en que cada coeficiente se calcula:


i =

h~vi , ~ui
h~vi , ~vi i

(B.1.4)

Demostraci
on
La representacion (B.1.3) se deduce de inmediato del hecho de tener un conjunto
de n vectores linealmente independientes en un espacio vectorial V de dimension n.
Lo central que nos ata
ne en este caso es el calculo de los coeficientes (B.1.4).
Tomemos la ecuacion (B.1.3), y apliquemosle producto interno con alguno de
los vectores de la base (B.1.1):
h~vi , ~ui = h~vi , 1~v1 + 2~v2 + . . . + n~vn i

(B.1.5)

324

Bases matem
aticas para las Series de Fourier

Ap
endice B

Si aplicamos la linealidad del producto interno


h~vi , ~ui = 1 h~vi , ~v1 i + 2 h~vi , ~v2 i + . . . + n h~vi , ~vn i

(B.1.6)

Y dada la ortogonalidad del conjunto B, los productos de la derecha son cero a


excepcion del que coinciden los ndices i :
h~u, ~vi i = i h~vi , ~vi i

(B.1.7)

De donde se demuestra el resultado (B.1.4).

222

Lema B.2. Desigualdad de Cauchy-Schwartz


Si vi y vj son dos vectores arbitrarios en un espacio euclideano, es decir, un
espacio vectorial con norma inducida por un producto interno, entonces
hvi , vj i2 hvi , vi i hvj , vj i

(B.1.8)

Demostraci
on
Primero se observa que esta desigualdad es inmediata si cualquiera de los vectores, vi o vj , es el vector cero. As es suficiente considerar el caso en ambos son no
nulos.
Consideremos un vector (vi vj ), cuya norma es no negativa
0 h(vi vj ), (vi vj )i
2

(B.1.9)
2

= hvi , vi i 2hvi , vj i + hvj , vj i

(B.1.10)

De donde

2hvi , vj i 2 hvi , vi i + 2 hvj , vj i


p
p
Ahora, si tomamos = hvj , vj i y = hvi , vi i entonces

2 hvj , vj i hvi , vi ihvi , vj i 2hvi , vi ihvj , vj i

hvi , vj i hvj , vj i hvi , vi i

(B.1.11)

(B.1.12)
(B.1.13)

Donde elevando al cuadrado se tiene la desigualdad a demostrar.


222

B.2.
B.2.1.

Convergencia de las Series de Fourier


Convergencia de sucesiones y series

A continuacion se hace un breve repaso sobre convergencia de sucesiones y series


de funciones.

Section B.2.

325

Convergencia de las Series de Fourier

Definici
on B.9. Se dice que una sucesi
on de funciones {fk (x)} de funciones, cada
una definida en un intervalo I = [a, b], converge (puntualmente) en I, si
lm fk (x0 )

existe x0 I

(B.2.1)

Definici
on B.10. Se dice que una sucesi
on {fk (x)} de funciones, definidas en un
intervalo I = [a, b], converge uniformemente a una funci
on f (x) en el intervalo
I si
> 0 K > 0

tal que

k > K |f (x) fk (x)| <

axb

(B.2.2)

Estas dos definiciones sobre la convergencia de sucesiones son aplicables totalmente a series de funciones, ya que estas u
ltimas no son mas que sucesiones de
sumas parciales. Es decir, si se tiene una serie de funciones de la forma
S(x) =

fn (x)

(B.2.3)

n=1

Sus propiedades de convergencia estan dadas por la convergencia de la sucesion


{Sk (x)}, que es la suma parcial k-esima
Sk (x) =

k
X

fn (x)

(B.2.4)

n=1

Definici
on B.11. Se dice que una serie de funciones
S(x) =

fn (x)

(B.2.5)

n=1

converge absolutamente si la serie de los valores absolutos de su termino general


converge, es decir, si

|fn (x)|

(B.2.6)

n=1

converge. Note que por comparaci


on de los terminos generales, si una serie converge
absolutamente, entonces tambien converge en el sentido usual2

2 Sentido

usual significa que la serie (B.2.5) converge

326

Bases matem
aticas para las Series de Fourier

Ap
endice B

Lema B.3. M -Test de Weiertrass


Si tenemos una serie convergente de n
umeros reales positivos

Mk

(B.2.7)

k=1

Y una serie de funciones en un intervalo I = [a, b]

fk (x)

(B.2.8)

k=1

Tales que
|fk (x)| Mk

(B.2.9)

Para cada k y para cada x I , entonces la serie de funciones


converge uniforme y absolutamente en el intervalo I.

P
k=1

fk (x)

Demostraci
on
Por comparacion entre los terminos de la serie numerica y la de funciones, se
sigue que para cada x0 en el intervalo I, la serie converge absolutamente. As la
serie converge puntualmente a una funcion lmite f (x) en a x b. Ahora

fk (x) =
fk (x)
f (x)

k=1

(B.2.10)

k=n+1

k=n+1

|fk (x)|

(B.2.11)

Mk

(B.2.12)

k=n+1

n
X

k=1

k=1

Mk

Mk

(B.2.13)

Donde en el lado derecho la expresion tiende a cero cuando n . Ya que esta


convergencia no depende del x que se elija en I, es uniforme.

B.2.2.

Convergencia de las Series de Fourier

Para estudiar la convergencia de la serie de Fourier de una funcion, a continuacion se desarrollan algunos lemas que permiten determinar que la norma del
vector de error en (t) = y(t) yn (t) tiende asintoticamente a cero, cuando n .
Lema B.4. Desigualdad de Parseval

Section B.2.

327

Convergencia de las Series de Fourier

Si y(t) es una funci


on per
odica y A0 , A1 , ...An y B1 , ...Bn son (algunos de los)
coeficientes de su representaci
on en serie de Fourier entonces
1
T

T
2

y (t)dt

T2

A20

1 X 2
+
Ak + Bk2
2

(B.2.14)

k=1

Demostraci
on
La norma al cuadrado del error que se comete, que se representa en la figura 5.8
a la derecha, es:

en (t)2 = hen (t), en (t)i


= hen (t), y(t) yn (t)i
= hen (t), y(t)i hen (t), yn (t)i
Pero seg
un (5.3.15) el segundo termino es cero, y usando (5.3.16)

en (t)2 = hen (t), y(t)i


= hy(t), y(t)i hyn (t), y(t)i
+
* n
X

k fk (t), y(t)
= y(t)

2
= y(t)

k=1
n
X

k hfk (t), y(t)i

(B.2.15)
(B.2.16)
(B.2.17)

(B.2.18)
(B.2.19)
(B.2.20)
(B.2.21)

k=1

que puede reescribirse como


n
X

2
en (t)2 = y(t)2
k2 fk (t)

(B.2.22)

k=1

Si recordamos que la norma siempre es positiva o cero y se expresa mediante


integrales, y si calculamos la norma cuadratica de cada fk (t) de la base (5.3.1)
obtenemos
Z

T
2

T2

Z
e2n (t)dt

T
2

"
2

y (t)dt

T2

A20

#
n
X
2 T
2 T
T +
Ak + Bk
0
2
2

(B.2.23)

k=1

Con esto se obtiene la desigualdad de Parseval:


1
T

T
2

T2

y 2 (t)dt A20 +

1 X 2
Ak + Bk2
2

(B.2.24)

k=1

222

328

Bases matem
aticas para las Series de Fourier

Ap
endice B

Corollario B.1. De la ecuaci


on (B.2.14), se deduce adem
as que
2
lm Ak = lm
k
k T
2
lm Bk = lm
k
k T

T
2

T2

T
2

T2

y(t) cos(k0 t)dt = 0

(B.2.25)

y(t) sin(k0 t)dt = 0

(B.2.26)

Demostraci
on
Directa de la desigualdad de Parseval, ya que si la integral del lado izquierdo existe, entonces la serie del lado derecho, cuyo termino general es no-negativo,
esta acotada superiormente. Esto permite afirmar que converge, lo que a su vez implica que el termino general se hace cero cuando n , por tanto, los coeficientes
Ak y Bk se hacen cero cuando k .
222
Lema B.5. La aproximaci
on o serie de Fourier truncada yn (t) de una funci
on
peri
odica y(t) de perodo T , puede escribirse como
2
T

yn (t) =

T
2

y(t + s)

T2

sin(0 (n + 12 )s)

ds
2 sin 20 s

; 0 =

2
T

(B.2.27)

Demostraci
on
La aproximacion n-esima puede escribirse utilizando las ecuaciones (5.3.4)
n
X

yn (t) = A0 +
1
=
T
+

T
2

n
X

2
T
2
T

"

(B.2.29)

T
2

2
cos(k0 t)
T
"
y( )

T2

(B.2.28)

y( )d

T2

k=1

[Ak cos(k0 t) + Bk sin(k0 t)]

k=1

T
2

T2

"
y( )

1
+
2
1
+
2

T
2

2
y( ) cos(k0 )d + sin(k0 t)
T
T
2

n
X

T
2

T2

#
y( ) sin(k0 )d
(B.2.30)
#

{cos(k0 t) cos(k0 ) + sin(k0 t) sin(k0 )} d

k=1
n
X

#
cos(k0 ( t)) d

k=1

Pero se puede utilizar la siguiente identidad trigonometrica

(B.2.31)
(B.2.32)

Section B.2.

sin

329

Convergencia de las Series de Fourier

k+

1
2

s
1
0
0 s sin
k
0 s = 2 sin
cos (k0 s)
2
2

(B.2.33)

Y si se hace la suma desde 1 hasta n, obtenemos

n
s
s X
1
0
0
sin
n+
0 s sin
= 2 sin
cos (k0 s)
2
2
2

(B.2.34)

k=1

O bien,

n
sin n + 21 0 s
1 X
1

+
cos (k0 s) =
2
2 sin 2 0 s
k=1

(B.2.35)

Reemplazando en la integral se obtiene


2
yn (t) =
T

T
2

y( )

sin

T2

n + 21 0 ( t)

d
2 sin 20 ( t)

(B.2.36)

Si se considera t fijo y se hace el cambio s = t se obtiene


2
yn (t) =
T

T
2

y(t + s)

T2 t

sin

n + 12 0 s

ds
2 sin 20 s

(B.2.37)

En esta expresion, si la funcion y(t) tiene perodo T , entonces puede probarse


que la funcion en el integrando tambien es periodica en s, con perodo T . Esto se
deja como ejercicio al lector. Por lo tanto la integral puede calcularse en cualquier
intervalo de longitud T , en particular, en [ T2 , T2 ].
222
Lema B.6. Convergencia puntual.
Supongamos que y(t) es una funci
on peri
odica en (, ), de perodo T , entonces para cada t0 se cumple que
lm yn (t0 ) =

t0 .

y(t+
0 ) + y(t0 )
2

(B.2.38)

En que y(t+
mites por la derecha y por la izquierda de y(t) en
0 ) e y(t0 ) son los l

Demostraci
on
Primero, y como resultado previo, observemos que si integramos a ambos lados
de la ecuacion (B.2.35), obtenemos

330

Bases matem
aticas para las Series de Fourier

T
2

T2

sin n + 21 0 s
T
1

=
2
2 sin 2 0 s

Ap
endice B

(B.2.39)

Ahora definamos la funcion


g(t) =

y(t+ ) + y(t )
2

(B.2.40)

Esta coincide con y(t) solo en sus puntos de continuidad y ademas hereda su
periodicidad. Podemos observar tambien que si t0 es una discontinuidad de y(t), lo
es tambien de g(t) y

y(t+
g(t+
0 ) + y(t0 )
0 ) + g(t0 )
=
(B.2.41)
2
2
Consideremos lo que sucede con el error en (t0 ), entre g(t) y su representacion
en serie de Fourier, a medida que n tiende a infinito. Si usamos la igualdad recien
mencionada y la expresion (B.2.27) para la n-esima suma parcial, el error puede
escribirse

g(t0 ) =

en (t0 ) = g(t0 ) gn (t0 )


(B.2.42)
T
Z T2
Z
2
sin(0 (n + 12 )s)
sin(0 (n + 12 )s)
2
2
0 ds

ds
g(t0 )
g(t0 + s)
=
T T2
T T2
2 sin 2 s
2 sin 20 s
(B.2.43)
Z T2
1
sin(0 (n + 2 )s)
2

ds
=
[g(t0 ) g(t0 + s)]
(B.2.44)
T T2
2 sin 20 s
#


Z T2 "
1
2
g(t0 ) g(t0 + s)
1
20 s
=
sin

n
+
s ds (B.2.45)
0
1
T T2
2
sin 12 0 s
2 0 s
La expresion entre corchetes dentro de la integral es seccionalmente continua
en el intervalo [ T2 , T2 ], siempre y cuando t0 sea un punto de continuidad de g(t),
lo que permite afirmar que el primer cuociente de la expresion entre corchetes se
transforma en la derivada cuando s 0. En estos puntos, usando la ecuacion
(B.2.26), se deduce que
lm en (t0 ) = 0

(B.2.46)

O, lo que es lo mismo,
lm gn (t0 ) = g(t0 ) =

g(t+
0 ) + g(t0 )
2

(B.2.47)

Section B.2.

331

Convergencia de las Series de Fourier

Ya que, en este caso t0 se ha supuesto un punto de continuidad, es decir, g(t+


0)=
= g(t0 ).
En aquellos puntos (finitos) de discontinuidad de g(t), podemos definir la funcion

g(t
0)

G(t) = g(t + t0 ) g(t0 )

(B.2.48)

Si separamos esta funcion en sus partes par e impar

G(t) + G(t)
2
g(t + t0 ) + g(t + t0 ) 2g(t0 )
=
2
G(t) G(t)
Gimpar (t) =
2
g(t + t0 ) g(t + t0 )
=
2
Gpar (t) =

(B.2.49)
(B.2.50)
(B.2.51)
(B.2.52)

La serie de Fourier de Gimpar (t) converge a cero en t = 0, pues es una serie


senoidal. Mientras que Gpar (t) es continua en t = 0 (cuya prueba se deja al lector),
por tanto su serie de Fourier converge a Gpar (0) = G(0). Con esto podemos afirmar
que la serie de Fourier de G(t) converge a cero en t = 0 y en consecuencia
lm Gn (0) = 0

lm gn (t0 ) = g(t0 )

(B.2.53)

Es decir, la serie de Fourier de g(t) en t = t0 converge a g(t0 ), tambien en el


caso de los puntos de discontinuidad.
Ahora dada la definicion de g(t) en (B.2.40), su expresion en serie de Fourier
coincide con la de y(t), por tanto la convergencia puntual debe ser la misma. En
consecuencia, el lema queda demostrado.
222

Lema B.7. Convergencia uniforme


Supongamos que y(t) es una funci
on continua en (, ), de perodo T , cuya
primera derivada y 0 (t) es seccionalmente continua. Entonces, su serie de Fourier
converge uniformemente a y(t) en cualquier intervalo [a, b]. Es decir,

> 0 N > 0

n > N |y(t) yn (t)| < t [a, b]

(B.2.54)

332

Bases matem
aticas para las Series de Fourier

Ap
endice B

Demostraci
on
Sean
A0 +
A00 +

X
n=1

[An cos(n0 t) + Bn sin(n0 t)]

(B.2.55)

[A0n cos(n0 t) + Bn0 sin(n0 t)]

(B.2.56)

n=1

Las series de Fourier de y(t) e y 0 (t), respectivamente. Entonces, dada la periodicidad de y(t), tenemos que

A00

1
=
T

T
2

y 0 (t)dt

(B.2.57)

T2

1
[y(T /2) y(T /2)]
T
=0

(B.2.58)
(B.2.59)

Mientras que para n > 0 tenemos

A0n

2
=
T

T
2

T2

y 0 (t) cos(n0 t)dt

#
"
Z T2
T2
2

=
y(t) sin(n0 t)dt
y(t) cos(n0 t) T + n0
T
2
T2
Z T2
2
= n0
y(t) sin(n0 t)dt
T T2

= n0 Bn
Z T2
2
Bn0 =
y 0 (t) sin(n0 t)dt
T T2
"
#
Z T2
T2
2

=
y(t) sin(n0 t) T n0
y(t) cos(n0 t)dt
T
2
T2
Z T2
2
= n0
y(t) sin(n0 t)dt
T T2
= n0 An

(B.2.60)
(B.2.61)
(B.2.62)
(B.2.63)
(B.2.64)
(B.2.65)
(B.2.66)
(B.2.67)

Section B.2.

333

Convergencia de las Series de Fourier

Utilizando la desigualdad de Parseval (B.2.14), podemos afirmar que


2
q


X
X
2
2
0 2
02
n0 An + Bn
An + Bn =

(B.2.68)

n=1

n=1

1
T

T
2

y 0 (t)2 dt <

(B.2.69)

T2

p
Si se observa el termino general {n0 A2n + Bn2 } de la segunda serie, se aprecia
que pertenece al conjuto de todas las sucesiones cuadrado sumables, al igual que la
sucesion {1/(n0 )}. En ambas sucesiones n = 1, 2, . . . . En consecuencia el producto
de estas sucesiones tambien es cuadrado sumable, por tanto
X
q

q
X
1
2
2
n0 An + Bn
=
An 2 + Bn 2
n
0
n=1
n=1

(B.2.70)

Tambien converge.
Si ahora usamos la desigualdad de Cauchy-Schwartz (B.1.8)
|h(An , Bn ); (cos(n0 t), sin(n0 t))i| k(An , Bn )k k(cos(n0 t), sin(n0 t))k
(B.2.71)
q
q
An cos(n0 t) + Bn sin(n0 t) An 2 + Bn 2 cos2 (n0 t) + sin2 (n0 t)
(B.2.72)
q
= An 2 + Bn 2
(B.2.73)
Con esto se puede comparar la serie
|A0 | +

|An cos(n0 t) + Bn sin(n0 t)|

(B.2.74)

n=1

con la serie convergente de constantes positivas


|A0 | +

q
X

An 2 + Bn 2

(B.2.75)

n=1

el M -test de Weierstrass (vea el Lema B.3) asegura por tanto que


A0 +

[An cos(n0 t) + Bn sin(n0 t)]

(B.2.76)

n=1

converge uniformemente en cualquier intervalo cerrado. Pero, por el lema de convergencia puntual antes visto, sabemos que esta serie converge a y(t) punto a punto.
222

334

Bases matem
aticas para las Series de Fourier

Ap
endice B

Con los resultados hasta aqu obtenidos estamos en condiciones ya de demostrar


que la norma del error que se comete al representar en serie de Fourier una funcion
seccionalmente continua tiende asintoticamente a cero.
Lema B.8. Sea y(t) una funci
on definida en (, ), de periodo T , seccionalmente continua y con primera derivada seccionalmente continua. Entonces, si yn (t)
es la n-esima suma parcial de su representaci
on en serie de Fourier, la norma del
error en (t) = y(t) yn (t) es tal que
lm ken (t)k = 0

(B.2.77)

Demostraci
on
Es directa de (B.2.54), ya que si tomamos y(t) en el intervalo [ T2 , T2 ], y denotamos por {t1 , t1 , . . . , tm } los puntos en que y(t) es discontinua dentro de el, entonces,
dado un > 0, para cada uno de los m+1 subintervalos ( T2 , t1 ), . . . , (tk , tk+1 ), . . . , (tm , T2 )
existe una constante Nk tal que
n > Nk |y(t) yn (t)| <
|en (t)| < t (tk , tk+1 )

(B.2.78)
(B.2.79)

Si elegimos N = max{Nk }k=1,...,m+1 podemos asegurar que


n > N |en (t)| < t {[ T2 , T2 ] {t1 , . . . , tk+1 }}

(B.2.80)

Por tanto
Z
ken (t)k2 =

T
2

T2

t1

=
T2

en 2 (t)dt

(B.2.81)
Z

en 2 (t)dt + . . . +

tk+1

Z
en 2 (t)dt + . . . +

tk

T
2

en 2 (t)2 dt

(B.2.82)

tm

< 2 (t1 ( T2 )) + . . . + 2 (tk+1 tk ) + . . . + 2 ( T2 tm ) = 2 T


(B.2.83)
Con esto podemos afirmar, que dado un peque
no siempre es posible escoger N
suficientemente grando de manera que |en (t)| < T , y por tanto converge a cero.
222
Corollario B.2. Identidad de Parseval
Si y(t) es una funci
on per
odica y A0 , A1 , ...An y B1 , ...Bn son los coeficientes
de su representaci
on en serie de Fourier, entonces
1
T

T
2

T2

y 2 (t)dt = A20 +

1 X 2
Ak + Bk2
2
k=1

(B.2.84)

Section B.2.

Convergencia de las Series de Fourier

335

Demostraci
on
Es directa de la ecuacion (B.2.23), donde como consecuencia del lema anterior
(B.2.77), la norma del error, ademas de ser positiva, tiende asintoticamente a cero.
Por tanto la desigualdad (B.2.14) se transforma en la identidad (B.2.84).

La serie de Fourier es solo una representacion de la funcion y(t), en el sentido que


converge al mismo valor que y(t) en los puntos que esta funcion es continua, y en
aquellos en que hay discontinuidades o saltos, la serie converge al promedio de
los lmites laterales. Note que estas diferencias entre la se
nal y su representacion
en serie de Fourier no son detectadas por la funcion de error minimizada, la cual
puede de todos modos alcanzar el valor mnimo (cero).

Apendice C

DE
LA TRANSFORMACION
FOURIER

C.1.
C.1.1.

Transformaci
on de Fourier en tiempo continuo
Definici
on de la Transformada

Dada una funcion y(t) en el intervalo ] , [ , su transformada de Fourier


Y ( ) y su transformada de Fourier inversa quedan definidas por las ecuaciones

y(t)e t dt

F [y(t)] = Y ( ) =

(C.1.1)

F 1 [Y ( )] = y(t) =

1
2

Y ( )e t d

(C.1.2)

Para que la transformada exista es suficiente que la funcion y(t) sea absolutamente integrable en el intervalo < t < , es decir:
Z

y(t) dt <

Existen funciones que a pesar de no cumplir con esta condicion, es posible calcular su transformada de Fourier.
Veamos a manera de ejemplo como se puede obtener la transformada de Fourier
del delta de Dirac, a partir de la transformada de un pulso como el del ejemplo 6.1
(pag. 117).
Ejemplo C.1. Consideremos un pulso centrado en el cero, de ancho y altura
1/, es decir, una funci
on
336

Section C.1.

337

Transformaci
on de Fourier en tiempo continuo

1
y (t) =
0

; |t| /2
; |t| > /2

Esta funci
on est
abien definida t ] , [, y el
area del pulso es unitaria
> 0. Su transformada de Fourier por tanto puede obtenerse, en base al ejemplo
6.1 ya mencionado, o por la definici
on (C.1.1) ser
a
Z

/2

1 t
e
dt
/2

1
2 e 2
=
e


sin
2
=

Y ( ) =

Puede apreciarse que a medida que 0, la funci


on se transforma en un
pulso mas alto y angosto, siendo esta funci
on una de las aproximaciones asint
oticas
del Delta de Dirac, pues es cero en todo instante, excepto t = 0, y su integral es
unitaria. En tanto, su trasnformada de Fourier se hace cada vez m
as plana. Estas
ideas se pueden apreciar en la figura C.1.
16

14

0.8
12

0.6
10

0.4

0.2
4

0.8 0.6 0.4 0.2 0

40

0.2

0.4

0.6
t

(a) Pulso y (t)

0.8

30

20

10

10

20
w

0.2

(b) Espectro Y ( )

1
.
Figura C.1. Pulso y su transformada para = 1, 41 , 16

Analticamente tenemos que en el lmite, cuando 0 :

30

40

338

La transformaci
on de Fourier

y (t)

Y ( ) =

C.1.2.

sin(
2 )

Ap
endice C

(t)

Y ( ) = 1

Propiedades de la Transformada de Fourier

Existen diversas propiedades de la transformada de Fourier que resultan de


mucha utilidad en el analisis frecuencial de se
nales y su relacion con los sistemas
lineales, que ademas permiten ontener la transformada de Fourier de una funcion a
partir de algunas mas basicas.
Lema C.1. Simetra.
Sea y(t) una funci
on definida t, cuya transformada de Fourier es Y ( ), entonces si consideramos la funci
on Y (t), en el dominio del tiempo ahora, su transformada de Fourier es
F{Y (t)} = 2y( )

(C.1.3)

Demostraci
on
Es directa de reemplazar Y (t) en la definici
on de la transformada y recordando
la ecuaci
on que define a y(t) como transformada inversa de Y ( )
Z

Y (t)e t dt

Z
1
= 2
Y (t)ejt() dt
2

F{Y (t)} =

= 2y( )
222
Ejemplo C.2. Consideremos una funci
on constante y(t) = C. Esta funci
on no es
absolutamente integrable, sin embargo, su transformada de Fourier puede obtenerse
en base a la transformada del Delta de Dirac:
F [y(t)] = F [C]
= C F [1]
= C 2()
= C 2()
Veamos ahora como se ve afectada la transformada de Fourier de una se
nal
cuando esta es desplazada en el tiempo, que puede ser el caso en que existe, por
ejemplo, retardo.

Section C.1.

339

Transformaci
on de Fourier en tiempo continuo

Lema C.2. Desplazamiento en el tiempo.


Si tenemos una funci
on y(t) definida para < t < , cuya transformada de
Fourier es Y ( ), entonces la transformada de Fourier de y(t t0 ) es
F{y(t t0 )} = e t0 Y ( )

(C.1.4)

Demostraci
on
Aplicando la definici
on de la Transformada de Fourier, para la funci
on y(t)
desplazada en el tiempo, tenemos que
Z

y(t t0 )e t dt
Z
t0
=e
y(t t0 )e (tt0 ) dt

F{y(t t0 )} =

Donde si se define t = t t0 se puede reescribir la integral como


Z

t0
F{y(t t0 )} = e
y(t )e t dt

= e t0 Y ( )
222
Ejemplo C.3. Si se aplica este lema al ejemplo 6.1, obtenemos que si el pulso de
amplitud A no est
a centrado en el origen, sino que se ha desplazado a la derecha,
ubic
andose en el intervalo [0, ] su transformada de Fourier ser
a

sin 2

F{y[0, ] (t)} = ejw 2 A

Si analizamos en que cambia realmente la transformada de Fourier del pulso al


desplazarlo en el tiempo, podemos apreciar que solo el angulo de Y ( ) es el que se
ve afectado, ya que su modulo permanece invariante. Esto era esperable ya que la
ubicacion del instante t = 0, cuando estamos considerando una funcion definida para
< t < , es arbitraria afectando solo las fases relativas de sus componentes en
frecuencia.
Veamos que pasa en la contraparte del lema de desplazamiento en el tiempo,
pero en el dominio de la frecuencia .
Lema C.3. Desplazamiento en la frecuencia.
Si tenemos, al igual que antes, una funci
on y(t) definida en toda la recta real,
es decir, para < t < , cuya transformada de Fourier es Y ( ), entonces
F{eat y(t)} = Y ( a)

;a C

(C.1.5)

340

La transformaci
on de Fourier

Ap
endice C

Demostraci
on
Si aplicamos la definici
on de la transformada a la funci
on y(t) multiplicada por
la exponencial peri
odica e 0 t tenemos que
Z
F{eat y(t)} =

eat y(t)e t dt
y(t)e( a)t dt

En que se puede definir = a


Z
F{eat y(t)} =

y(t)e t dt

= Y ( )
= Y ( a)
222
Ejemplo C.4. Con este lema podemos obtener la transformada de Fourier de una
exponencial peri
odica, considerando en la ecuaci
on (C.1.5) a = 0 :
0 t
0 t
F e
=F e
1
= 2( 0 )
= 2( 0 )
Ya que el delta de Dirac es diferente de cero s
olo en el punto en que su argumento
es igual a cero.
A partir de esta transformada, utilizando la ecuaci
on de Euler, se pueden obtener
sin problema la del coseno y del seno:

e 0 t + e 0 t
2

1 0 t
=
F e
+ F e 0 t
2
= [( + 0 ) + ( 0 )]

F [cos(0 t)] = F

e 0 t e 0 t
F [sin(0 t)] = F
2j

j
=
F e 0 t + F e 0 t
2
= j [( + 0 ) ( 0 )]

Section C.1.

341

Transformaci
on de Fourier en tiempo continuo

Este lema tiene importantes aplicaciones en el analisis de se


nales que se modulan
en frecuencia y aquellas que son periodicas, como puede apreciarse en los siguientes
corolarios.
Corollario C.1. Modulaci
on.
Si tenemos una se
nal y(t) definida para todo t R, cuyo espectro (transformada
de Fourier) es Y ( ), entonces
F{cos(0 t)y(t)} =

1
[Y ( 0 ) + Y ( + 0 )]
2

(C.1.6)

Demostraci
on
Esta es directa del lema anterior utilizando la ecuaci
on de Euler, es decir, escribiendo cos(0 t) con exponenciales peri
odicas. Esto es

F{cos(0 t)y(t)} = F

1 0 t
(e
+ e 0 t )y(t)
2

1
F{e 0 t y(t)} + F{e 0 t y(t)}
2
1
= (Y ( 0 ) + Y ( + 0 ))
2
=

222
Se deja al lector la demostracion del corolario que se obtiene por analoga en el
caso que en vez de cos(0 t) se utiliza sin(0 t).
Ejemplo C.5. En ambos casos de modulaci
on planteados, cosenoidal y senoidal,
al hacer el producto de una se
nal con una sinusoide se logra desplazar el espectro,
o contenido de frecuencias de la se
nal. Esto permite llevar, por ejemplo, se
nales de
contenido de baja frecuencia (como la voz humana, en la banda de 0 4[kHz]), a
bandas de frecuencia para transmisi
on radial (por ejemplo 1[MHz]).
Esta idea se muestra en la figura C.2
|F {y(t)}|

4[kHz]

|F{y(t)cos(2106 t)}|

1[M Hz]

Figura C.2. Espectro de una se


nal de frecuencias audible y espectro de la se
nal
modulada.

Corollario C.2. Funciones Peri


odicas.

342

La transformaci
on de Fourier

Ap
endice C

Si tenemos una se
nal peri
odica yT (t), en un intervalo de longitud T , esta no
es una funci
on absolutamente integrable y su transformada de Fourier no puede
obtenerse a traves de la definici
on (C.1.1). Sin embargo, sabemos ya que una se
nal
peri
odica podemos representarla mediante una Serie de Fourier (representaci
on en
el tiempo) ya sea trigonometrica o con exponenciales peri
odicas. En los desarrollos
realizados adem
as ya hemos encontrado las expresiones para las transformadas de
Fourier de una constante, del coseno, del seno y de una exponencial peri
odica, por
tanto, la transformada de Fourier de una se
al peri
odica se puede obtener:
"

F [yT (t)] = F

#
Cn e

n t

n=

En que n = n2/T , y por linealidad


F [yT (t)] =
=

X
n=

Cn F e n t
Cn ( + n )

n=

Ejemplo C.6. Consideremos el tren de pulsos de la figura C.3 definido por

; 0 |t| 2
+1
y(t) = 1
; 2 < |t|

y(t + 2) ; |t| >


y(t)
1

t
1

Figura C.3. Tren de pulsos


La integral del valor absoluto de la funci
on claramente diverge, y si intentamos
obtener la transformada de Fourier de esta funci
on utilizando la definici
on (C.1.1),
llegamos a una expresi
on difcil de simplificar. En cambio, la funci
on y(t) puede
expresarse mediante su serie de Fourier, que en este caso ser
a cosenoidal, pues y(t)
es par:

Section C.1.

343

Transformaci
on de Fourier en tiempo continuo

y(t) =

An cos(nt)

n=1

An =

y(t) cos(nt)dt

Calculando los coeficientes Bn , se obtiene

y(t) =

n
X
4
sin
cos(nt)
n
2
n=1

Luego,
Y ( ) =
=

n
X
4
sin
[( + n) + ( n)]
n
2
n=1

n
X
4
sin
( + n)
n
2
n=
n6=0

Es decir, los coeficientes An se transforman en las amplitudes de los deltas de


Dirac en el espectro Y ( ), como se puede apreciar en la figura C.4

1.2

0.6

0.8

0.4

0.6

0.4

0.2

0.2

10

10

0.2

0.4

0.2

(a) Coeficientes An

(b) Espectro Y ( )

Figura C.4.

10

344

La transformaci
on de Fourier

Ap
endice C

Lema C.4. Escalamiento.


Sea y(t) una funci
on definita para t ] , [, y a una constante real distinta
de cero, entonces
F{y(at)} =

1
Y (j )
|a|
a

(C.1.7)

Demostraci
on
Si reemplazamos la funci
on escalada y(at) en la definici
on de la integral, podemos
ah definir una nueva variable t = at, pero se debe tener en cuenta que el signo de
a determina si los lmites de la integral se mantienen o se deben intercambiar:
Z

F{y(at)} =

y(at)e t dt

t dt

y(t )e a

a
Z
=

t dt

y(t )e a
a

; si a > 0
; si a < 0

Dado que el cambio de orden en los lmites de la integral es un cambio de signo,


ambas expresiones pueden juntarse en una sola:
F{y(at)} =

signo(a)
a

y(t )ej a t dt

Que es lo mismo que


F{y(at)} =

1
Y (j )
|a|
a
222

A partir de este lema puede verificarse directamente que


F{y(t)} = Y ( )

(C.1.8)

A continuacion veamos algunas propiedades de la transformada de Fourier que


tienen directa relacion con la aplicacion de esta en la solucion de las ecuaciones diferenciales y el analisis de sistemas, que se refieren a la transformada de la derivada,
de la integral y de la convolucion de funciones.
Lema C.5. Derivaci
on en t.
Sea y(t) una funci
on definida en toda la recta real talque y(t) 0 cuando
t , y cuya transformada de Fourier es Y ( ) . Entonces, la transformada de
Fourier de la derivada de y(t) con respecto al tiempo es

Section C.1.

345

Transformaci
on de Fourier en tiempo continuo

d y(t)
F
= Y ( )
dt

(C.1.9)

Demostraci
on
Si se aplica la definici
on de la transformada de Fourier a la derivada
se integra por partes, se obtiene:
Z
d y(t)
d y(t) t
F
=
e
dt
dt
dt
Z

= y(t)e t
+

d y(t)
dt ,

y(t)e t dt

Y dada la condici
on asint
otica sobre y(t) cuando t , s
olo sobrevive el segundo
termino

Z
d y(t)
F
=
y(t)e t dt
dt

= Y ( )
222
Es importante hacer notar que este lema no garantiza la existencia de la transformada de la derivada temporal de y(t), sino que, en caso de existir, su expresion
puede obtenerse utilizando (C.1.9). Para las derivadas de orden superior en tanto,
tenemos el siguiente corolario, que se debe utilizar con la misma precaucion antes
mencionada:
Corollario C.3. Derivadas de orden superior
Para una funci
on y(t) definida como en el lema anterior, tenemos que
n

d y(t)
F
= ( )n Y ( )
(C.1.10)
dt n
Demostraci
on
Se deja al lector, pues es directa por inducci
on, aplicando recursivamente el lema
anterior.
222
Lema C.6. Transformada de la integral.
Sea y(t) una funci
on definida en todos los reales, cuya transformada de Fourier
es Y ( ). Entonces, la transformada de su integral definida es
Z t

1
Y ( ) + Y (0)()
(C.1.11)
F
y( )d =

346

La transformaci
on de Fourier

Ap
endice C

Demostraci
on
Para demostrar esta propiedad debemos en primer lugar observar que si definimos 1 (t) como la integral definida de y(t), entonces
d 1 (t)
d
=
dt
dt

y( )d

= y(t)
Pero tambien se cumple, para cualquier constante real k, que
d
(1 (t) + k) = y(t)
dt
Por tanto, aplicando Fourier y la ecuaci
on (C.1.9)
(1 ( ) + 2k()) = Y ( )
Luego, ya tenemos una forma para la transformada de la derivada, que es
1
Y ( ) 2k()
(C.1.12)

Por tanto nos resta encontrar el valor de k. Para esto consideremos nuevamente
la integral indefinida 1 (t)
1 ( ) =

1 (t) =

y( )d

Z
y( )d +

y( )d

Z t

y( )d

y(x)dx

Donde se ha cambiando la variable x = , en la segunda integral.


Si definimos
Z

2 (t) =

y(x)dx

2 ( ) =

1
Y ( ) 2k()

Es su transformada de Fourier, seg


un la forma (C.1.12). Entonces podemos
retomar la funci
on 1 (t), y aplicarle transformada de Fourier

Section C.1.

Transformaci
on de Fourier en tiempo continuo

347

y( )d 2 (t)
Z

1 ( ) = 2
y( )d () 2 ( )

1
1
Y ( ) 2k() = 2
y( )d ()
Y ( ) 2k()

1 (t) =

Donde si se observa que () = (), se puede despejar la constante k:


Z
1
y( )d
2
Z

1
y( )e d
=
2

=0
1
= Y (0)
2

k=

Por tanto
1 ( ) =

1
Y ( ) + Y (0)()

222

Ejemplo C.7. El lema anterior puede utilizarse para obtener la transformada del
escal
on unitario (t) o funci
on de Heaviside, a partir de la transformada del delta
de Dirac.
Dada la definici
on del Delta Dirac y de la funci
on de Heaviside, tenemos que
(
0
( )d =
1

;t < 0
;t > 0

= (t)
Por tanto,
Z

( )d

F [(t)] = F

1
=
F [(t)] + () F [(t)]|=0

1
=
+ ()

348

La transformaci
on de Fourier

Ap
endice C

Lema C.7. Convoluci


on en el tiempo.
Sean y1 (t) e y2 (t), dos funciones definidas para < t < , cuyas transformadas de Fourier son Y1 ( ) e Y2 ( ), respectivamente. Entonces, la transformada
de Fourier de la convoluci
on entre ellas es
F{y1 (t) y2 (t)} = Y1 ( )Y2 ( )

(C.1.13)

Recordando que la convoluci


on se define como:
Z
y1 (t) y2 (t) =
y1 ( )y2 (t )d

(C.1.14)

Demostraci
on
Insertando la expresi
on de la convoluci
on en la transformada se obtiene
Z

F{y1 (t) y2 (t)} =

y1 ( )y2 (t )d

e t dt

donde si se intercambia el orden de integraci


on
Z

F{y1 (t) y2 (t)} =

y1 ( )

y2 (t )e t dt d

Que usando la ecuaci


on (C.1.4) es igual a
Z

y1 ( ) e Y2 ( ) d

Z
= Y2 ( )
y1 ( )e d

F{y1 (t) y2 (t)} =

= Y2 ( )Y1 ( )
222
Veamos a continuacion cual es la transformada de Fourier de un producto de
funciones que puede resultar u
til para el calculo de la transformada de Fourier de
alguna funcion mas complicada.
Lema C.8. Producto de funciones.
Sean y1 (t) e y2 (t) funciones definidas para < t < , cuyas transformadas
de Fourier son Y1 ( ) e Y2 ( ), respectivamente. Entonces, la transformada de
Fourier del producto entre ellas es
F{y1 (t)y2 (t)} =

1
Y1 ( ) Y2 ( )
2

(C.1.15)

Section C.1.

349

Transformaci
on de Fourier en tiempo continuo

Demostraci
on
Consideremos la transformada de Fourier inversa de la convoluci
on de funciones
en
Z
1
Y1 ( ) Y2 ( )e t d
2

Z Z
1
=
Y1 (j)Y2 ( j)d e t d
2

F 1 {Y1 ( ) Y2 ( )} =

Intercambiando el orden de integraci


on
F

1
{Y1 ( ) Y2 ( )} =
2

Y1 (j)

Y2 ( j)e

d d

Donde si se define j =
F

1
{Y1 ( ) Y2 ( )} =
2
= 2

( +j)t

Y1 (j)
Y2 ( )e
d d

Z
Z
1
1
jt
j t

Y1 (j)e d
Y2 ( )e
d
2
2

= 2y1 (t)y2 (t)


Con lo que el lema queda demostrado.
222

Teorema C.1 (Teorema de Parseval. El caso de tiempo continuo). Sean


Y1 ( ) y Y2 ( ) las tranformadas de Fourier de las funciones (reales) y1 (t) e y2 (t)
respectivamente, definidas t ] , [. En tonces tenemos que
Z
Z
1
y1 (t)y2 (t)dt =
Y1 ( )Y2 ( )d
(C.1.16)
2

Demostraci
on
Esto se demuestra con ayuda del lema de convoluci
on en el tiempo (C.1.13).
Seg
un este tenemos que

y1 (t) y2 (t) = F 1 [Y1 ( )Y2 ( )]


Z

1
y1 ( )y2 (t )d =
Y1 ( )Y2 ( )e t d
2

350

La transformaci
on de Fourier

Ap
endice C

Si evaluamos en t = 0, queda
Z

y1 ( )y2 ( )d =

1
2

Y1 ( )Y2 ( )d

Donde si se reemplaza al lado izquierdo por t, y usamos la ecuaci


on (C.1.8)
que establece que F [y2 (t)] = Y2 ( ), entonces queda demostrado el lema.
222
Corollario C.4. Un caso especial del lema anterior es cuando se considera y1 (t) =
y2 (t) = y(t), con lo que la ecuaci
on (C.1.16) se transforma en
Z
Z
1
2
Y ( )Y ( )d
{y(t)} dt =
2

Pero dado que Y ( ) es el complejo conjugado de Y ( ), el integrando a la


derecha es la norma cuadrado de la transformada, es decir
Z
Z
1
2
2
{y(t)} dt =
|Y ( )| d
(C.1.17)
2

En la tabla C.1 se muestra un resumen de las propiedades hasta aqu revisadas


y que sirven para el calculo de la transformada de Fourier de las funciones mas
comunes, como las que se muestran en la tabla C.2

Section C.1.

f (t)
l
X

F [f (t)]
l
X

ai yi (t)

i=1

Descripcion

ai Yi ( )

Linealidad

i=1

dy(t)
dt

Y ( )

Derivacion

dk y(t)
dtk

( )k Y ( )

Derivadas superiores

1
Y ( ) + Y (0)()

Integracion

y(t )

e Y ( )

Retardo

y(at)

1
Y j
|a|
a

Escalamiento temporal

y(t)

Y ( )

Inversion temporal

Y1 ( )Y2 ( )

Convolucion

eat y1 (t)

Y1 ( a)

Desplazamiento en frecuencia

y(t) cos(o t)

1
{Y ( o ) + Y ( + o )}
2

Modulacion (cosenoidal)

y(t) sin(o t)

1
{Y ( o ) Y ( + o )}
j2

Modulacion (senoidal)

Y (t)

2y( )

Simetra

y( )d

351

Transformaci
on de Fourier en tiempo continuo

y1 ( )y2 (t )d

y1 (t)y2 (t)

1
2

Y1 (j)Y2 ( j)d

Producto en el tiempo

Cuadro C.1. Propiedades de la transformada de Fourier.

352

La transformaci
on de Fourier

f (t)

t R

F [f (t)]

2()

D (t)

(t)

() +

1 e to

(t) (t to )
et (t)

<{} R+

tet (t)

<{} R+

1
( )2

e|t|

Ap
endice C

R+

2
+ 2

cos(o t)

(( + o ) + ( o ))

sin(o t)

j (( + o ) ( o ))

cos(o t)(t)

(( + o ) + ( o )) +
2
2 + o2

sin(o t)(t)

j
o
(( + o ) ( o )) +
2
2
+ o2

et cos(o t)(t)

R+

+
( + )2 + o2

et sin(o t)(t)

R+

o
( + )2 + o2

Cuadro C.2. Tabla de tranformadas de Fourier

C.2.
C.2.1.

Transformada de Fourier en tiempo discreto


Definici
on de la transformada

Dada una funcion definida en tiempo discreto y[k] , en que k Z , su transformada de Fourier discreta Y (ej ) y su transformada de Fourier discreta inversa

Section C.2.

353

Transformada de Fourier en tiempo discreto

quedan definidas por las ecuaciones

Fd {y(t)} = Y (ej ) =

y[k]ejk

(C.2.1)

k=

1
Fd 1 Y (ej ) = y[k] =
2

Y (j)ejk d

(C.2.2)

La transformada Y (ej ) definida en (C.2.1) resulta ser periodica, de perodo


2, por tanto la integral que define la transformada inversa (C.2.2), puede calcular
en cualquier intervalo de longitud 2. De hecho, algunos textos la definen en el
intervalo [, ]
Para que la transformada exista es suficiente que la funcion y[k] sea absolutamente sumable en el intervalo < k < , es decir:

y[k] <
k=

Si bien existen funciones que no cumplen con esta condicion, a pesar de ello
poseen transformada de Fourier discreta.
A continuacion se muestran algunos ejemplos para ver como se obtiene la transformada de Fourier discreta para un delta de Kronecker, para una secuencia constante y para una exponencial decreciente discreta.
Ejemplo C.8. Consideremos primero la secuencia
(
1 ;k = 0
y[k] = K [k] =
0 ; k 6= 0
Es decir, un delta de Kronecker . Esta secuencia es absolutamente sumable,
por tanto se cumple la condici
ojn suficiente para la existencia de su transformada
discreta. Si calculamos esta usando la definici
on tenemos que la serie infinita se
traduce en un solo termino

Y (ej ) =

K [k]ejk

k=

= K [0]ej0
=1
Es decir, su transformada de Fourier discreta es constante. Podemos interpretar
esto de manera an
aloga al delta de Dirac en tiempo continuo, cuya transformada

354

La transformaci
on de Fourier

Ap
endice C

tambien es constante y representa un espectro plano, o igual contenido de frecuencias


en todo el espectro.
Ejemplo C.9. Consideremos ahora el caso opuesto en que tenemos una secuencia
constante que se escoge de amplitud uno por simplicidad. Es decir, la secuencia que
nos interesa es
y[k] = 1
k Z
Esta secuencia no es absolutamente sumable, ya que

k=

Sin embargo, si usamos la definici


on de la transformada tenemos que

Y (ej ) =

1 ejk

k=

En que la serie al lado derecho podemos interpretarla como una representaci


on
en serie exponencial de Fourier de alguna funci
on peri
odica, en que el coeficiente
es Ck = 1 , para todo k. Si recordamos, el coeficiente Ck en una serie de Fourier
exponencial para una funci
on peri
odica f () se calcula como

Ck =

1
T

T
2

f ()ej T

T2

Con lo que la funci


on se expresa como
f () =

Ck ej T

k=

De aqu podemos observar que el perodo de la funci


on peri
odica debe ser T = 2,
y para que la integral que define a Ck sea unitaria basta que la funci
on, dentro del
intervalo [, ] sea un delta Dirac de amplitud 2, centrado en = 0.
Es decir, la transformada de Fourier discreta de la secuencia constante y[k] = 1
es igual a

X
( 2n)
Y (ej ) = 2
n=

Esto se puede comprobar calculando la transformada de Fourier discreta inversa,


mediante la integral (C.2.2), que dada la periodicidad basta calcularla en cualquier

Section C.2.

Transformada de Fourier en tiempo discreto

355

intervalo de longitud 2
1
y[k] =
2
=

1
2
Z

Y (ej )ejk d

( 2n)ejk d

n=

()ejk d

=1

k Z

Ejemplo C.10. Consideremos ahora la se


nal
y[k] = k [k]

|| < 1

Su transformada de Fourier discreta ser


a

Y (ej ) =
=

X
k=0

k ejk
(ej )k

k=0

Que resulta ser una serie geometrica convergente ya que |ej | < 1. Por tanto
su suma es
Y (ej ) =

C.2.2.

1
1 ej

Propiedades de la transformada de Fourier discreta

A continuaci
on se detallan una serie de propiedades de la transformada de Fourier discreta que resultan u
tiles para la obtencion de algunas transformadas y para el
analisis de sistemas.
Lema C.9. Linealidad
La transformada de Fourier discreta es una transformaci
on lineal, es decir, si
y1 [k] e y2 [k] son dos secuencias definidas k Z, cuyas transformadas de Fourier
son Y1 (ej ) e Y2 (ej ) respectivamente, entonces
Fd {y1 [k] + y2 [k]} = Y1 (ej ) + Y2 (ej )

(C.2.3)

356

La transformaci
on de Fourier

Ap
endice C

Demostraci
on
Es directa de la definicion de la transformada (C.2.1), ya que

Fd {y1 [k] + y2 [k]} =

(y1 [k] + y2 [k])ejk

k=

y1 [k]ejk +

k=

y2 [k]ejk

k=

= Y1 (e ) + Y2 (e )
222
Lema C.10. Corrimiento en el tiempo.
Sea y[k] una secuencia de tiempo discreto definida k Z, cuya transformada
de Fourier es Y (ej ) , y sea k0 un n
umero entero, entonces
Fd {y[k k0 ]} = ejk0 Y (ej )

k0 Z

(C.2.4)

Demostraci
on
Consideremos la definicion de la transformada (C.2.1), y tomemos k0 Z, entonces

Fd {y[k k0 ]} =

y[k k0 ]ejk

k=

Sea k k0 = l, entonces k = l + k0 y reemplazando en la sumatoria


Fd {y[k k0 ]} =

y[l]ej(l+k0 )

l=

= ejk0

y[l]ejl

l=

=e

jk0

Y (ej )
222

Lema C.11. Corrimiento en frecuencia.


Sea y[k] una secuencia de tiempo discreto definida k Z, con transformada
Y (ej ) , y sea 0 < 0 < 2 un n
umero real, entonces consideremos la transformada
de la secuencia original multiplicada por una exponencial peri
odica

Section C.2.

Transformada de Fourier en tiempo discreto

Fd ej0 k y[k] = Y (ej(0 ) )

357

(C.2.5)

Demostraci
on
Para demostrar la propiedad anterior podemos considerar directamente la definicion (C.2.1)

Fd ej0 k y[k] =
ej0 k y[k]ejk

k=

y[k]ej(0 )k

k=

Sea 0 = , entonces reemplazando

Fd ej0 k y[k] =
y[k]ejk
k=

= Y (ej )
= Y (ej(0 ) )

Note que si la frecuencia 0


/ ]0, 2[ , es decir, se encuentra fuera de la banda
que hemos considerado hasta ahora, siempre puede escribirse de la forma
0 = 0 + 2n
En que 0 ]0, 2[ y n Z, con lo que
ej0 = ej(0 +2n) = ej0 e2n = ej0
Recordemos que es justamente por esto que a la exponencial periodica ej() le
hemos denominado tambien exponencial periodica.
222
Para ilustrar esto veamos un ejemplo
Ejemplo C.11. Considere la secuencia de tiempo discreto

2
y[k] = cos
k
10
Para calcular su transformada de Fourier discreta, en vez de usar la definici
on
podemos utilizar la propiedad (C.2.5), ya que el coseno puede escribirse en terminos
de exponenciales

358

La transformaci
on de Fourier

y[k] = cos

2
k
10

Ap
endice C

ej 10 k + ej 10 k
=
2

Ambas exponenciales peri


odicas las podemos pensar como la secuencia constante
y0 [k] = 1 multiplicada por la respectiva exponencial peri
odica. Es as como bajo este
punto de vista la transformada de Fourier discreta se puede obtener en unos pocos
pasos

o
2
1 n 2 o 1 n
2
Fd cos
k
= Fd ej 10 k + Fd ej 10 k
10
2
2

X
X
1
2
1
2
= 2
(
+ 2n) + 2
( +
+ 2n)
2 n=
10
2 n=
10
=

n=

X
2
2
+ 2n) +
+ 2n)
( +
10
10
n=

Si restringimos la expresi
on de la transformada a la banda que nos ha interesado,
es decir, [0, 2], tenemos que en ella s
olo existen dos de los deltas de Dirac

2
18
2

Fd cos
k
) + (
)
= (

10
10
10
0<<2

1.5

1.8
1

1.6

1.4
0.5

Y(ej)

y[k]

1.2

0.8
0.5

0.6

0.4
1

0.2

1.5
15

10

0
k

10

15

Figura C.5. Se
nal cosenoidal y[k] y su transformada discreta.
En la figura C.5, se muestra la secuencia peri
odica discreta y su espectro, es
decir, su transformada de Fourier discreta, formada por los dos deltas de Dirac en
el intervalo [0, 2].

Section C.2.

Transformada de Fourier en tiempo discreto

359

Como consecuencia del lema anterior, que expresa el corrimiento en frecuencia


que sufre el espectro de una secuencia discreta al ser multiplicado por una exponencial periodica tenemos el siguiente corolario. Este determina el efecto que tiene
sobre la transformada de Fourier discreta el modular una secuencia por alguna
sinusoidal.
Corollario C.5. Sea y[k] una secuencia discreta definida para < k < con
transformada Y (ej ), y 0 < 0 < 2 un n
umero real. Entonces
h
i
1
Y (ej(+0 + Y (ej(0 )
(C.2.6)
Fd {cos(0 k)y[k]} =
2
h
i
j
Fd {sin(0 k)y[k]} =
Y (ej(+0 Y (ej(0 )
(C.2.7)
2
Demostraci
on
Como se menciono anteriormente resulta de la aplicacion del lema anterior, ya
que tanto cos(0 k) como sin(0 k) pueden escribirse en terminos de exponenciales
periodicas.
Consideremos la ecuacion (C.2.6):

ej0 k + ej0 k
y[k]
2
1

1 j0 k
= Fd e
y[k] + Fd ej0 k y[k]
2
2
i
1h
j(0
=
Y (e
+ Y (ej(+0 )
2

Fd {cos(0 k)y[k]} = Fd

La demostracion de (C.2.7) resulta analoga, por lo tanto se deja como ejercicio


para el lector.
222
Lema C.12. Inversi
on temporal.
Sea y[k] una secuencia de tiempo discreto definida k Z, con transformada Y (ej ). Consideremos la transformada de la secuencia original invertida en el
tiempo, es decir
Fd {y[k]} = Y (ej )

(C.2.8)

Demostraci
on
Para demostrar la propiedad usamos la ecuacion (C.2.1), que define la transformada de Fourier discreta de una secuencia

Fd {y[k]} =

X
k=

y[k]ejk

360

La transformaci
on de Fourier

Ap
endice C

Sea l = k, entonces
Fd {y[k]} =
=

X
l=

y[l]ej(l)
y[l]ej()l

l=

= Y (ej )
222
Corollario C.6. Note que si la secuencia y[k] est
a compuesta s
olo por valores
reales, entonces
Fd {y[k]} = Y (ej )
(C.2.9)
En que () denota al complejo conjugado de ()
Demostraci
on
Se deja como ejercicio al lector.

222

En base a las propiedades ya anlizadas estamos en condiciones de ver el siguiente


ejemplo.
Ejemplo C.12. Veamos como obtener ahora la transformada de Fourier discreta
de un escal
on unitario en tiempo discrto, es decir, de la secuencia
(
0 ;k < 0
y[k] = [k] =
1 ;k 0
Para esto podemos apreciar que si definimos la secuencia
x[k] = [k] [k 1]
(
1 ;k = 0
=
0 ; k 6= 0
Es decir, resulta ser un delta de Kronecker. Esto tambien es v
alido, sin embargo,
si al escal
on [k] se le suma alguna constante, es decir
x[k] = [k] + C
x[k] x[k 1] = K [k]
Si aplicamos transformada de Fourier discreta a ambas ecuaciones anteriores y
utilizamos la propiedad de corrimiento en k

Section C.2.

361

Transformada de Fourier en tiempo discreto

X(ej ) = Fd {[k]} + C2

( 2n)

n=

X(ej ) ej X(ej ) = 1
De ambas ecuaciones se puede eliminar X(ej ) y despejar la transformada que
nos interesa

X
1
Fd {[k]} =

C2
( 2n)
1 ej
n=
Donde hemos obtenida la forma de la transformada del escal
on unitario discreto.
Para obtener el valor de la constante C, podemos escribir el mismo escal
on como
[k] = 1 [k] + K [k]
Donde podemos aplicar la transformada utilizando la forma de Fd {[k]} obtenida, la propiedad de simetra temporal, y las transformadas del delta de Kronecker y
la constante, antes obtenidas.
1
C S() = S()
1 ej

S()
+1
1 ej

En que
S() = 2

( 2n)

n=

Donde podemos apreciar que S() es simetrica respecto a = 0, por lo tanto


C 2S() = S() +

1
1
+
+1
j
1e
1 ej
|
{z
}
0

C 2S() = S()
1
C=
2
Luego, la transformada de Fourier discreta del escal
on [k] es
Fd {[k]} =

X
1
( 2n)
+

1 ej
n=

362

La transformaci
on de Fourier

Ap
endice C

Lema C.13. Sea y[k] una secuencia de tiempo discreto definida k Z, cuya
transformada es Y (ej ). Consideremos ahora la secuencia k y[k], su transformada,
s
olo en el caso que exista, es igual a

Fd {k y[k]} = j

d Y (ej )
d

(C.2.10)

Demostraci
on
Se debe tener cuidado al aplicar esta propiedad, pues no garantiza la existencia de la transformada de k y[k].
En caso de existir, podemos aplicar la transformada de Fourier inversa, usando
la ecuacion (C.2.2) :

Z 2
1
d Y (ej ) jk
d Y (ej )
Fd 1 j
=
j
e d
d
2 0
d
Donde se puede integrar por partes, eligiendo convientemente :

Z 2
j
d Y (ej )
d Y (ej )
Fd 1 j
=
ejk
d
d
2 0
d
2 j Z 2
j jk

=
e Y (ej )
Y (ej )jkejk d
2 |
2
0
0
{z
}
2

j
k
2

1
=k
2
|

0
2

Y (ej )ejk d

Y (ej )ejk d
{z
}
y[k]

222

Ejemplo C.13. Calculemos la transformada de Fourier discreta de la secuencia


y[k] = kk [k]

|| < 1

Podemos aplicar la propiedad recien vista dado que conocemos la transformada


de k [k]. De esta forma, tenemos que:

Section C.2.

Fd

d Fd k [k]
k [k] = j
d

1
d
=j
d 1 ej
1
=j
(jej )
(1 ej )2
ej
=
(1 ej )2
k

1.8

4.5

1.6

1.4

3.5

3
Y(ej)

y[k]

1.2

2.5

0.8

0.6

1.5

0.4

0.2

0.5

0
5

363

Transformada de Fourier en tiempo discreto

10
k

15

20

25

Figura C.6. Secuencia y[k] = k(0,8)k [k] y la magnitud de su TFD.


En la figura C.6 se muestra la secuencia discreta y el m
odulo de su transformada
discreta, cuando = 0,8

Lema C.14. Convoluci


on en tiempo discreto
Sean y1 [k] e y2 [k] dos secuencias definidas k Z, cuyas transformadas de
Fourier son Y1 (ej ) e Y2 (ej ) respectivamente, entonces la transformada de Fourier
discreta de la convoluci
on es :
Fd {y1 [k] y2 [k]} = Y1 (ej )Y2 (ej )

(C.2.11)

Demostraci
on
Recordemos en primer lugar que la convolucion de dos secuencias de tiempo
discreto y1 [k] e y2 [k] se define como :

364

La transformaci
on de Fourier

y1 [k] y2 [k] =

Ap
endice C

y1 [l]y2 [k l]

l=

Usando esta expresion en la definicion (C.2.1) tenemos que :



!

X
X
Fd {y1 [k] y2 [k]} =
y1 [l]y2 [k l] ejk
k=

l=

Donde se pueden intercambiar las sumatorias y usar la propiedad de corrimiento


en el tiempo discreto k :

Fd {y1 [k] y2 [k]} =


=

y1 [l]

l=

!
jk

y2 [k l]e

k=

y1 [l]ejl Y2 (ej )

l=

= Y2 (ej )

y1 [l]ejl

l=

= Y2 (ej )Y1 (ej )


222
Lema C.15. Producto en el tiempo discreto
Sean y1 [k] e y2 [k] dos secuencias definidas k Z, cuyas transformadas de
Fourier son Y1 (ej ) e Y2 (ej ) respectivamente, entonces la transformada de Fourier
discreta del producto de ellas es :
1
Fd {y1 [k]y2 [k]} =
2

Y1 (ej )Y2 (ej() )d

(C.2.12)

Demostraci
on
Reemplazando el producto de las secuencias en la definicion (C.2.1) tenemos que
:
Fd {y1 [k]y2 [k]} =

y1 [k]y2 [k]ejk

k=

Aqui podemos escribir una de las secuencias seg


un la ecuacion (C.2.2) que la
expresa como la transformada de Fourier inversa. Con esto e intercambiando de
orden la sumatoria con la integral que aparece tenemos que :

Section C.2.

365

Transformada de Fourier en tiempo discreto

Z 2

X
1
Y1 (ej )ejk d y2 [k]ejk
2 0
k=
!

Z 2
X
jk
1
j
jk
=
Y1 (e )
e y2 [k] e
d
2 0

Fd {y1 [k]y2 [k]} =

k=

Donde si usamos la propiedad de corrimiento en frecuencia tenemos que


Z 2
1
Fd {y1 [k]y2 [k]} =
Y1 (ej )Y1 (ej() )d
2 0
222
Teorema C.2 (Teorema de Parseval. El caso de tiempo discreto). Sean y1 [k]
e y2 [k] dos secuencias reales definidas k Z, cuyas transformadas de Fourier son
Y1 (ej ) e Y2 (ej ) respectivamente, entonces se cumple que:

X
k=

1
y1 [k]y2 [k] =
2

2
0

Y1 (ej )Y2 (ej )d

(C.2.13)

En que () denota el complejo conjugado de ().


Demostraci
on
En el lado izquierdo de la ecuaci
on (C.2.13) podemos reemplazar y1 [k], utilizando
la definici
on de la transformada de Fourier discreta inversa dada por la expresi
on
(C.2.2) :

X
k=

Z 2

X
1
j jk
y1 [k]y2 [k] =
Y1 (e )e d y2 [k]
2 0
k=

Aqui podemos intercambiar el orden entre la integral y la sumatoria, para luego


formar una expresi
on que corresponda a la transformada de y2 [k] como se aprecia
a continuaci
on :

X
k=

y1 [k]y2 [k]

1
=
2
1
=
2
1
=
2

Y1 (e )
0

Y1 (e )
0

Z
0

!
y2 [k]ejk

k=

!
y2 [k]e

k=
2

Y1 (ej )Y2 (ej )d

jk

366

La transformaci
on de Fourier

Ap
endice C

222
Corollario C.7. Si y[k] es una secuencia discreta definida k Z, con transformada Y (ej ), entonces se cumple que:

X
k=

| y[k] |2 =

1
2

| Y (ej ) |2 d

(C.2.14)

Demostraci
on
Es directa de la ecuaci
on (C.2.13) ya que
y[k] y [k] = | y[k] |2
Y (ej )Y (ej ) = | Y (ej ) |2
222

Section C.2.

Fd {y[k]} = Y (ej )

y[k] , k Z
l
X

367

Transformada de Fourier en tiempo discreto

l
X

i yi [k]

i=1

i Yi (ej )

Descripcion
Linealidad

i=1

y[k]

Y (ej )

Inversion temporal

y[k k0 ] , k0 Z

ejk0 Y (ej )

Corrimiento temporal

ej0 k y[k]

Y (ej(0 ) )

Corrimiento en frecuencia

cos(0 k)y[k]
sin(0 k)y[k]

i
1h
Y (ej(+0 ) + Y (ej(0 )
2
i
jh
Y (ej(+0 ) Y (ej(0 )
2

ky[k]

l=

y1 [k]y2 [k]

y1 [k]y2 [k]

k=

X
k=

| y[k] |2

1
2

1
2

Modulacion senoidal

d Y (ej )
d

Y1 (ej )Y2 (ej )

y1 [l]y2 [k l]

Modulacion cosenoidal

Y1 (ej )Y2 (ej() )d

Convolucion
Producto en el tiempo

2
0

1
2

Y1 (ej )Y2 (ej )d


2

| Y (ej ) |2 d

Teorema de Parseval
Teorema de Parseval

Cuadro C.3. Propiedades de la transformada de Fourier discreta.

368

La transformaci
on de Fourier

y[k]

Ap
endice C

Fd {y[k]} = Y (ej )

t R
K [k]

K [k k0 ]

ejk0

1 (k Z)

( 2n)

n=

[k]

X
1
+

( 2n)
1 ej
n=

k [k] (|| < 1)

1
1 ej
1
(1 ej )2

X
2
( 0 + 2n)

(k + 1)k [k] (|| < 1)


ej0 k

n=

cos(0 k)

[( + 0 + 2n) + ( 0 + 2n)]

n=

sin(0 k)

[( + 0 + 2n) ( 0 + 2n)]

n=

cos(0 k + )

X
j

e
( + 0 + 2n) + ej ( 0 + 2n)
n=

sin(c k)
k

Y0 (ej(+2n) )

n=

(
1 ; || < c
Y0 (e ) =
0 ; c < ||
2N +1

sin
21
sin 2
j

(
0
y[k] =
1

; |k| N
; |k| > N

kk [k] (|| < 1)

ej
(1 ej )2

Cuadro C.4. Tabla de tranformadas de Fourier discretas

Section C.2.

C.2.3.

369

Transformada de Fourier en tiempo discreto

Aspecto pr
actico: la transformada r
apida de Fourier

En las aplicaciones, en particular en el procesamiento digital de se


nales, no se
conoce la se
nal en forma analtica, sino que como una secuencia finita de valores
numericos. Lo mismo ocurre en otras aplicaciones, como en el procesameinto de
imagenes, en donde la variable independiente puede ser una (o mas) coordenada(s)
espacial(es).
Dado que la informacion es una secuencia, la descripcion de la se
nal en el dominio
de la frecuencia solo puede ser lograda a traves de la Transformada discreta de
Fourier. Sin embargo, el calculo de esta solo puede ser aproximado, puesto que la
se
nal esta definida por un n
umero finito de valores.
De esta forma, un problema central en la calidad de la aproximacion guarda
relacion con la medida en que la se
nal truncada representa las caractersticas espectrales de la se
nal a analizar. En este caso, estamos obteniendo una serie de Fourier
discreta que representa al tramo considerado de la secuencia y[k]. Recordemos que
seg
un lo visto en el captulo anterior sobre series, al calcular la serie de Fourier
discreta de una secuencia de largo N , obtenemos una representacion en terminos de
N exponenciales complejas de frecuencias 0 < 2, que resulta ser periodica. De
esta forma, dada una secuencia y[k] de longitud N , que puede provenir de una se
nal
de tiempo continuo muestreada cada [seg], es decir, y[k] = y(t = k), podemos
representarla como una suma de exponenciales complejas
y[k] =

N
1
X

Cn ejo nk ;

donde o =

n=0

2
N

(C.2.15)

donde
Cn =

N 1
1 X
y[k]ejo nk
N

(C.2.16)

k=0

Usualmente se define

WN = ejo = ej N

(C.2.17)

y la funcion
Hn = N C n =

N
1
X

y[k]WNnk

(C.2.18)

k=0

Con lo que la funcion se puede describir en terminos de los Hn seg


un
y[k] =

N 1
1 X
Hn WNnk
N n=0

(C.2.19)

A este par de ecuaciones, (C.2.18) y (C.2.19) se le denomina en muchos libros


como la Transformacion de Fourier Discreta1 y su inversa, por tanto debe tenerse
1 Discrete

Fourier Transform o DFT

370

La transformaci
on de Fourier

Ap
endice C

precaucion al consultar la literatura para evitar confusion con la denominacion que


hemos usado en este texto.
Si se observa la ecuacion (C.2.18) esta puede entenderse como un producto
matricial en que el vector Hn es igual al producto de la matriz {WN }n,k = {WNnk }
por el vector y[k]. Es decir


0(N 1)
WN00
WN01
...
WN
H0
y[0]
1(N 1)
H1
y[1]
WN10
WN11
...
WN

.. =
..
.
.
.
..

..
..
.

.
.
.

.
(N
1)0
(N
1)1
(N
1)(N
1)
y[N 1]
HN 1
W
W
... W
N

(C.2.20)
Hacer el producto matricial el lado derecho de la ecuacion anterior implica N 2
multiplicaciones complejas, ademas de las sumas respectivas para el calculo de cada
Hn . Tambien se requieren algunas operaciones mas para el calculo de las potencias
de WN . Es decir, podemos apreciar que el calculo de la DFT es un proceso O(N 2 )
2
.
Sin embargo, la matriz involucrada en (C.2.20) esta formada por potencias de
2
WN = ej N , por tanto todos sus componentes son alguna de las races N -esimas de
la unidad, distribuida en torno a la circunferencia unitaria. Esta simetra de hecho
es el camino para reducir el n
umero de calculos necesarios para el calculo de la
DFT. Los algoritmos que hacen uso de estas simetras se comenzaron a desarrollar
mas fuertemente a partir de mediados de los a
nos 60 y reciben el nombre generico
de transformada r
apida de Fourier o FFT por su denominacion en ingles3 .
Para maximizar el aprovechamiento de las simetras es conveniente elegir secuencias y[k] cuyo largo se una potencia de 2, es decir:
N = 2v

para algun v Z+

(C.2.21)

Esto no implica perder generalidad, pues en los casos en que no pueden tomarse
mas valores de la secuencia original podemos completar con ceros hasta la potencia
de 2 mas cercana (aunque ello significa la introduccion de un grado variable de
inexactitud).
Consideremos la forma en que se calcula el coeficiente Hn , seg
un la ecuacion
(C.2.18). Si tenemos una secuencia de longitud N par, podemos separarla en una
que contenga los valores de y[k] cuando k es par y otra para los k impares. Es decir:

Hn =

N
1
X

y[k]WNnk

(C.2.22)

k=0
N/21

X
r=0

2 Del

N/21
n(2r)
y[2r]WN

n(2r+1)

y[2r + 1]WN

(C.2.23)

r=0

orden de N 2 , es decir, si se duplica N el n


umero de c
alculos se cuadruplica !
Fourier Transform.

3 Fast

Section C.2.

371

Transformada de Fourier en tiempo discreto

Pero podemos apreciar que las nuevas secuencias, y[2r] e y[2r+1], son secuencias
de largo N/2, por lo que podra escribirse las sumatorias como la serie de Fourier
discreta modificada que les corresponde. Justamente esto sucede en forma natural
al observar que
n(2r)

WN

nr
= ej N n(2r) = ej N/2 nr = WN/2

(C.2.24)

Es decir, en la sumatoria aparecen las armonicas para secuencias de longitud


N/2. Con esta observacion la expresion para Hn queda
N/21

Hn =

N/21
n(2r)
y[2r]WN

r=0

=
=

r=0
Hnpar

WNn

(C.2.25)

r=0

N/21

n(2r)

y[2r + 1]WN

N/21
nr
y[2r]WN/2

WNn

nr
y[2r + 1]WN/2

(C.2.26)

r=0

+ WNn Hnimpar

(C.2.27)

Como antes mencionamos, para calcular los terminos Hn para una secuencia de
longitud N por el metodo directo, se requieren del aproximadamente N 2 multiplicaciones complejas en el producto matricial (C.2.20). Analogamente para calcular
cada uno de los terminos Hnpar y Hnimpar , que corresponden a secuencias de largo
N/2, requeriremos (N/2)2 multiplicaciones complejas para cada uno. Y para poder
formar cada uno de los N terminos Hn requerimos una u
nica multiplicacion compleja mas, seg
un (C.2.27).
Es importante hacer notar que dado que las secuencias y[2r] e y[2r + 1] son N/2
nr
periodicas en r, sus armonicas WN/2
, tambien lo son:
(l+N/2)

WN/2

l
= ej N/2 (l+N/2) = ej N/2 l ej2 = ej N/2 l = WN/2

(C.2.28)

Aplicando este nuevo enfoque para la secuencia de largo N necesitamos

N +2

N
2

2
N2

N 2

(C.2.29)

Sin embargo, y he aqu la facilidad que entrega el suponer que N es una potencia
de 2, las secuencias y[2r] e y[2r +1], tienen longitud par (N/2 tambien sera potencia
de 2), por tanto podemos aplicarles este mismo metodo. Es decir, cada una puede
separarse en dos subsecuencias de longitud N/4. Con esto el n
umero de calculos
necesarios seran

2 !
2
N
N
N
N +2
+2
=N +N +4
(C.2.30)
2
4
4

372

La transformaci
on de Fourier

Ap
endice C

Y as sucesivamente con las secuencias de largo N/4, que pueden subdividirse


en subsecuencias de largo N/8.
En general una secuencia de largo N = 2v , podemos subdividiras v = log2 N
veces en subsecuencias de longitud menor. Y en cada etapa se realizan N multiplicaciones complejas. Por tanto podemos afirmar que este algoritmo es del orden
de N log2 N . En la figura C.7 se muestra una comparacion del n
umero de multiplicaciones necesarias para calcular los terminos Hn de esta serie directamento
o mediante este nuevo algoritmo denominado FFT. Para una secuencia de largo
N = 1024 = 210 con el primer metodo requerimos 1048576 multiplicaciones, mientras que usando la transformada rapida se requieren solo 10240, es decir, 2 ordenes
de magnitud menor.
2500

2000

1500

1000

500

10

15

20

25
N

30

35

40

45

50

Figura C.7. Comparacion N 2 (x) y N log2 N (*)


Veamos a continuacion un ejemplo para ilustrar el uso de la transformada rapida
Ejemplo C.14. Considermos una secuancia discreta de longitud N = 8, cuyos
valores denominaremos y0 , y1 , y2 , y3 , y4 , y5 , y6 e y7 . Entonces usando la ecuaci
on
(C.2.27) tenemos que
Hn = Hnp + W8n Hni
En que Hnp y Hni son la serie formada por las subsecuencias pares e impares de
la secuencia original.

Section C.2.

373

Transformada de Fourier en tiempo discreto

Esto se representa en la figura C.8, donde sobre las lineas de flujo se coloca el
factor que une a los datos

H0p

W80

H1p

H0
H1

W81

H2p

H2

W82

H3p

H3

W83

H0i

W84

H1i

W85

H2i

W86

H3i

W87

H4
H5
H6
H7

Figura C.8. Primera etapa de la FFT para N = 8


Note en la figura se ha hecho uso de la periodicidad de Hnp y Hni ya que, por
ejemplo,
H4 = H4i + W84 H4p
Pero, por la periodicidad
H4p = H0p
H4i = H0i
Por lo tanto,
H4 = H0i + W84 H0p
De manera an
aloga, para calcular los terminos de Hnp y Hni podemos aplicar la
misma idea
Hnp = Hnpp + W82n Hnpi
Hni = Hnip + W82n Hnii
Donde ahora las series Hnpp , Hnpi , Hnip y Hnii est
an formadas por subsecuencias
de largo 2, y tambien son peri
odicas de perodo 2. Como se ve en el esquema de la
figura C.9

374

La transformaci
on de Fourier

H0pp
H1pp
H0pi
H1pi
H0ip
H1ip
H0ii
H1ii

H0

W80

W80

W82

W81

W84
W86

H2
H3

W83
W84

W82

W85

W86

H1

W82

W80

W84

Ap
endice C

W86
W87

H4
H5
H6
H7

Figura C.9. Primera y segunda etapa de la FFT para N = 8

Finalmente al subdividir nuevamente las secuencias quedan terminos individuales que corresponden a los 8 valores de la secuencia original considerada:
Hnpp = Hnppp + W84n Hnppi = y0 + W84n y1
Hnpi = Hnpip + W84n Hnpii = y2 + W84n y3
Hnip = Hnipp + W84n Hnipi = y4 + W84n y4
Hnii = Hniip + W84n Hniii = y6 + W84n y7
Estos productos calculos se agregan al esquema anterior, tal como se muestra en
la figura C.10, donde podemos apreciar claramente que en cada etapa se realizan 8
multiplicaciones complejas, totalizando un total de 24. En caso de haber hecho los
c
alculos de manera directa hubiera resultado necesario ralizar 82 = 64 multiplicaciones.

Section C.2.

375

Transformada de Fourier en tiempo discreto

y0
y1
y2
y3
y4
y5
y6
y7

W80
W84
W80
W84
W80
W84
W80
W84

H0

W80

W80

W82

W81

W84
W86

H2

W82

H3

W83

W80

W84

W82

W85

W84
W86

Figura C.10. Las tres etapas de la FFT para N = 8

H1

W86
W87

H4
H5
H6
H7

Apendice D

LA TRANSFORMADA DE
LAPLACE

D.1.
D.1.1.

Transformada de Laplace
Definici
on de la Transformada

Sea una se
nal de tiempo continuo y(t), 0 t < , entonces la Transformada
de Laplace asociada a y(t), y su transformada inversa estan definidas como
Z

L [y(t)] = Y (s) =

est y(t)dt

(D.1.1)

L1 [Y (s)] = y(t) =

1
2j

+j

est Y (s)ds

(D.1.2)

Y (s) es la transformada de Laplace de y(t). El par transformada y su inversa


estan bien definidas si existe R y una constante positiva k < tales que
|y(t)| < ket ; t 0

(D.1.3)

La region <{s} se conoce como la regi


on de convergencia de la transformada.
Asumimos que el lector ha conocido estas ideas anteriormente en alg
un curso de
matematicas, o bien puede consultar alg
un texto de ecuaciones diferenciales como
ref. a Blanchard??.
Ahora nos concentraremos en la importancia de esta transformada para el analisis de sistemas, por ejemplo, para determinar respuestas a condiciones inicialesy a
diferentes se
nales de entrada.
Lema D.1. Sea H(s) una funci
on racional estrictamente propia1 de la variable s
1 El orden del polinomio del numerador es estriciamente menor que el orden del polinomio en
el denominador

376

Section D.1.

377

Transformada de Laplace

con regi
on de convergencia <{s} > . SI denotamos como h(t) a su correspondiente funci
on temporal, i.e.
H(s) = L [h(t)]

(D.1.4)

Entonces, para cualquier z0 talque <{z0 } > , tenemos


Z
h(t)ez0 t dt = lm H(s)
sz0

(D.1.5)

Demostraci
on
De la definici
on de la transformada de Laplace tenemos que, para todo s en la
regi
on de convergencia de la transformada, i.e. en <{s} >
Z
H(s) =
h(t)est dt
(D.1.6)
0

Por lo tanto se tiene que z0 est


a en la regi
on de convergencia de la transformada.
222
Corollario D.1. En la ecuaci
on D.1.5 se observa que como condici
on necesaria
para la convergencia de la integral del lado izquierdo se debe cumplir que
lm h(t)est = 0

(D.1.7)

Resultado que ser


a usado posteriormente.
Ilustramos esto con un ejemplo:
Ejemplo D.1. Considere la se
nal
y(t) = e+2t

t0

(D.1.8)

Entonces, su transformada de Laplace puede calcularse resolviendo la integral (D.1.1)


o usando Maple :
> y(t):=exp(2*t);
> with(inttrans):
Y(s) := laplace(y(t),t,s);
Dentro de Maple existe el paquete inttrans, que define la transformada de
Laplace y de Fourier, junto a sus inversas, adem
as de otras transformaciones integrales. Las lneas de comando antes mostradas entregan como resultado
Y (s) =
Ahora considere

1
s2

para

<{s} > 2

(D.1.9)

378

La transformada de Laplace

Ap
endice D

Z
ez0 t y(t)dt

I(z0 ) =

(D.1.10)

Claramente para z0 = 3, tenemos


Z

Z
3t 2t

I(3) =

et dt = 1

e dt =

(D.1.11)

Note que esto se podra haberse obtenido como consecuencia de lema D.1 ya que
Y (3) =

1
=1
32

(D.1.12)

Sin embargo, si tomamos z0 = 1, entonces Y (1) = 1. Entonces claramente


I(z0 ) es . Esto est
a de acuerdo con el lema D.1 ya que z0 = 1 no est
a en el
interior de la regi
on de convergencia de la transformada.
222

D.1.2.

Propiedades de la Transformada de Laplace

La transformada de Laplace tiene propiedades muy u


tiles, las cuales se resumen
en la Tabla D.2 en la pagina 392. En esta seccion se demuestran algunas de estas.
Lema D.2. Linealidad
Sean y1 (t) e y2 (t) funciones continuas en (0, +), cuyas transformadas de
Laplace son Y1 (s) e Y2 (s), respectivamente. Entonces
L [y1 (t) + y2 (t)] = Y1 (s) + Y2 (s)

, C

(D.1.13)

Demostraci
on
Esta propiedad es directa dado que la transformada de Laplace esta definida
mediante la integral (D.1.1) :
Z

(y1 (t) + y2 (t))est dt


Z
Z
=
y1 (t)dt +
y2 (t)dt

L [y1 (t) + y2 (t)] =

= Y1 (s) + Y2 (s)
222

Section D.1.

379

Transformada de Laplace

Lema D.3. Derivada en t.


Sea y(t) una funci
on continua en (0, +) y sup
ongamos que
por tramos, entonces

d y(t)
dt

d y(t)
L
= sY (s) y(0 )
dt

es continua

(D.1.14)

Demostraci
on
Seg
un la definici
on tenemos:

Z
d y(t)
d y st
e dt
L
=
dt
0 dt
En esta si se integra por partes,
Z

= e y(t) + s
y(t)est dt
0
0

st
= lm e y(t) y(0 ) + sL [y(t)]
st

Si utilizamos el resultado (D.1.7) de la p


agina 377 obtenemos la expresi
on esperada:

d y(t
L
= sY (s) y(0 )
(D.1.15)
dt
222
Maple tambien es capaz de reconocer esta y otras propiedades, mediante los
comandos:
> with(inttrans):
laplace(diff(y(t),t),t,s);
s laplace(y(t), t, s) y(0)
Corollario D.2. Derivadas de orden superior.
Si se extiende este resultado, aplicando este lema recursivamente a las derivadas
de orden superior puede demostrarse que

d n1 y(0 )
d n y(t)
= sn Y (s) sn1 y(0 )
n
dt
dt n1

n Z+

(D.1.16)

donde Y (s) = L [y(t)]. Este resultado ser


a usado repetidamente para convertir
ecuaciones diferenciales en ecuaciones algebraicas en la variable s. Adem
as en la
ecuaci
on (D.1.16) se incluyen las condiciones iniciales de la funci
on y sus derivadas.

380

La transformada de Laplace

Ap
endice D

Ilustramos esto en el siguiente ejemplo, en que cada paso del desarrollo se acompa
na por los comandos en Maple correspondientes.
Ejemplo D.2. Considere la ecuaci
on diferencial
> edo :=

diff(theta(t),t,t)+2*diff(theta(t),t)=v_a(t)

d 2
d
+2
= va (t)
(D.1.17)
dt 2
dt
Si tomamos transformada de Laplace a ambos lados de la ecuaci
on y aplicamos
D.1.16 se obtiene
> EDO := laplace(edo,t,s);
) = Va (s)
s2 (s) + 2s(s) (s + 2)(0 ) (0
(D.1.18)

Suponiendo condiciones iniciales (0 ) = 0, (0 ) = 0 y que la entrada es un


escal
on unitario en t = 0. Entonces
> theta(0):=0;
D(theta)(0):=0;
v_a(t):=Heaviside(t);
Theta(s):=solve(EDO,laplace(theta(t),t,s));

1
(s) =
Va (s)
s2 + 2s

1
1
=
s2 + 2s s
Expandiendo en fracciones parciales obtenemos
> Theta(s):=convert(Theta(s),parfrac,s);
(s) =

1
1
1
+

4(s + 2) 2s2
4s

(D.1.19)

Aqu, aplicando los resultados de la Tabla D.2 (p


agina 392 ), la salida para t 0
es
> theta(t):=invlaplace(Theta(s),s,t);
(t) =

1
1 2t 1
e
+ t
4
2
4

(D.1.20)

Section D.1.

381

Transformada de Laplace

Lema D.4. Integral en t


Sea y(t) una funci
on continua en el intervalo (0, +) , con transformada de
Laplace L [y(t)] = Y (s), entonces
Z t

1
L
y( )d = Y (s)
(D.1.21)
s
0
Demostraci
on
Si reemplazamos la integral en la definicion de la transfomada (D.1.1), podemos
hacer una integral por partes:
Z

y( )d e|st
{zdt}
{z
} dv

y( )d =
0

est
=
y( )d

s 0
0
Z
1
=0+
y(t)est dt
s 0
t

y(t)
0

est
dt
s

222
Lema D.5. Derivada en s.
Sea y(t) una funci
on continua con L [y(t)] = Y (s), entonces
L [tn y(t)] = (1)n

d n Y (s)
ds n

Demostraci
on
Este resultado se establece derivando ambos lados de la ecuaci
on
Z

Y (s) =

y(t)est dt

y as` obtenemos
dY (s)
=
ds


y(t)est dt
s

ty(t)est dt

= L [t y(t)]

(D.1.22)

382

La transformada de Laplace

Ap
endice D

Y el lema se obtiene aplicando esto repetidamente aunque, en rigor, para intercambiar derivada con integral se requieren ciertas propiedades de regularidad.
222
Este lema puede resultar u
til para obtener la transformada de Laplace de funciones que aparecen multiplicadas por la variable t, como en el siguiente ejemplo.
Ejemplo D.3. Consideremos la funci
on y(t) = t2 y obtengamos su transformada
de Laplace.Seg
un la definici
on
Z
2
t2 est dt
L t =
0

Y para resolver se puede integrar por partes dos veces. Sin embargo, si se aplica
el lema D.5 tenemos

d2
L t2 1 = (1)2 2 L [1]
ds
d2 1
=
ds 2 s
1
d
2
=
ds
s
2
= 3
s
La propiedad en si y el ejemplo pueden realizarse en Maple , mediante los
siguientes comandos
>laplace(t*y(t),t,s);

laplace(y(t), t, s)
s

> y(t):= t^2;


laplace(y(t),t,s);
1
s3
Se deja al lector como ejercicio encontrar una expresi
on (no recursiva) para
L [tn ], usando el metodo de inducci
on.
2

Lema D.6. Desplazamiento en t.


Sea y(t a), a > 0 una versi
on desplazada de la funci
on y(t). Si (t a) es la
funci
on escal
on unitario que comienza en a, entonces
L [y(t a)(t a)] = esa Y (s)

(D.1.23)

Section D.1.

383

Transformada de Laplace

Demostraci
on
Dado que la funci
on escal
on unitario es igual a 0 antes de a y 1 despues, la
transformada de Laplace puede calcularse con la definici
on
Z

L [u(t a)y(t a)] =

Z0

(t a)y(t a)est dt
y(t a)est dt

Za

y(t)es(t+a) dt
Z

= esa
y(t)est dt
=

0
sa

= e

Y (s)

De donde se obtiene el resultado deseado.


222
Note que
L [y(t a)t a] 6= L [y(t a)(t)]
Por lo tanto la transformada de Laplace del lado derecho no puede obtenerse
con ayuda del lema D.6, sino en base a la definicion o usando otras propiedades.
Ejemplo D.4. Para ver una aplicaci
on de este lema obtengamos la transformada
de Laplace de un pulso p(t).

p(t) =

1
0

; si 0 t < a
; si t a

Esta se
nal puede escribirse usando la funci
on de Heaviside o escal
on unitario
(t) sin necesidad de definirla por tramos. En Maple
> assume(a>0);
p(t):=Heaviside(t)-Heaviside(t-a);

p(t) = (t) (t a)
Y usando la propiedad (D.1.23), o calculano con Maple , se obtiene
> P(s):=laplace(p(t),t,s);

384

La transformada de Laplace

Ap
endice D

1 1 as
e
s s

1
= 1 esa
s

P (s) =

Este ejemplo puede extenderse a cualquier funcion que este definida por tramos,
cuya transformada de otra forma se tendra que calcular separando la integral
(D.1.1) de la definicion.
Se deja al lector obtener una expresion para f (t)p(t) en que p(t) es el pulso del
ejemplo anterior, y f (t) es alguna funcion continua en el intervalo 0 < t < a. A
continuacion se presenta otro resultado relacionado con el desplazamiento temporal
de una funcion.
Lema D.7. Funci
on peri
odica.
Tomemos una funci
on perodica
y(t) =

yT (t nT )

(D.1.24)

n=0

en que yT (t) es cero fuera del intervalo [0, T ], es decir, yT (t) = [(t) (t
T )]y(t). Entonces la transformada de Laplace de y(t) es
L [y(t)] =

1
YT (s)
1 esT

(D.1.25)

en que YT (s) = L [yT (t)].


Demostraci
on
Si se utiliza el resultado del lema D.6, al aplicar transformada de Laplace a la
ecuaci
on (D.1.24) tenemos por linealidad

L [y(t)] =

enT s YT (s)

n=0

Y (s) = YT (s)

enT s

n=0

y si recordamos la suma de una serie geometrica,

1 lmn enT s
Y (s) = YT (s)
1 esT

Section D.1.

385

Transformada de Laplace

y dentro de la regi
on de convergencia lmn enT s 0
Y (s) =

1
YT (s)
1 esT
222

Lema D.8. Corrimiento en s


Sea y(t) una funci
on continua en el intervalo (0, +) , con transformada de
Laplace L [y(t)] = Y (s), entonces

L eat y(t) = Y (s a)

(D.1.26)

Demostraci
on
De la definicion (D.1.1), tenemos que

L eat y(t) =

Z0

eat y(t)est dt
y(t)e(sa)t dt

= Y (s a)
222
Lema D.9. Convoluci
on
Sean y1 (t) e y2 (t) funciones continuas en (0, +), talque son iguales a cero para
t < 0, cuyas transformadas de Laplace son Y1 (s) e Y2 (s), respectivamente. Entonces
la transformada de la convoluci
on entre y1 (t) e y2 (t) es:
L [y1 (t) y2 (t)] = Y1 (s)Y2 (s)

(D.1.27)

En que
Z
y1 (t) y2 (t) =

y1 ( )y2 (t )d

(D.1.28)

Demostraci
on
Si las se
nales son causales, es decir, su valor es cero t < 0, entonces podemos
reescribirlas

386

La transformada de Laplace

Ap
endice D

y1 (t) = (t)y1 (t)


y2 (t) = (t)y2 (t)
Con esto, la convolucion es equivalente a
Z
y1 ( )( )y2 (t )(t )d
y1 (t) y2 (t) =

Si reemplazamos esta forma en la definicion (D.1.1), podemos cambiar el orden


de las integrales:
Z
L [y1 (t) y2 (t)] =

0
Z

y1 ( )( )y2 (t )(t )d est dt


Z

st
y1 ( )( )
[y2 (t )(t )] e dt d

Donde se puede aplicar la propiedad de corrimiento en t:


Z

y1 ( )( )es Y2 (s)d
Z
= Y2 (s)
y1 ( )es d

L [y1 (t) y2 (t)] =

= Y2 (s)Y1 (s)
222
Lema D.10. Producto en t
Sean y1 (t) e y2 (t) funciones continuas en (0, +), cuyas transformadas de
Laplace son Y1 (s) e Y2 (s), respectivamente. Entonces la transformada del producto
entre y1 (t) e y2 (t) es:
1
L [y1 (t)y2 (t)] =
2j

+j

Y1 ()Y2 (s )d

(D.1.29)

Demostraci
on
Si reemplazamos el producto de las funciones dentro de la definicion de la transformada, podemos demostrar la propiedad escribiendo una de ellas como la transformada inversa de su transformada de Laplace:

Section D.1.

387

Transformada de Laplace

Z
L [y1 (t)y2 (t)] =

0
Z

=
0

y1 (t)y2 (t)est dt

Z +j
1
t
Y1 ()e d y2 (t)est dt
2j j

Intercambiando el orden de las integrales y usando la propiedad de corrimiento


s tenemos que

L [y1 (t)y2 (t)] =


=

1
2j
1
2j

+j

Y1 ()
j
+j

et y2 (t)est dt d

Y1 ()Y2 (s )d
j

222

Teorema D.1. . [Teorema del Valor Final y Teorema del Valor Inicial]
Existen dos resultados que permiten obtener relaciones entre comportamientos
asint
oticos de la funci
on y(t) y su tranformada Y (s). Estos se conocen como el
teorema del Valor Inicial y teorema del Valor Final.

(i) lm+ y(t) = lm sY (s)

(D.1.30)

(ii) lm y(t) = lm sY (s)

(D.1.31)

t0

s
s0

Las ecuaciones anteriores son v


alidas s
olo en caso que ambos lmites existan.

Demostraci
on
Las demostraciones se basan en resultados anteriores
(i) Teorema del Valor Inicial.
Supongamos primero que y(t) es continua en t = 0, i.e. y(0 ) = y(0+ ) = y = 0.
Si usamos la ecuaci
on (D.1.14) tenemos
Z

d y(t) st
e dt = sY (s) y(0 )
dt

388

La transformada de Laplace

Ap
endice D

pero la integral del lado izquierdo puede acotarse y usar la ecuaci


on (D.1.3)
Z

d y(t) st
e dt
dt

Z0

=k

d y(t) st

dt e dt
ket est dt

(s)t

s + 0

y dado que la integral existe en la regi


on de convergencia <{s}
Z

y si s entonces

k
s

d y(t) st
k
e dt
dt
s
0, de donde se obtiene
lm sY (s) = lm y(t)

t0+

Ahora si la funci
on y(t) no es continua, podemos definir

y(t) = y(t) y(0+ ) y(0 )

(D.1.32)

que si es continua. Si aplicamos transformada de Laplace a la derivada de y(t)


Z

d y(t) st
e dt = sY (s) y(0 )
dt

pero y(0 ) = y(0 ) es continua y aplicando Laplace a (D.1.32)


Z

h
d y(t) st
y(0+ ) y(0 ) i
e dt = s Y (s)
y(0 )
dt
s
= sY (s) y(0+ )

y nuevamente el lado izquierdo se hace cero cuando s .


222
(ii) Teorema del Valor Final.
Seg
un la ecuaci
on (D.1.14)
Z

d y(t)
dt = sY (s) y(0 )
dt

(D.1.33)

Section D.1.

389

Transformada de Laplace

si tomamos lmite cuando s 0 a ambos lados de la ecuaci


on,

d y(t) st
lm
e dt = lm sY (s) y(0 )
s0
s0
dt
0

(D.1.34)

Podemos intercambiar lmite e integral suponiendo ciertas condiciones de regularidad:


Z

d y(t)
lm est dt = lm sY (s) y(0 )
(D.1.35)
s0
s0
dt
0
Z
d y(t)
dt = lm sY (s) y(0 )
(D.1.36)
s0
dt
0
lm y(t) y(0 ) = lm sY (s) y(0 )
(D.1.37)
t

s0

lm y(t) = lm sY (s)

s0

(D.1.38)
222

Ejemplo D.5. Debe tenerse precauci


on de utilizar estos teoremas en caso solo
en que ambos limites existan tanto en el tiempo como en la variable compleja s.
Consideremos por ejemplo la transformada de Laplace de cos(0 t)
L [cos(0 t)] =

s2

s
+ 02

si utilizamos el teorema del valor final

lm

s0

s2
=0
s2 + 02

cuando en realidad sabemos que


lm cos(0 t) = @

222
Ejemplo D.6. Una distinci
on importante de hacer es que en el caso en que la
respuesta de un sistema sea discontinua en t = 0 el teorema del Valor Inicial entrega
el valor de la salida en t = 0+ el que puede no coincidir con la condici
on inicial
dada. Veamos esto en un ejemplo simple en que tenemos un circuito como el de la
figura D.1 en que se conecta la batera de 1[V] en t = 0, y todas las condiciones
iniciales son cero.
Por ley de voltajes de Kirchoff tenemos
vf (t) = vR (t) + vC (t)
Z
1 t
i( )d
(t) = Ri(t) +
C

390

La transformada de Laplace

Ap
endice D

R
+
vf (t)

vc (t)

i(t)
Figura D.1. Circuito RC

y si derivamos a ambos lados,


d i(t)
1
d (t)
=R
+ i(t)
dt
dt
C
Si aplicamos transformada de Laplace, y consideramos la condici
on inicial igual a
cero
s

1
1
= R sI(s) i(0 ) + I(s)
s
C

y despejando se obtiene
I(s) =

1
sR +

1
C

por tanto si aplicamos el teorema del valor inicial


i(0+ ) = lm sI(s)
s

s
s sR +
1
=
R
= lm

1
C

que evidentemente es diferente a la corriente inicial t = 0 . Esto se comprueba


observando que la transformada inversa de I(s) es discontinua en t = 0
i(t) = L1 [I(s)]

1/R
1
=L
s + 1/RC
1
= et/RC (t)
R

Section D.1.

391

Transformada de Laplace

La transformada de Laplace es una herramienta muy u


til en el estudio de sistemas dinamicos ya que pemite convertir las ecuaciones diferenciales, en el tiempo t, a ecuaciones algebraicas en la variable s.

f (t)
l
X

L [f (t)]
l
X

ai yi (t)

i=1

dk y(t)
dtk

sY (s) y(0 )
k

s Y (s)

Pk
i=1

ki

di1 y(t)
dti1 t=0

donde Y (s) = L [y(t)]


donde Y (s) = L [y(t)]

1
Y (s)
s

y( )d
0

Fi (s) = L [fi (t)]

i=1

dy(t)
dt

ai Yi (s)

Comentarios

dY (s)
ds

ty(t)

tk y(t)

(1)k

dk Y (s)
dsk

y(t )(t )

es Y (s)

eat y(t)

Y (s a)

k {1, 2, 3, . . .}
(t) :

escalon unitario

y1 ( )y2 (t )d
y1 (t)y2 (t)
lm y(t)

lm y(t)

t0+

Y1 (s)Y2 (s)
1
2j

y1 (t) = y2 (t) = 0 t < 0

+j

Y1 ()Y2 (s )d

Convolucion compleja

lm sY (s)

s0

y() debe estar bien definida

lm sY (s)

Cuadro D.1. Propiedades de la transformada de Laplace

392

La transformada de Laplace

f (t)

(t 0)

Ap
endice D

L [f (t)]

Region de Convergencia

1
s

>0

D (t)

|| <

(t )

es
s

>0

1
s2

>0

n!

tn

n Z+

et

1
s

> <{}

tet

1
(s )2

> <{}

s
s2 + o2

>0

o
+ o2

>0

cos(o t)
sin(o t)
et sin(o t + )

sn+1

s2

(sin )s + o2 cos sin


(s )2 + o2

>0

> <{}

2o s
+ o2 )2

>0

t cos(o t)

s2 o2
(s2 + o2 )2

>0

(t) (t )

1 es
s

|| <

t sin(o t)

(s2

Cuadro D.2. Transformadas de Laplace de algunas funciones simples

Section D.1.

D.1.3.

393

Transformada de Laplace

Descomposici
on en fracciones parciales

Las ecuaciones (D.1.1) y (D.1.2) dan una forma de describir se


nales y sistemas
en el dominio de la variable s y poder volver al dominio del tiempo. Sin embargo,
la ecuacion (D.1.2) pocas veces se usa para obtener la transformada de Laplace
inversa de una funcion. La transformada de Laplace de muchas de las se
nales que
nos interesan son funciones racionales en s, por lo tanto, generalmente se usa la
descomposicion en fracciones parciales para obtener su transformada inversa, por
comparacion con transformadas conocidas.
Tomemos una funcion racional en s, en que se conocen las races del polinomio
denominador, que llamaremos polos del sistema. En caso de no ser una funcion
estrictamente propia, siempre puede realizarse la division de los polinomios de forma
de tener un polinomio en s mas una funcion estrictamente propia.
Ejemplo D.7. Supongamos, para empezar, una funci
on con un polinomio denominador de segundo orden
As + B
(D.1.39)
s2 + Cs + D
No es simple determinar a priori la transformada inversa de esta expresi
on,
pero si se pueden determinar las races del denominador. Supongamos que estas
son s = 1 y s = 2 , con 1 6= 2 . El metodo de fracciones parciales pretende
expresar una funci
on racional como suma de funciones racionales m
as simples, que
en nuestro caso nos permite identificar desde una tabla su tranformada de Laplace
inversa.
As + B

Y1 (s) =
=
+
(D.1.40)
(s + 1 )(s + 2 )
s + 1
s + 2
H1 (s) =

Es decir, buscamos los coeficientes y . Para determinar estos lo primero que


puede hacerse es realizar la suma al lado derecho de (D.1.40) e igualar el polinomio
denominador resultante con el de la ecuaci
on (D.1.39)
As + B = ( + )s + 2 + 1

(D.1.41)

Estos polinomios son iguales si y s


olo si sus coeficientes son iguales:
+ = A
2 + 1 1 = B

(D.1.42)

Este sistema de ecuaciones puede resolverse obteniendo funalmente


A1 B
1 2
A2 + B
=
1 2

(D.1.43)

394

La transformada de Laplace

Ap
endice D

Finalmente teniendo estos valores de las constantes puede verse en la tabla D.2
la tranformada inversa

1
y1 (t) = L
+
= e1 t + e2 t
(D.1.44)
s + 1
s + 2
222
En el ejemplo anterior al descomponer la funcion racional (D.1.39) en dos fracciones (D.1.40), para encontrar las constantes se resolvio el sistema (D.1.42) de dos
ecuaciones y dos incognitas. Sin embargo, si el polinomio denominador es de orden
N el metodo desemboca en resolver un sistema de N ecuaciones y N inc
ognitas !.
Es por esto que en el siguiente ejemplo se muestra un metodo mas practico.
Ejemplo D.8. Consideremos el sistema
2s + 1
(D.1.45)
s3 + 3s2 4s
Del polinomio denominador pueden calcularse los polos del sistema. Estos se
ubican en s = 0, 4, 1, Por lo cual interesa descomponerlo en la forma
Y2 (s) =

s3

2s + 1

= +
+
2
+ 3s 4s
s
s+4 s1

(D.1.46)

Si multiplicamos por s ambos lados de la ecuaci


on
s2

s
s
2s + 1
=+
+
+ 3s 4
s+4 s1

Y ahora si hacemos s = 0 se obtiene directamente la primera constante

1
=
4

Ahora para el segundo termino de (D.1.46) podemos multiplicar por (s + 4) para


reemplazar luego por la segunda raz s = 4

"
#
2s + 1
(s + 4)
(s + 4)
++
=

s(s 1)
s
s1
s=4

s=4

7
=
20
De manera an
aloga pueden encontrarse la tercera constante, multiplicando por
(s 1) y reemplazando s = 1

#
"
2s + 1
(s 1) (s 1)
+
+
=

s(s + 4)
s
s+4
s=1

3
=
5

s=1

Section D.1.

Transformada de Laplace

395

Como puede verse este metodo de multiplicar por cada uno de los polinomios
factores del denominador, para luego reemplazar la variable s por la respectiva raz,
permite llegar de manera mucho m
as directa a los coeficientes de la descomposici
on
(D.1.46). Con ayuda de la tabla D.2 se obtiene finalmente
1
3
4
7
+ 20 + 5
y2 (t) = L1
s
s+4 s1
7 4t 3 t
1
+ e
= e
(D.1.47)
4 20
5
222
Se deja al lector verificar que la funci
on obtenida es la misma que se obtiene si
se aplica el metodo del ejemplo D.7.
Cabe destacar que en el ejemplo D.8 se ha aprovechado que al multiplicar por
cada factor del denominador (s ) y reemplazar por s = todos los terminos de
la descomposicion en fracciones parciales se hacen cero, excepto el coeficiente cor1
respondiente a s
. Sin embargo, en caso de existir races repetidas, aparecera una
indefinicion al reeplazar (s = ).
Ejemplo D.9. En el caso de races repetidas, la descomposici
on en fracciones parciales no toma la forma (D.1.40), sino que se descompone como
Y3 (s) =

As + B
=
+
(s )2
s (s )2

(D.1.48)

Note que en esta expresi


on solamente el coeficiente puede ser obtenido como
en el ejemplo D.8, Porque no puede obtenerse el coeficiente ? C
omo podra
obtenerse ?
Una manera simple de llegar a la forma (D.1.48) es forzando a que aparezca
el termino (s ) en el numerador, separar y luego simplificar como se muestra a
continuacion
A(s ) + (A + B)
(s + )2
A
A + B
=
+
s (s + )2

Y3 (s) =

(D.1.49)

Con lo cual puede obtenerse de la tabla D.2


y3 (t) = Aet + (A + B)tet

(D.1.50)
222

Cuando las races del polinomio denominador son n


umeros complejos, el metodo
visto en los ejemplos D.7,D.8 y D.9 puede aplicarse de igual forma. Los coeficientes
que se obtienen en este caso son complejos, pero ademas, dado que el polinomio

396

La transformada de Laplace

Ap
endice D

denominador tiene coeficientes reales, las races complejas aparecen siempre en


pares complejos conjugados2 , los coeficientes de la expansion en fracciones parciales
tambien son complejos conjugados. Esto asegura que las funciones exponenciales
complejas que se obtienen en (D.1.44) son iguales a sinusoidales multiplicadas por
exponenciales reales. Se deja al lector como ejercicio esta demostracion.
Ejemplo D.10. Cuando el denominador de una funci
on racional de la forma
(D.1.39) tiene races complejas se suele escribir como
Y4 (s) =

s2

As + B
;
+ 2n s + n2

0<1

(D.1.51)

Expresi
on en que se denomina factor de amortiguaci
on. Dado que en la tabla
D.2 tenemos s
olo expresiones en que el denominador es una suma de cuadrados,
podemos escribir la funci
on de la forma
Y4 (s) =

(s + n

As + B
p
+ (n 1 2 )2

)2

(D.1.52)

Y en el numerador de esta expresi


on puede construrse el termino (s + n ) para
luego separar en dos terminos
A(s + n ) + (An + B)
D(s)
A(s + n ) (An + B)
=
+
D(s)
D(s)

Y4 (s) =

p
A(s + n ) (An + B) (n 1 2 )
p
=
+
D(s)
D(s)
(0 1 2 )

(D.1.53)

en que el denominador es
D(s) = (s + n )2 + (n

1 2 )2

(D.1.54)

Y aplicando transformada de Laplace inversa se llega a


y4 (t) = Aen t cos n

1 2t +

p
(An + B) n t
p
e
sin n 1 2 t (D.1.55)
2
(n 1 )
222

Con estos ejemplos y un poco de practica no debiera resultar difcil obtener


transformadas de Laplace inversa de funciones racionales. En realidad hoy en da
cualquier software es capaz de obtener la expansion en fraccines parciales de una
2 Esto

como resultado del Teorema Fundamental del Algebra

Section D.1.

Transformada de Laplace

397

funcion racional3 , e incluso transformadas inversas de Laplace, por lo tanto, estos


calculos pueden dejarse para el computador cuando resulten demasiado engorrosos.
Por ejemplo, si usamos Maple para obtener la transformada de Laplace inversa
de la funcion racional (D.1.39), tenemos las siguientes lneas de comando que arrojan
el resultado que se aprecia mas adelante
> H(s) := (A*s+B)/(s^2+C*s+D):
h(t) := invlaplace(H(s),s,t);

1
1
e 2 Ct DA cos( 12 4 D C 2 t)
1 e 2 Ct C 3 B cos( 21 4 D C 2 t)
h(t) =
+4
2
(4 D C 2 ) D
4 D C2

1
1

12 Ct 2
Ct
e
C A cos( 2 4 D C 2 t) e 2 AC sin( 12 4 D C 2 t)

4 D C2
4 D C2

1
1
e 2 Ct CB cos( 12 4 D C 2 t)
e 2 Ct B sin( 12 4 D C 2 t)

2
+2
4 D C2
4 D C2

12 Ct
CB cos( 12 4 D C 2 t)
1 e
+
2
D
Es importante notar que Maple , en este caso, ha supuesto que el termino
4DC 2 es estrictamente positivo, es decir, que las races del polinomio denominador
son reales y distintas. En consecuencia, si bien el uso de software puede ayudar
bastante en un desarrollo matematico, lo fundamental es entender e interpretar lo
resultados que se obtienen.

3 Use

el comando residue de MATLAB

398

La transformada de Laplace

Y (s)

y(t) = L1 [Y (s)] ; t 0

D (t)

e s , > 0

D (t )

1
s

(t)

1
, n {2, 3, . . .}
sn

tn1
(n 1)!

k
s+

ket

e s
, > 0
s+

e(t ) (t )

a1 s + a0
(s + 1 )(s + 2 )

C1 e1 t + C2 e2 t
C1 =

a1 s + a0
(s + )2

1 a1 a0
1 2

; C2 =

h
i
et C1 cos(0 t) + C2 sen(0 t)
C1 = a1 ; C2 =

k
s(s + )
a1 s + a0

s (s + )2 + 02

2 a1 +a0
1 2

a1 et + (a0 a1 )tet

a1 s + a0
(s + )2 + 02

Ap
endice D

a0 a1
0

k
1 et
a
h

i
t
1

e
C
cos(
t)
+
C
sin(
t)
1
0
2
0
2

a0
+ 0

C1 = a0 ; C2 =

a0 a1 (2 +02 )
0

Cuadro D.3. Transformadas inversas de Laplace u


tiles

Apendice E

LA TRANSFORMACION
ZETA

E.1.

Definici
on de la Transformaci
on

Dada una se
nal de tiempo discreto f [k], 0 k < . La transformacion Zeta,
y la transformacion Zeta inversa, estan definidas por

Z [f [k]] = F (z) =

f [k]z k

(E.1.1)

k=0

1
[F (z)] = f [k] =
2j

I
f (z)z k1 dz

(E.1.2)

La curva cerrada sobre la que se calcula la transformada Zeta inversa (E.1.2)


se elige de forma que para todos los valores de z sobre , la sumatoria en (E.1.1)
converge. Esto implica que depende de f [k], tal como se determina, en forma
constructiva, a continuacion.
La transformacion Zeta es la contraparte discreta de la Transformacion de
Laplace. Su justificacion surge de la necesidad de cubrir un rango mas amplio de
se
nales que el que puede ser tratado usando al transformacion de Fourier. En el
caso de la transformacion Zeta la transicion se puede describir como

X
k=

f [`]ej`

X
f [`]
k=0

|z|`

ej` ;

|z| >

(E.1.3)

Donde podemos definir z = |z|ej , y donde se denomina radio de convergencia


de la transformacion.
Observe que, por un lado, hemos reducido la sumatoria al intervalo k N y
que por otro, hemos dividido la funcion f [`] por |z|` . Una eleccion adecuada de
puede hacer que en muchos casos en que la sumatoria de la izquierda no converge,
399

400

La Transformaci
on Zeta

Ap
endice E

la suma de la derecha s lo haga. Por ejemplo, la se


nal f [k] = (1, 5)k [k] no tiene
transformada de Fourier, pero si tiene transformada Zeta, para ello, basta elegir
|z| > 1, 5.
Para obtener (E.1.2), que describe la formula de la Transformacion Zeta inversa,
podemos recurrir a la idea de ortogonalidad. Si ambos lados de la ecuacion (E.1.1)
son multiplicados por z k = |z|k ejk , y luego integramos en el intervalo [0; 2], se
obtiene
Z

F (z)z k d =

f [k]|z|k`

ej(k`) d

(E.1.4)

`=0

Por otra parte, sabemos que las exponenciales periodicas 1, ej , ej2 , ej3 , . . .
forman un conjunto de funciones ortogonales, ya que
(
Z 2
0
k 6= `
jk j`
j(`k)
e
he , e i =
d =
(E.1.5)
2 k = `
0
Con este resultado, (E.1.4) se simplifica a
f [k] =

1
2

F (z)z k d

(E.1.6)

Finalmente podemos reemplazar la integral con respecto a por una integral


respecto de z. Primero notamos que
dz
d |z|ej
1
=
= jz = d =
dz
d
d
jz

(E.1.7)

Luego, reemplazando la expresion para d en (E.1.6) se llega a la ecuacion


(E.1.2). Note que como recorre el intervalo [0; 2], nuestra primera interpretacion
de en (E.1.2) es la de una circunferencia de radio mayor que . La teora de variables complejas permite demostrar que es suficiente que sea una curva cerrada
que encierre completamente la circunferencia de radio mayor que .
Ilustremos el calculo de la transformada Zeta y su inversa mediante un par de
ejemplos:
Ejemplo E.1. Considere la se
nal
y[k] = k [k]

(E.1.8)

Entonces, su transformada Zeta est


a dada por la serie geometrica:

X
1 (z 1 )k
Z k [k] =
k z k =
(z 1 )k = lm
k 1 (z 1 )
k=0

k=0

Donde la expresi
on al lado derecho converge si y s
olo si

(E.1.9)

Section E.2.

401

Propiedades de la Transformada Zeta

|z 1 | < 1 |z| > ||

(E.1.10)

Entonces, en esta regi


on tenemos que

Z k [k] =

z
1
=
1 z 1
z

(E.1.11)
222

E.2.

Propiedades de la Transformada Zeta

La transformada Zeta posee una serie de propiedades, las cuales se resumen en


la Tabla E.1 en la pagina 409. En esta seccion se revisan algunas de ellas.
Lema E.1. Linealidad
Sean y1 [k] e y2 [k] dos secuencias discretas definidas para k [0, +), cuyas
transformadas Zeta son Y1 (z) e Y2 (z), respectivamente. Entonces
Z [y1 [k] + y2 [k]] = Y1 (z) + Y2 (z)

, C

(E.2.1)

Demostraci
on
Esta propiedad se demuestra sin problema ya dado que la transformada Zeta se
define mediante la integral (E.1.1) :

L [y1 [k] + y2 [k]] =

(y1 [k] + y2 [k])z k

k=0

y1 [k]z

k=0

y2 [k]z k

k=0

= Y1 (z) + Y2 (z)
Se debe hacer notar que en este caso la region de convergencia de la combinacion
lineal de las transformadas es la intersecci
on de la region de convergencia de cada
una por separado.
222

Lema E.2. Escalamiento en z.


Sea y[k] una secuencia de tiempo discreto en que k (0, +), y sup
ongamos
que tenemos a C, entonces
z

Z ak y[k] = Y
a

(E.2.2)

402

La Transformaci
on Zeta

Ap
endice E

Demostraci
on
Seg
un la definicion tenemos:

z k
z
X

X
Z ak y[k] =
ak y[k]z k =
y[k]
=Y
a
a
k=0

(E.2.3)

k=0

En este caso la region de convergencia de la nueva transformada tambien resulta


escalada.
222

Ejemplo E.2. Consideremos la transformada Zeta calculada para la secuencia del


ejemplo E.1, que establece
y1 [k] = k [k] Y1 (z) =

z
z

; || < 1

Si ahora consideramos la secuencia


y2 [k] = k y1 [k] = [k]
Su transformada Zeta, aplicando (E.2.2) es
z
1
= Y1 (z)
z
=
z
z
=
z1

Y2 (z) = Y1

Que converge si y solo si |z| > 1.


Ejemplo E.3. Consideremos ahora la secuencia que corresponde a una oscilaci
on
de amplitud creciente o decreciente dependiendo del par
ametro r.
y[k] = rk cos(0 k)
Su transformada Zeta puede obtenerse escribiendo el coseno en terminos de
exponenciales complejas
y[k] =

1 j0 k
(re ) + (rej0 )k )
2

Usando el teorema, tenemos que

Section E.2.

403

Propiedades de la Transformada Zeta

1 j0 k
Z (re ) + Z (rej0 )k )
2

1
z
z
=
+
2 z rej0
z rej0

1
z(2z 2r cos 0 )
=
2 z 2 z2r cos 0 + r2
z(z r cos 0 )
= 2
z z2r cos 0 + r2

Y (z) =

Lema E.3. Conjugaci


on.
Sea y[k] una secuencia discreta en que 0 k < cuya transformada Zeta es
Y (z). Entonces, la transformada Zeta de la secuencia conjugada es
Z [y [k]] = Y (z )

(E.2.4)

Demostraci
on
Directa de la definicion (E.1.1)

Z [y [k]] =

y [k]z k

k=0

!
y[k](z )k

= {Y (z )}

k=0

222
Lema E.4. Desplazamientos en k.
Sea y[k] una secuencia discreta en que 0 k < cuya transformada Zeta es
Y (z). Entonces, dado un entero k0 > 0, tenemos los siguientes resultados para la
transformada Zeta de la secuencia y[k] desplazada
Z [y[k k0 ]] = Y (z)z k0 + y[1]z k0 +1 + . . . + y[k0 + 1]z 1 + y[k0 ] (E.2.5)

Z [y[k + k0 ]] = Y (z)z k0 y[0]z k0 + y[1]z k0 1 + . . . + y[k0 1]z


(E.2.6)
Demostraci
on
Consideremos primero el caso en que la secuencia ha sido retrasada en k0 , es
decir, la ecuacion (E.2.5). Si usamos la definicion de la transformada (E.1.1), y la
escribimos por extension, tenemos que

404

La Transformaci
on Zeta

Z [y[k k0 ]] =

Ap
endice E

y[k k0 ]z k

k=0

= y[k0 ] + y[k0 + 1]z 1 + . . . + y[1]z k0 +1 +

y[k k0 ]z k

k=k0

Si definimos en la sumatoria l = k k0 , entonces tenemos que k = l + k0 . Por


tanto si reordenamos al lado derecho de la u
ltima igualdad tendremos que

Z [y[k k0 ]] =

y[l]z (l+k0 ) + y[1]z k0 +1 + . . . + y[k0 + 1]z 1 + y[k0 ]

l=0

=z

k0

!
y[l]z

+ y[1]z k0 +1 + . . . + y[k0 + 1]z 1 + y[k0 ]

l=0

Donde la ecuacion (E.2.5) queda demostrada.


Consideremos ahora el caso en que la secuencia y[k] es adelantada en k0 . Reemplazando en la definicion tenemos que

Z [y[k + k0 ]] =
=

y[k + k0 ]z k

k=0

y[l]z (lk0 )

l=k0

"

=z

k0

y[l]z

y[0] + y[1]z 1 + . . . + y[k0 1]z k0 +1

l=0

y[l]z l y[0]z k0 + y[1]z k0 1 + . . . + y[k0 1]z

l=0

Lo cual demuestra la segunda ecuacion del lema, (E.2.6).


222
Es importante observar que si la secuencia y[k], retrasada en k0 , ademas se
multiplica por un escalon unitario, tambien desplazado en k0 , entonces tendremos
que
Z [y[k k0 ][k k0 ]] = Y (z)z k0
Ya que, en este caso, todas las condiciones iniciales seran iguales a cero.

(E.2.7)

Section E.2.

405

Propiedades de la Transformada Zeta

Ejemplo E.4. Determine la transformada Zeta inversa de


Y (z) =

z k0
z

Esta transformada se puede reescribir de manera de poder aplicar la ecuaci


on
(E.2.7)
z
z
y[k] = k(k0 +1) [k (k0 + 1)]
Y (z) = z (k0 +1)

Lema E.5. Derivaci


on en z
Sea y[k] una secuencia en tiempo discreto para k (0, +) , con transformada
Zeta Z [y[k]] = Y (z), entonces
Z [k y[k]] = z

d Y (z)
dz

(E.2.8)

Demostraci
on
De la definicion (E.1.1), tenemos que

Z [k y[k]] =
=

ky[k]z k

k=0

ky[k]z k

k=0

= z

(k)y[k]z k1

k=0

d Y (z)
= z
dz
222
Ejemplo E.5. Consideremos el caso en que la secuencia discreta a la cual queremos
calcularle su transformada Zeta es una rampa de tiempo discreto, es decir:
y[k] = k[k]
Seg
un (E.2.8) su transformada ser
a

406

La Transformaci
on Zeta

Ap
endice E

d
z
Z [k[k]] = z
dz z 1
(z 1) z
= z
(z 1)2
z
=
(z 1)2

Lema E.6. Convoluci


on
Sean y1 [k] e y2 [k] dos secuencias discretas causales, es decir, iguales a cero para
k < 0. Supongamos que sus transformadas Zeta son Y1 (z) e Y2 (z), respectivamente.
Entonces la transformada de la convoluci
on discreta entre y1 [k] e y2 [k] es:
L [y1 [k] y2 [k]] = Y1 (z)Y2 (z)

(E.2.9)

En que
y1 [k] y2 [k] =

k
X

y1 [l]y2 [k l]

(E.2.10)

l=0

Demostraci
on
Si las se
nales son causales, es decir, su valor es cero k < 0, entonces podemos
reescribirlas
y1 [k] = [k]y1 [k]
y2 [k] = [k]y2 [k]
Con esto, la convolucion es equivalente a

y1 [k] y2 [k] =

y1 [l][l]y2 [k l][k l]

l=

Si reemplazamos esta forma en la definicion (E.1.1), podemos cambiar el orden


de las sumatorias:

L [y1 [k] y2 [k]] =

k=0

X
l=

!
y1 [l][l]y2 [k l][k l] z k

l=

y1 [l][l]

X
k=0

!
y2 [k l][k l]z

Section E.2.

407

Propiedades de la Transformada Zeta

Donde se puede aplicar la propiedad de corrimiento en k (E.2.7) y reducir la


sumatoria eliminando el [l]:

L [y1 [k] y2 [k]] =

y1 [l][l]z l Y2 (z)

l=

= Y2 (z)

y1 [l]z l

l=0

= Y2 (z)Y1 (z)
222
Teorema E.1 (Teorema del Valor Final y Teorema del Valor Inicial).
Existen dos resultados que relacionan el comportamiento asint
otico de la funci
on
y[k] y su tranformada Y (z). Estos se conocen como el teorema del Valor Inicial y
teorema del Valor Final en tiempo discreto.
lm Y (z) = y[0]

(E.2.11)

lm (z 1)Y (z) = lm y[k]

(E.2.12)

z
z1

Las ecuaciones anteriores son v


alidas s
olo en el caso que los lmites existen,
tanto en k como en z.
Demostraci
on
La ecuaci
on (E.2.11) se demuestra f
acilmente observando la definici
on de la
transformada Zeta de la secuencia y[k] escrita por extensi
on

Y (z) =

y[k]z k

k=0

= y[0] + y[1]z 1 + . . . + y[k]z k + . . .


La cual, si se lleva al lmite z se reduce a un solo termino
lm Y (z) = lm y[0] + lm y[1]z 1 + . . . + lm y[k]z k + . . .
z
z
z
{z
}
|
{z
}
|

= y[0]
Con lo que se demuestra el Teorema del Valor Inicial.

408

La Transformaci
on Zeta

Ap
endice E

Para demostrar la ecuaci


on (E.2.12) consideremos la transformada Zeta de la
secuencia adelantada en una unidad menos la secuencia original
Z [y[k + 1] y[k]] = Z [y[k + 1]] Z [y[k]]
= zY (z) zy[0] Y (z) = (z 1)Y (z) zy[0]
Por otro lado, si aplicamos la definici
on tendremos que

Z [y[k + 1] y[k]] = lm

k
X
(y[l + 1] y[l])z l
l=0

Si igualamos ambas expresiones y hacemos posteriormente tender z 1 , tendremos que


(
)
k
X
l
lm {(z 1)Y (z) zy[0]} = lm lm
(y[l + 1] y[l])z
z1

z1

lm {(z 1)Y (z)} y[0] = lm

z1

l=0

k
X

(y[l + 1] y[l])

l=0

lm {(z 1)Y (z)} y[0] = lm (y[k + 1]) y[0]

z1

Donde el u
ltimo paso al lado derecho se justifica ya que la sumatoria corresponde
a una serie telescopica. De esta forma se demuestra el Teorema del Valor Final, o
valor de equilibrio.

La transformada Zeta es muy u


til en el estudio de sistemas dinamicos de tiempo discreto, ya que pemite convertir las ecuaciones recursivas, que definen al
sistema en el tiempo k, a ecuaciones algebraicas en la variable z.

Section E.2.

y[k]
l
X

409

Propiedades de la Transformada Zeta

Y (z) = Z [y[k]]
l
X

ai yi [k]

i=1

Comentarios

ai Yi (z)

i=1

k y[k]

C, <{} > 0

y [k]

Y (z )

Conjugacion

y[k k0 ]

z k0 Y (z) + y[1]z k0 +1 + . . . + y[k0 ]

k0 Z+

y[k + k0 ]

z k0 Y (z) (y[0]z k0 + . . . + y[k0 1]z

k0 Z+

y[k k0 ][k k0 ]

z k0 Y (z)

k0 Z+

ky[k]
k
X

y1 [l]y2 [k l]

dY (z)
dz

Y1 (z)Y2 (z)

Convolucion en k

lm Y (z)

T. del Valor Inicial

lm (z 1)Y (z)

T. del Valor Final

l=0

y[0]
lm y[k]

z1

Cuadro E.1. Propiedades de la transformada Zeta

410

La Transformaci
on Zeta

y[k]

Y (z) = Z [y[k]]

Region de Convergencia

K [k]

z C

z
z1

|z| > 1

z
(z 1)2

|z| > 1

z
z

|z| > ||

ej0 k

z
z ej0

|z| > 1

cos(0 k)

z(z cos 0 )
z 2 2z cos 0 + 1

|z| > 1

sin(0 k)

z sin 0
z 2 2z cos 0 + 1

|z| > 1

k cos(0 k)

z(z cos 0 )
z 2 2z cos 0 + 2

|z| > ||

k sin(0 k)

z sin 0
z 2 2z cos 0 + 2

|z| > ||

cos(0 k + )

z 2 cos z cos cos 0 + sin sin 0


z 2 2z cos 0 + 1

|z| > 1

1 (z 1 )N
1 z 1

|z| > 0

(
k
0

(k 0)

Ap
endice E

;0 k < N
;k N

Cuadro E.2. Transformada Zeta de algunas funciones simples

Apendice F

MATRICES. DEFINICIONES Y
PROPIEDADES

En este apendice se establecen las bases metamaticas necesarias para algunos de


los desarrollos presentados en los captulos del libro. Estos se refieren principalmente
a las definiciones de algunos tipos especiales de matrices y a sus propiedades asociadas. Tambien se presentan otras propiedades u
tiles para simplificar desarrollos o
trabajar, por ejemplo, con matrices definidas por bloques.

F.1.

Conceptos B
asicos

Intuitivamente se puede decir que una matriz no es mas que un arreglo rectangular de filas y columnas, cuyos elementos puedes ser n
umero, funciones u otros
objetos matematicos, entre los cuales se encuentren definidos la suma y la multiplicacion. De esta forma entre las matrices se pueden definir algunas operaciones
basicas, como la suma, la resta y el producto por un escalar, y otras en que se
deben hacer ciertas definiciones especiales, como la multiplicacion (y su operacion
inversa, la division).
Sin embargo, puede ser bueno formalizar lo que entenderemos en el presente
apendice por matriz:
Definici
on F.1. Una matriz es un arreglo de n m objetos pertenecientes a un
cuerpo K, dispuestos rectangularmente en n filas y m columnas.
Definici
on F.2. Cada uno de los objetos que forman parte de la matriz se denominan elementos de la matriz, y se denotan por aij en que el subndice representa
su ubicaci
on dentro del arreglo: aij es el elemento que se encuantra sobre la i-esima
fila y en la j-esima columna.
Una matriz se denotara por A = {aij } y se puede representar como el arreglo
rectangular de n
umeros, entre parentesis redondos o de corchetes:
411

412

Matrices. Definiciones y Propiedades

A = {aij }

i=1...n ; j=1...m

a11
a21

= .
..

a11
a22
..
.

...
...
..
.


a1m
a11
a21
a2m

.. = ..
. .

a11
a22
..
.

...
...
..
.

an1

an2

...

anm

an2

...

an1

Ap
endice F

a1m
a2m

..
.
anm
(F.1.1)

En que todos los elementos de la matriz pertenecen al cuerpo, es decir:


aij K

i {1, . . . , n}, j {1, . . . , m}

(F.1.2)

El conjunto K sera por lo general el conjunto de los n


umeros reales R o de los
n
umeros complejos C.
Recordemos que
Definici
on F.3. Un conjunto K, junto a dos operaciones denominadas suma y
multiplicacion se denominan un cuerpo, si y solo si
1.

El conjunto K con la operaci


on suma o adicion (+) cumplen las siguientes
propiedades:
Para todo a, b, c K se tiene que
a)
b)
c)
d)
e)

2.

a + b K , existe cerradura.
a + (b + c) = (a + b) + c , es decir, existe asociatividad.
0 K tal que a + 0 = 0 + a = a , es decir, existe el cero o elemento
neutro aditivo.
a, (a) K tal que a + (a) = a + a = 0, es decir, existe el
inverso aditivo.
a + b = b + a , es decir, existe conmutatividad.

El conjunto K con la operaci


on multiplicacion () satisfacen las siguientes
propiedades:
Para todo a, b, c K se tiene que
a)
b)
c)
d)
e)
f)
g)

a b K , es decir, existe cerradura.


a (b c) = (a b) c , es decir, existe asociatividad.
1 K tal que a 1 = 1 a = a , es decir, existe el uno o elemento
neutro multiplicativo.
0 K tal que a 0 = 0 a = 0
, es decir, existe la propiedad
absorBente del cero.
a, a1 K tal que a a1 = a1 a = 1, es decir, existe el inverso
multiplicativo.
a b = b a , es decir, existe conmutatividad.
a (b + c) = a b + a c , es decir, existe la distributividad de la
multiplicaci
on respecto a la adici
on.

Section F.1.

413

Conceptos B
asicos

Tipos de Matrices
Definici
on F.4. Una matriz formada por n filas y 1 columna se denomina vector
columna
En base a esta definicion podemos decir tambien que una matriz de n m
esta formada por m vectores columna, de n elementos cada uno.
Definici
on F.5. Una matriz formada por 1 fila y m columnas se denomina vector
fila
Analogamente a lo anterior, en base a esta definicion podemos decir que una
matriz de n m esta formada por n vectores fila, de m elementos cada uno.
En general, cuando se defina un vector de dimension p nos referiremos a un
vector columna formado por p elementos.
Definici
on F.6. Dada una matriz A = {aij } de dimensiones n m, la matriz
B = {ij}, de dimensiones m n, es la traspuesta de A, si y solo si bij = aji i, j.
Es decir B es una matriz cuyas columnas son las filas de A, y se denota por AT
Ejemplo F.1. Dada la matriz A

A=

1
2

0
5

8
3

(F.1.3)

su traspuesta es

1
AT = 0
8
Definici
on F.7. Una matriz se demomina
n
umero de filas que de columnas.

2
5
3

(F.1.4)

cuadrada si y solo si tiene igual

Definici
on F.8. Una matriz A = {aij } se denomina diagonal si y solo si es
cuadrada y aij = 0 i 6= j , es decir, todos los elementos fuera de la diagonal
principal de la matriz son cero.
Notar que de la definicion se desprende que si A es diagonal, entonces A = AT
Definici
on F.9. Una matriz A = {aij } se denomina triangular superior si y
solo si es cuadrada y aij = 0 i > j , es decir, todos los elementos bajo la diagonal
principal de la matriz son cero.
Definici
on F.10. Una matriz A = {aij } se denomina triangular inferior si y
solo si es cuadrada y aij = 0 i < j , es decir, todos los elementos sobre la diagonal
principal de la matriz son cero.
Notar que de si A es una matriz triangular superior, entonces AT es triangular
inferior, y vice-versa.

414

Matrices. Definiciones y Propiedades

Ap
endice F

Rango de una matriz


Previo a esta seccion se sugiere al lector revisar en el apendice B, la seccion correspondiente a espacios vectoriales en que se definen los conceptos de combinacion
lineal y vectores linealmente independientes.
Definici
on F.11. Se define como rango columna de una matriz A al m
aximo
n
umero de columnas linealmente independientes.
Analogamente,
Definici
on F.12. Se define como rango fila de una matriz A al m
aximo n
umero
de filas linealmente independientes.
En base a estas definiciones, tenemos que
Definici
on F.13. Se define como rango de una matriz A al mnimo entre su rango
fila y su rango columna.
Finalmente,
Definici
on F.14. Una matriz se dice que es de rango completo si su rango es
igual su n
umero de filas o a su n
umero de columnas.
Determinante de una matriz
Para las matrices cuadradas se puede definir el calculo de su determinante, que
tiene directa relacion con el rango de la matriz, la existencia de su inversa, as como
con sus autovectores y autovalores, que se revisan mas adelante.
Una definicion formal puede ser
Definici
on F.15. Dada una matriz A cuadrada, es decir, de dimensiones n n,
su determinante es un escalar asociado a la matriz que se denota por
|A| = det(A)

(F.1.5)

Para explicar como se calcula el determinante de una matriz, en primer lugar se


define para el caso de una matriz de 2 2.
Definici
on F.16. Sea A una matriz de 2 2, es decir,

a11 a12
A=
; aij K
a21 a22

(F.1.6)

Entonces,
|A| = det(A) = a11 a22 a21 a12
Ejemplo F.2.

(F.1.7)

Section F.1.

415

Conceptos B
asicos

Para matrices formadas por un u


nico elemento, su determinante es ese mismo
elemento:
det


aij = aij

(F.1.8)

Para expresar el determinante de una matriz cuadrada de dimension n > 2,


revisaremos primero algunas definiciones necesarias:
Definici
on F.17. Dada una matriz A de n n, entonces se define Mij como el
ij-esimo menor de A, y que es una matriz de (n 1) (n 1) que se obtiene al
elimina la i-esima fila y la j-esima columna de A
Ejemplo F.3.
Definici
on F.18. Dada una matriz A de n n, entonces se define Cij como el
ij-esimo cofactor de A, y que est
a dado por
Cij = (1)i+j det(Mij )

(F.1.9)

En que Mij es el ij-esimo menor de A.


Ejemplo F.4.
Con estas nuevas definiciones estamos en condiciones de definir el determinante
de una matriz de n n:
Definici
on F.19. Dada una matriz de n n, entonces su determinante se puede
calcular desarrollando a traves de su i-esima fila:
det(A) = ai1 Ai1 + ai2 Ai2 + . . . + ain Ain
n
X
=
aik Aik

(F.1.10)
(F.1.11)

k=1

O bien, a traves de su j-esima columna


det(A) = a1j A1j + a2j A2j + . . . + anj Anj
n
X
=
akj Akj

(F.1.12)
(F.1.13)

k=1

En ambos casos, Aij es el ij-esimo cofactor de la matriz A, por lo cual este


metodo se denomina desarrollo mediante cofactores.
Ejemplo F.5. Para matrices de 33, si se desarrolla por la primera fila, el metodo
se reduce a:

416

Matrices. Definiciones y Propiedades

a11

a21

a31

a12
a22
a32

a13
a

a23 = a11 22
a32
a33

a
a23
a12 21
a33
a31

a
a23
+ a13 21
a33
a31

a22
a32

Ap
endice F

(F.1.14)

Es importante notar que para que el calculo del determinante de la matriz A,


en la Definicion F.19, para reducir el n
umero de calculos necesarios es conveniente
elegir la fila o la columna de la matriz que contenga el mayor n
umero de ceros.
Ejemplo F.6. Si la matriz A tiene una fila o una columna formada solo por ceros,
entonces det(A) = 0.
Ejemplo F.7. Si la matriz A de nn es diagonal o triangular(superior o inferior),
entonces det(A) = a11 a12 . . . ann

F.2.

Operaciones con matrices

Suma de matrices
Dos matrices, A = [aij ] y B = [bij ], se pueden sumar si y solo si ambas matrices
tiene las mismas dimensiones. Si se cumple esa condicion, entonces, la suma A+B =
C queda definida por
C = A + B = [cij ]

donde

cij = aij + bij

(F.2.1)

Note que la suma de matrices es conmutativa.

F.2.1.

Mutiplicaci
on de una matriz por un escalar

Si es un escalar y A = [aij ] es una matriz n m, entonces el producto A es


una matriz M = [mij de la misma dimension que A y donde mij = aij .
Operaciones con matrices: suma, producto escalar.
Las matrices como espacio vectorial.
Producto matricial e inversa de una matriz.
Lema de Inversion Matricial.
Autovalores, Autovectores y diagonalizacion.
Formas Cuadraticas y Matrices definidas positivas

BIBLIOGRAPHY

[1] B.D.O. Anderson and John Moore. Optimal filtering. Prentice Hall, Englewood
Cliffs, N.J., 1979.
[2] R.C. Dorf and R. Bishop. Modern Control Systems. Prentice Hall, Englewood
Cliffs, New Jersey, 9th edition, 1997.
[3] G.F. Franklin and J.D. Powel. Digital Control of Dynamics Systems. AddisonWesley, second edition, 1990.
[4] Graham C. Goodwin, Stefan Graebe, and Mario E. Salgado. Control System
Design. Prentice Hall, New Jersey, 2001.
[5] K. Ogata. State Space Analisys of Control Systems. Prentice-Hall, Inc., Englewood Cliffs, New Jersey, 1967.
[6] H.H. Rosenbrock. State Space and Multivariable Theory. John Wiley and Sons,
New York, 1970.
[7] D.G. Schultz and J.L. Melsa. State Function and Linear Control Systems. McGraw Hill Book Company, New York, 1967.
[8] D.W. Wiberg. Theory and Problems of State Space and Linear Systems. McGraw
Hill Book Company, New York, 1971.
[9] Lotfi A. Zadeh and Charles A. Desoer. Linear System Theory: the state space
approach. McGraw Hill Book Company, New York, 1963.
[10] K. Zhou. Essentials of Robust Control. Prentice Hall, Englewood Cliffs, New
Jersey, 1998.
[11] K. Zhou, G. Salomon, and E. Wu. Balanced realization and model reduction for
unstable systems. International Journal of Robust and Nonlinear Control, 9:183
198, 1999.

417

Indice de nombres

Bode, xi
Euler, 24, 29
Heaviside, 20
Hurwitz, 96
Kalman, R.E., xi
Nyquist, xi
Routh, xi, 96
Taylor, 113

418

Indice de materias

angulo de desfase, 86, 102


angulo entre vectores, 323
Zeta
transformacion, 190
alcanzabilidad, 275
descomposicion canonica, 281
test de, 276
amplitud, 86, 102
aperiodicas
se
nales, 116
armonicas, 92
autovalores, 38, 264
bilineal
transformacion, 205
bloques, 234
diagramas de, 234
Bode, 215
aproximaciones, 217
asntotas, 217, 219
diagramas de, 215
factores canonicos, 216
cancelacion, 181
cuasi-cancelacion, 181
causalidad, 58
ceros, 179, 210
de fase no mnima, 177, 209
rapidos, 181
circunferencia unitaria, 203
cofactor, 417

completamente observable, 284


condiciones iniciales, 1, 59
constante de tiempo, 23
constantes indeterminadas, 38, 65
contrarespuesta, 182, 213
controlabilidad, 275
perdida de, 277
test de, 276
convolucion, 51, 77
crculo unitario, 68
decada, 216
decibel, 216
delta de Dirac, 20
delta de Kronecker, 26
desfase, 92
desigualdad triangular, 322
Desplazamiento en el tiempo, 340
Desplazamiento en frecuencia, 341
detectabilidad, 291
determinante, 416
diagrama polar, 223
disco unitario, 68
discretizacion, 59, 258
distancia, 322
dualidad, 290
ecuacion caracterstica, 37, 63
ecuacion de recursion, 58
ecuacion diferencial del sistema, 33
elimina banda, 134
entrada, 1
error, 97
419

420
errores en las variables, 304, 311
escalon
respuesta a, 161, 199
escalon unitario, 20, 26
espacios de estado, 237
espectro continuo, 121
espectro de lnea, 92, 108
espectro en frecuencia, 92
estabilidad, 65, 171, 203
estabilizable
sistema, 282
estado, 237
del sistema, 238
observable, 284
variables de, 238
trayectoria, 239
estado inicial, 3
estado, espacio de , 238
estado, vector de, 238
exponencial, 22, 27
creciente, 23, 27
exponencial imaginaria, 25
factor de amortiguamiento, 183
factores canonicos, 216
fase, 86, 102
fase mnima, 177
fase mnima , 209
forma canonica
controlable, 282
del controlador, 283
fracciones parciales, 395
frecuencia, 86, 102
frecuencia angular, 86, 102
frecuencia de corte, 134
frecuencia fundamental, 92
frecuencia natural
amortiguada , 183
dominante, 41, 69
no amortiguada, 183
frecuencias de corte, 136
frecuencias naturales, 38, 65
funcion muestreo, 21

Indice de materias

funcion de transferencia, 124, 156, 157,


191, 195
bipropia, 158, 196
ceros, 158, 195
con retardo, 159
estrictamente propia, 158, 195
grado relativo, 158, 176, 195
impropia, 158
multiplicidad, 158
polos, 158
propia, 158, 196
funcion de transferencia
polos, 195
funcion de transferencia estable, 177,
209
ganancia, 42, 70
ganancia a continua, 42, 70
gradiente, 305, 312
gramiano
controlabilidad, 279
gramiano de controlabilidad, 279
Heaviside
operador, 35
homogeneidad, 5
homogenea
respuesta, 246
Hurwitz
polinomio, 173
impulso
respuesta a, 161, 199
impulso unitario, 20, 26
independencia lineal, 91
integrador, 6
interconexion de sistemas, 234
Jury
algoritmo de, 206
laplace, 155
linealizacion, 8
Lyapunov
ecuaciones, 280

421

Indice de materias

lmite de estabilidad, 172, 203


matrices, 413
suma de, 418
matriz
cuadrada, 415
de transicion, 245
diagonal, 415
triangular inferior, 416
triangular superior, 416
cofactor, 417
definicion, 413
determinante, 416
elementos, 413
menor, 417
rango, 416
traspuesta, 415
matriz de transicion, 262
matriz de transicion
discreta, 262
menor, 417
modelo, 4, 4, 237
linealizado, 8
peque
na se
nal, 14
validacion, 300
modelos, 300
modo forzante, 41, 69
ganancia a, 70
modo natural
dominante, 41, 69
modos
forzados, 264
naturales, 265
particulares, 264
modos forzados, 41, 70
modos naturales, 38, 65, 210, 264
muestreo, 238, 258, 259, 261
norma, 322
norma inducida, 322
observabilidad, 284
forma canonica, 291
octava, 216

operador, 3
operador adelanto, 60
ortogonalidad, 91
Parseval, 101, 123, 143
pasa altos, 133
pasa bajos, 133
pasa banda, 134
PEM, 304, 311
perodo, 86, 102
plano de fase, 249
polar
diagrama, 223
polinomio caracterstico, 63
polo
multiplicidad, 195
polos, 177, 209, 254, 395
dominantes, 179, 210
lentos, 179, 210
rapidos, 179, 210
prediccion
error de, 303, 304, 310, 312
primera diferencia, 12
promedio movil, 59
Propiedades transformada de Fourier,
352
Propiedades transformada de Fourier
discreta., 368
Propiedades transformada de Laplace,
392
Propiedades transformada Zeta, 410
punto de equilibrio, 10, 12
punto de operacion, 8, 13
radio de convergencia, 401
rampa unitaria, 22, 26
rango, 416
realizacion mnima, 256, 292
regresion
vector de, 304, 311
regresores, 304, 311
resonancia, 90, 219, 266
respuesta
a escalon, 265

422

Indice de materias

forzada, 264
respuesta a (t), 50
respuesta a [t], 76
respuesta a (t), 48
respuesta a [t], 74
respuesta en frecuencia, 87, 103, 110,
198
respuesta estacionaria, 47, 73
respuesta homogenea, 36, 62
respuesta inversa, 182, 213
respuesta natural, 264
respuesta no forzada, 264
respuesta particular, 37, 64
respuesta transitoria, 47, 73
respuestas, 2
retardo, 159, 201, 242, 269
Bode de un, 220
retentor, 259
de orden cero, 259
Routh
algoritmo, 174

perodo, 24
sistema
algebraico, 4, 6
dinamico, 2
dual, 290
hbrido, 238
sistema, 1
sistemas
interconectados, 234
muestreados, 258, 259
sistemas discretos
estabilidad, 203
sistemas lineales, 5
solucion homogenea, 36, 62
solucion particular, 37, 64
subespacio
alcanzable, 282
no alcanzable, 282
observable, 290
no observable, 290
superposicion, 5

Serie de Fourier, 91
serie de Fourier, 85
exponencial, 99
serie de Taylor, 316
se
nal causal, 51, 78
se
nal incremental, 14
se
nales, 1, 20
de prueba, 20
de tiempo discreto, 25
similaridad, 252, 270
sinuosoide
aperiodica, 29
sinusoidal, 86, 102
sinusoide, 23
amortiguada, 25
amplitud, 24
desfase, 24
discreta, 28
amortiguada, 30
frecuencia, 24
frecuencia angular, 24
formula de Euler, 24

Tabla de transformadas de Fourier, 353


Tabla de transformadas de Fourier discretas, 369
Tabla transformada Zeta, 410
Tabla transformadas de Laplace, 392
Tabla transformadas de Laplace inversas, 392
transferencia
funcion de, 156, 191
transformaciones del estado, 252, 270
transformacion Zeta, 190
Transformada de Fourier, 119
transformada de Fourier, 116, 119, 337
transformada de Fourier discreta, 140,
354
transformada de fourier discreta, 140
transformada de Fourier discreta inversa, 140, 354
transformada de Fourier inversa, 119,
337
Transformada de Laplace, 156
inversa, 156

Indice de materias

region de convergencia, 156, 377


transformada rapida de Fourier, 371
undershoot, 182, 213
valores caractersticos, 38
valores propios, 38
variables de estado, 237
vector
columna, 415
fila, 415
velocidad, 40, 68

423

You might also like