You are on page 1of 2

FILTRO ADAPTATIVO DE LMS COMPLEJO

El algoritmo LMS (del inglés, Least-Mean-Square algorithm) se usa en filtros adaptativos para
encontrar los coeficientes del filtro que permiten obtener el valor esperado mínimo del
cuadrado de la señal de error, definida como la diferencia entre la señal deseada y la señal
producida a la salida del filtro.

Pertenece a la familia de los algoritmos de gradiente estocástico, es decir, el filtro se adapta en


base al error en el instante actual únicamente. Fue inventado en 1960 por el profesor de la
Universidad de Stanford Bernard Widrow y su primer estudiante de doctorado, Ted Hoff.

El algoritmo LMS, para un filtro de orden M, puede resumirse de la siguiente manera:

Parámetros: M= orden del filtro

𝜇 = tamaño del paso

Inicialización: Si se dispone de información acerca del vector de coeficientes del filtro 𝑤


̂(𝑛),
usarla para elegir un valor apropiado para 𝑤
̂(0).

En caso contrario, usar 𝑤


̂(𝑛) = 0.

Datos:

Dados: 1 𝑇
𝜇(𝑛) = [𝜇(𝑛), 𝜇(𝑛 − 1, … , 𝜇(𝑛 − 𝑀 + 1)) ] señal de entrada en el
instante 𝑛.

𝑑(𝑛) =: señal deseada a la salida del filtro

A calcular: ̂(𝑛 + 1) = [𝑤
𝑤 ̂ 0 (𝑛 + 1), 𝑤
̂1 (𝑛 + 1), … , 𝑤̂ 𝑀−1 (𝑛 + 1)]𝑇 : estimación del
vector de coeficientes del filtro en el instante (𝑛 + 1).

Cómputo: Para n= 0,1,2, … calcular:

𝑒(𝑛) = 𝑑(𝑛) − 𝑤 𝐻 (𝑛) ∗ 𝑢(𝑛): señal de error

𝑤 ̂(𝑛) + 𝜇𝑒 ∗ (𝑛)𝑢(𝑛): adaptación de los coeficientes del filtro


̂(𝑛 + 1) = 𝑤

Nota: El superíndice 𝑇 denota trasposición, el superíndice 𝐻 denota traspuesta conjugada,


el asterisco denota conjugación y 𝑤 𝐻 (𝑛) ∗ 𝑢(𝑛) es la salida del filtro, que se calcula como
el producto interno entre el vector de coeficientes del filtro 𝑤 𝐻 (𝑛), cuyos componentes suelen
llamarse pesos o weighs, y el vector de datos de entrada al filtro 𝑢(𝑛).

DEFINICION FILTRO LMS

El bloque de filtro adaptativo de LMS complejo implementa un filtro FIR adaptativo que utiliza
el algoritmo de gradiente estocástico conocido como el algoritmo normalizado de media
cuadrática (LMS):
̂ 𝑯 (𝒏 − 𝟏)𝝁(𝒏)
𝒚(𝒏) = 𝒘
𝒆(𝒏) = 𝒅(𝒏) − 𝒚(𝒏)
𝝁
̂ (𝒏) = 𝒘
𝒘 ̂ (𝒏 − 𝟏) + ∗ 𝒖(𝒏)𝒆(𝒏)∗
𝜶+ 𝝁𝑯 (𝒏)𝒖(𝒏)

donde el tipo de negrita denota vectores o matrices. Las variables son las siguientes:

n The current algorithm iteration

u(n) The buffered input samples

The estimate of the filter taps at step n

y(n) The filtered output

e(n) The estimation error

d(n) The desired response

µ The unit-less adaptation constant

FORMULAS GENERALES :

Normalized LMS
𝜇̅
𝑤(𝑛 + 1) = 𝑤(𝑛) + 𝑒(𝑛)𝑥(𝑛)
𝜀+ 𝑋 𝑇 (𝑛)𝑥(𝑛)
𝜇 = 𝑠𝑡𝑒𝑝 − 𝑠𝑖𝑧𝑒 𝑝𝑎𝑟𝑎𝑚𝑒𝑡𝑒𝑟
𝜀 = 𝑝𝑟𝑒𝑣𝑒𝑛𝑡𝑠 𝑑𝑖𝑣𝑖𝑠𝑖𝑜𝑛 𝑏𝑦 𝑒𝑣𝑒𝑟𝑦 𝑠𝑚𝑎𝑙𝑙 𝑛𝑢𝑚𝑏𝑒𝑟
Normalized LMS with complex data
𝜇̅
𝑤(𝑛 + 1) = 𝑤(𝑛) + 𝑒(𝑛)𝑥(𝑛)
𝜀 + 𝑋𝐻 (𝑛)𝑥(𝑛)
𝐻 = 𝑐𝑜𝑛𝑗𝑢𝑔𝑎𝑡𝑒 𝑡𝑟𝑎𝑛𝑠𝑝𝑜𝑠𝑒

BIBLIOGRAFIA

Haykin, S. Adaptive Filter Theory. 3rd ed. Englewood Cliffs, NJ: Prentice Hall, 1996.

You might also like