You are on page 1of 27

RESUME DU COURS DE FILTRAGE ADAPTATIF

Marie Chabert Anne dEdition : 2007

Chapitre 1

Introduction
1.1 Dnition gnrale

Mise en oeuvre eective par traitement direct en temps rel des mthodes de traitement optimal et de modlisation des signaux.
d (n )
u(n)
T R A IT E M E N T (F IL T R E )

d (n )

A lgorithm e A daptation des C oefficients

e (n )

1.2

Pourquoi?

Contrainte temps-rel avantage recherch : simplicit des calculs Connaissances a priori incompltes. Environnement non-stationnaire poursuite

1.3

Comment ?

Thorie de Wiener LMS Moindres Carrs RLS 3

Chapitre 1. Introduction

1.4
1.4.1

Applications
Egalisation de canal en tlcommunication
Bruit x(n) Canal de Transm ission

Egaliseur

Dtecteur

Retard

d(n)

+/-

y(n)

1.4.2

Extraction de sinusodes dans du bruit


x (n )
= sinus + bruit

+
R etard

e(n )

w(n )

1.4.3

Annulation de bruit
sinus bruit B(n) + (n) = sinus F B(n) W(n) B(n) +/sinus + bruit

1.5. Critres de Comparaison des Algorithmes Adaptatifs

1.5

Critres de Comparaison des Algorithmes Adaptatifs

1.5.1

Taux de Convergence

Nombre ditrations pour converger susamment prs de la solution de Wiener.

1.5.2

Dsajustement

(moyenne densemble de lerreur quadratique nale) - (erreur quadratique minimale obtenue avec Wiener).

1.5.3

Robustesse

Rsistance au mauvais conditionnement des donnes.

1.5.4

Complexit

Nombre doprations par itration + place mmoire ncessaire (programme et donnes)

1.5.5

Structure

Aspect hardware, complexit de limplantation matrielle

1.5.6

Stabilit numrique

Inuence des erreurs de quantication problme de la propagation des erreurs

Chapitre 1. Introduction

Chapitre 2

Problme du Filtrage Optimal

u (n )

w0 w1 w= M wM-1
e (n )

d (n )

d (n )
x (n) = x (n) x (n 1) . . .

Entre du ltre

Coecient du ltre RIF

Sortie du ltre Erreur destimation Critre : Erreur Quadratique Moyenne

x (n M + 1) w1 w2 w= . . . wM PM b d (n) = k=1 wk x (n k + 1) = wt x (n) J (w) = E [e (n) e (n)] b e(n) = d (n) d (n)

Chapitre 2. Problme du Filtrage Optimal

Chapitre 3

Filtre optimal de Wiener


wopt = arg min J(w)
w

J (w)

J min w1 opt w0opt

w1
un seul minimum Solution des

w0

J(w) =surface derreur quadratique en fonction des coecients du ltre

EQUATIONS DE WIENER-HOPF :
wopt = R1 p

avec : R = E[x(n)xH (n)] p = E[x(n)d (n)] matrice M M dautocorrlation de lentre

vecteur dintercorrlation entre-sortie dsire ) R et p connus... TECHNIQUES = Environnement non stationnaire ???? ADAPTATIVES

10

Chapitre 3. Filtre optimal de Wiener

Chapitre 4

Algorithme de plus profonde descente


J (w (n)) = E [e (n) e (n)] J (w (n)) w (n) = 2 wt (n) p pt w (n) + wt (n) Rw (n) d = 2p + 2Rw (n)

But du traitement adaptatif: recherche du minimum Jmin = 2 pt wopt d obtenu pour Rwopt = p Simplication du problme Choix arbitraire dune valeur initiale w(0) Instant n : calcul de
J(w(n)) w(n)

Instant n + 1 : choix de w(n + 1) dans le sens opppos du gradient J (w (n)) w(n + 1) = w(n) + 2 w = w(n) + (p Rw (n)) Le pas permet de descendre plus ou moins vite sur la courbe et de sapprocher plus ou moins du minimum. Condition ncessaire et susante de stabilit 0 2 max min , ...., k , ..., max valeurs propres de R 11

12

Chapitre 4. Algorithme de plus profonde descente

Convergence en moyenne quadratique vers wopt


n+

lim J (w (n)) = Jmin 1 2k

Constante de temps k

w k (0 )

w k (1) w k (2 )

(1 k )

0 1

intant

Chapitre 5

Algorithme du gradient stochastique ou Least Mean Square (LMS)


5.1 Principe
J (w (n)) = 2p + 2Rw (n) w (n) R et p par leurs estimes

Remplacer dans

instantanes :
b R = u (n) ut (n) p = u (n) d (n) b

5.2

Algorithme

Initialisation: les coecients du ltres sont initialiss zro. Calcul de lerreur e(n) commise par le ltre: e(n) = d(n) wt (n)x(n) Mise jour des coecients du ltre : w(n + 1) = w(n) + e(n)xH (n) 13

14

Chapitre 5. Algorithme du gradient stochastique ou Least Mean Square (LMS)

5.3

Choix du pas dapprentissage


CV en moyenne : 0 CV de lEQM : 0 Constante de temps : 2 max 2

tr(R)

1 max 2 min

Erreur en excs proportionnelle grand ( convergence rapide erreur rsiduelle importante ( convergence lente erreur rsiduelle faible

petit

SOLUTION EN STATIONNAIRE : variable

5.4

Avantages du LMS

Simplicit de la programmation Trs faible cot calculatoire : 4M oprations simples (additions multiplications) Stable numriquement (peu sensible aux erreurs de quantication)

5.5

Inconvnients du LMS

Vitesse de convergence faible et lie au conditionnement des donnes ou au choix Erreur en excs importante

5.6

Exemple dapplication : Egalisation

% Modlisation du canal : (t) = (t T s) + 0.5.(t 2T s) % Sequence dentree du canal = NRZ entre -1 et +1 %INITIALISATION

5.6. Exemple dapplication : Egalisation

15

% des paramtres du signal et du canal canal = [0; 1; 0.5]; nbsymb = 1000; x = sign(randn(nbsymb, 1)); y = f ilter(canal, 1, x); retard = 3; % estimation du retard introduit par le canal % des paramtres des LMS m = 10; % nombre de coecients du LMS c = zeros(m, 1); mu = 0.05; W = zeros(m, nbsymb); % EGALISATION - LMS f or k = 1 : (nbsymb m + 1) n = k + m 1; %instant actuel % Entree du LMS linstant n Y n = y(n : 1 : n m + 1); z(n) = Y n0 c; %Erreur entre la sortie du ltre et les echantillons emis e(n) = x(n retard) z(n); %Calcul des nouveaux coecients c = c + mu Y n e(n); %Stockage des coe du ltre en fonction du temps W (:, n) = c; end
Diagramme de lil en sortie du canal
1.5

% nombre de symboles %NRZ

0.5

amplitude

-0.5

-1

-1.5 0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1

temps

16

Chapitre 5. Algorithme du gradient stochastique ou Least Mean Square (LMS)

Coefficients du filtre adaptatif


1.2 1 0.8 0.6 0.4 0.2 0 -0.2 -0.4 -0.6 0 100 200 300 400 500 600 700 800 900 1000

Instant

Erreur Quadratique
10
2

10

10

-2

10

-4

10

-6

10

-8

10

-10

10

-12

100

200

300

400

500

600

700

800

900

1000

Diagramme de lil en sortie de lgaliseur


1 0.8 0.6 0.4

amplitude

0.2 0

-0.2 -0.4 -0.6 -0.8 -1 0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1

Temps

Chapitre 6

Moindres Carrs
6.1 Modle de rgression linaire
d(i) =
M X k=1

w0 (k) x (i k + 1) + e0 (i)

w0k paramtres inconnus du modle

e0 erreur de mesure

6.2

Estimation des paramtres


JMC (w) =
i2 X

minimisation de :

i=i1

|e (i)|2

Expression matricielle

t = [e (M ) e (M + 1) ... e (N )] bt = [d (M ) d (M + 1) ... d (N)] x (M ) x (M + 1) x (M 1) x (M ) At = . . . . . . x (1) x (2)

x (N) x (N 1) x (N M + 1)

JMC (w) = t JMC (w) = 2At b + 2At Aw w Solution des moindres carrs : At Aw = At b 17

18

Chapitre 6. Moindres Carrs

Chapitre 7

LAlgorithme des moindres carrs rcursifs (MCR ou RLS)


7.1 Principe

Estimation moindres carrs du ltre linstant n en fonction du ltre n 1 critre minimiser P JMCR (n, w)= n (n, i) |e (i)|2 i=1 e (i) = d (i) wt (n)x(i) x(i) = [x(i) x(i 1) ... x(i M + 1)]t 0 (n, i) 1 facteur de pondration

w(n) = [w1 (n) w2 (n) ... wM (n)]

(n, i) = ni le plus souvent

7.2

Dnitions
(n) =
n X i=1

ni x (i) xH (i)

matrice dautocorrlation dterministe n X ni x (i) d (i) (n) =


i=1

vecteur dintercorrlation entre-sortie dsire

0 1 facteur doubli 19

20

Chapitre 7. LAlgorithme des moindres carrs rcursifs (MCR ou RLS)

7.3

Algorithme

On pose P(n) = 1 (n), Initialisation: P(0) = 1 I o est une petite constante positive. Les coecients du ltre sont initialiss zro: w(0) = 0. Mise jour: k(n) =

P(n 1)x(n) + xH (n)P(n 1)x(n) vecteur gain

e(n) = d(n) wH (n 1)x(n) w(n) = w(n 1) + k(n)e (n) 1 P(n) = P(n 1) k(n)xH (n)(n 1)

7.4

Choix du facteur doubli


( pas derreur en excs convergence en 2M itrations

En stationnaire : = 1 = En non stationnnaire : 1 =

erreur en excs proportionnelle Vitesse proportionnelle 1

1 1+

7.5

Avantages du RLS

Proprits (vitesse, erreur en excs) de convergence bien suprieures celles du LMS et indpendantes du conditionnement des donnes.

7.6

Inconvnients du RLS

Cot calculatoire exhorbitant : de lordre de M 2 oprations (stockage et inversion dune matrice) Do lintrt des algorithmes rapides convergence du RLS = simplicit du LMS oui mais... instabilit numrique

Chapitre 8

Complments
8.1 Moindres Carrs Rcursifs Rapides

En relation avec la prdiction linaire :

8.1.1

Prdiction linaire avant ou progressive


Progressive - Avant bH u+ (n) = hM (n)uM (i 1) M

Prdiction (ordre M ) Prdicteur EPL Equation normale modie pour la prdiction

= aH (n)uM+1 (i) = EP L avant a posteriori M " # FM (n) M+1 (n) aM (n) = zeros(M, 1) Pn avec FM (n) = i=1 ni |fM (i)|2 b b h (n) = h (n 1) + k (n 1) (n)
M M M M

fM (i) = u (i) hH (n)uM (i 1) M

M (n) = u (n) hH (n 1)uM (n 1) M = h = EP L avant a priori # " i u (n) 1 hH (n 1) M uM (n 1) = aH (n 1) uM+1 (n) M

Version adaptative suivant les M CR

b Mise jour de hM

Mise jour de bM a

Mise jour du critre

gain de prdiction avant dordre M # " 0 (n) bM (n) = bM (n 1) a a M k M (n 1)


FM (n) = FM (n 1) + M (n)fM (n)

kM (n 1) = 1 (n 1) uM (n 1) M

21

22

Chapitre 8. Complments

Prdiction linaire arrire ou rtrograde

Prdiction (ordre M ) Prdicteur EPL Equation normale modie pour la prdiction

Arrire - Rtrograde u (n) = bH (n)uM (i) gM M

bM (i) = u (i M ) g H (n)uM (n) M = cH (n)uM+1 (i) M = EP L arrire a posteriori " # zeros(M, 1) M+1 (n) cM (n) = BM (n) Pn avec BM (n) = i=1 ni |bM (i)|2

Version adaptative suivant les M CR

Mise jour de bM g

M (n) = u (n M ) g H (n 1)uM (n) M = h = EP L arrire a priori # " i u (n) H 1 hM (n 1) uM (n 1) k M (n) = 1 (n) uM (n) M gain de prdiction avant dordre M bM (n) = bM (n 1) c c " # k M (n) (n) M 0 BM (n) = BM (n 1) + M (n)b (n) M = cH (n 1) uM+1 (n) M

bM (n) = bM (n 1) + k M (n) (n) g g M

Mise jour de bM c

Mise jour du critre

8.1. Moindres Carrs Rcursifs Rapides

23

Notations :

aM (n) =

"

1 b M (n) h

cM (n) =

"

g(n) 1

# #

u (i 2) uM (i 1) = . . . u (i M ) M+1 (n) =
n X i=1

u (i 1)

uM+1 (i) =

"

u (i) uM (i 1)

ni uM+1 (i) uH (i) M+1 H (n) 1 # " M (n) 2 (n) H (n) 2 U (n M ) #

"

1 (n) M (n 1) ni |u (i)|2 ni |u (i M )|2

U (n)

U (n) = U (n M ) = 1 (n) = 2 (n) =

n X i=1 n X i=1 n X i=1 n X i=1

ni uM1 (i) u (i) ni uM (i) u (i M )

24

Chapitre 8. Complments

8.1.2

Gain tendu -Facteur de conversion

Le vecteur gain tendu est un vecteur (M +1)1 qui englobe les deux vecteurs poids kM (n 1) et kM (n) des prdicteurs linaires adaptatifs avant et arrire :

k M+1 (n) = 1 (n) uM+1 (n) M+1 " # 0 fM (n) a (n) = + FM (n) M k M (n 1) " # k M (n) bM (n) c (n) = + BM (n) M 0 Par dnition, le vecteur gain dordre M vaut : kM (n) = 1 (n) uM (n) M ce qui peut tre galement interprt comme une quation normale dterministe. kM (n) peut tre vu comme le vecteur poids dun ltre RIF agissant sur u (1) , u (2) , ..., u (n) pour produire lestimation au sens des moindres carrs de la rponse dsire : ( 1 si i = n d(i) = 0 si i = 1, ..., n 1 On dnit lerreur destimation : M (n) = 1 k H (n) uM (n) M 1 = H (n) 1 (n 1) u (n) 1 + uM M M M (n) a trois autres formulations utilises par les algorithmes rapides : Pour lestimation au sens des moindres carrs : M (n) = Pour la prdiction linaire avant : M (n 1) = Pour la prdiction linaire arrire : M (n) = bM (n) M (n) fM (n) M (n) eM (n) M (n)

8.2. Algorithme FTF (Fast Transversal Filter)

25

M (n) est un facteur de conversion qui permet dexprimer les erreurs a posteriori en fonction des erreurs a priori. Equations de mise jour du facteur de conversion : FM (n 1) M (n 1) FM (n) BM (n 1) M (n) M+1 (n) = BM (n) M+1 (n) =

8.2

Algorithme FTF (Fast Transversal Filter)


RIF I

^ (n 1) a
M

M (n ) f M (n ) F (n ) M
M (n ) bM (n ) B (n ) M

RIF II

u (n )

^ (n 1) c
M

RIF III

k M (n )
RIF IV

{ M (n )
(n ) e(n ) (n ) min

^ (n 1) w
M

Etape 1 : on applique uM+1 (n) au ltre I En sortie, on obtient lEPL avant a priori M (n) = aH (n 1)uM+1 (n) M Le gain de conversion permet de calculer lEPL avant a posteriori : fM (n) = M (n 1) M (n) Mise jour du critre :
FM (n) = FM (n 1) + M (n)fM (n)

Mise jour du facteur de conversion : M+1 (n) = FM (n 1) M (n 1) FM (n)

26

Chapitre 8. Complments

qui doit nous premettre de mettre jour le gain k (n) et les coecients du ltre a. Pour simplier, on dnit le vecteur gain normalis :

e (n) = kM (n) kM M (n)

On obtient les relations de rcurrence

e k M+1 (n) =

M (n) a (n 1) FM (n 1) M " # 0 aM (n) = aM (n 1) fM (n) e (n 1) k e (n 1) kM + 1


M

"

A la n de cette tape, les coecients du ltre I ont t mis jour, ainsi que les coecients du ltre III mais pour ce dernier non seulement en temps mais en ordre ce qui ntait pas le but recherch.

8.2. Algorithme FTF (Fast Transversal Filter)

27

Etape 2 : corriger la rcursion en ordre et mettre jour le ltre II M+1 (n) i M (n) = h 1 (n) M+1 (n) eM+1,M 1 (n) k M k M (n) = BM (n 1) eM+1,M +1 (n) BM (n) = BM (n 1) + M (n) b (n) M Gain normalis " e (n) kM 0 #

Calcul de lEPL a priori arrire :

Mise jour du critre :

Mise jour du ltre de prdiction linaire arrire

= eM+1 (n) eM+1,M +1 (n) cM (n 1) k k " e (n) kM 0 #

cM (n) = cM (n 1) b (n) M Calcul de lerreur destimation a priori

Le gain de conversion permet de calculer lerreur destimation a posteriori correspondante : eM (n) = M (n) M (n) Finalement, mise jour des coecients du ltre adaptatif b k wM (n) = wM (n 1) + eM (n) e (n) b M

bM M (n) = d (n) wH (n 1) uM (n)

You might also like