Professional Documents
Culture Documents
Chapitre 1
Introduction
1.1 Dnition gnrale
Mise en oeuvre eective par traitement direct en temps rel des mthodes de traitement optimal et de modlisation des signaux.
d (n )
u(n)
T R A IT E M E N T (F IL T R E )
d (n )
e (n )
1.2
Pourquoi?
Contrainte temps-rel avantage recherch : simplicit des calculs Connaissances a priori incompltes. Environnement non-stationnaire poursuite
1.3
Comment ?
Chapitre 1. Introduction
1.4
1.4.1
Applications
Egalisation de canal en tlcommunication
Bruit x(n) Canal de Transm ission
Egaliseur
Dtecteur
Retard
d(n)
+/-
y(n)
1.4.2
+
R etard
e(n )
w(n )
1.4.3
Annulation de bruit
sinus bruit B(n) + (n) = sinus F B(n) W(n) B(n) +/sinus + bruit
1.5
1.5.1
Taux de Convergence
1.5.2
Dsajustement
(moyenne densemble de lerreur quadratique nale) - (erreur quadratique minimale obtenue avec Wiener).
1.5.3
Robustesse
1.5.4
Complexit
1.5.5
Structure
1.5.6
Stabilit numrique
Chapitre 1. Introduction
Chapitre 2
u (n )
w0 w1 w= M wM-1
e (n )
d (n )
d (n )
x (n) = x (n) x (n 1) . . .
Entre du ltre
Chapitre 3
J (w)
w1
un seul minimum Solution des
w0
EQUATIONS DE WIENER-HOPF :
wopt = R1 p
vecteur dintercorrlation entre-sortie dsire ) R et p connus... TECHNIQUES = Environnement non stationnaire ???? ADAPTATIVES
10
Chapitre 4
But du traitement adaptatif: recherche du minimum Jmin = 2 pt wopt d obtenu pour Rwopt = p Simplication du problme Choix arbitraire dune valeur initiale w(0) Instant n : calcul de
J(w(n)) w(n)
Instant n + 1 : choix de w(n + 1) dans le sens opppos du gradient J (w (n)) w(n + 1) = w(n) + 2 w = w(n) + (p Rw (n)) Le pas permet de descendre plus ou moins vite sur la courbe et de sapprocher plus ou moins du minimum. Condition ncessaire et susante de stabilit 0 2 max min , ...., k , ..., max valeurs propres de R 11
12
Constante de temps k
w k (0 )
w k (1) w k (2 )
(1 k )
0 1
intant
Chapitre 5
Remplacer dans
instantanes :
b R = u (n) ut (n) p = u (n) d (n) b
5.2
Algorithme
Initialisation: les coecients du ltres sont initialiss zro. Calcul de lerreur e(n) commise par le ltre: e(n) = d(n) wt (n)x(n) Mise jour des coecients du ltre : w(n + 1) = w(n) + e(n)xH (n) 13
14
5.3
tr(R)
1 max 2 min
Erreur en excs proportionnelle grand ( convergence rapide erreur rsiduelle importante ( convergence lente erreur rsiduelle faible
petit
5.4
Avantages du LMS
Simplicit de la programmation Trs faible cot calculatoire : 4M oprations simples (additions multiplications) Stable numriquement (peu sensible aux erreurs de quantication)
5.5
Inconvnients du LMS
Vitesse de convergence faible et lie au conditionnement des donnes ou au choix Erreur en excs importante
5.6
% Modlisation du canal : (t) = (t T s) + 0.5.(t 2T s) % Sequence dentree du canal = NRZ entre -1 et +1 %INITIALISATION
15
% des paramtres du signal et du canal canal = [0; 1; 0.5]; nbsymb = 1000; x = sign(randn(nbsymb, 1)); y = f ilter(canal, 1, x); retard = 3; % estimation du retard introduit par le canal % des paramtres des LMS m = 10; % nombre de coecients du LMS c = zeros(m, 1); mu = 0.05; W = zeros(m, nbsymb); % EGALISATION - LMS f or k = 1 : (nbsymb m + 1) n = k + m 1; %instant actuel % Entree du LMS linstant n Y n = y(n : 1 : n m + 1); z(n) = Y n0 c; %Erreur entre la sortie du ltre et les echantillons emis e(n) = x(n retard) z(n); %Calcul des nouveaux coecients c = c + mu Y n e(n); %Stockage des coe du ltre en fonction du temps W (:, n) = c; end
Diagramme de lil en sortie du canal
1.5
0.5
amplitude
-0.5
-1
-1.5 0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1
temps
16
Instant
Erreur Quadratique
10
2
10
10
-2
10
-4
10
-6
10
-8
10
-10
10
-12
100
200
300
400
500
600
700
800
900
1000
amplitude
0.2 0
-0.2 -0.4 -0.6 -0.8 -1 0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1
Temps
Chapitre 6
Moindres Carrs
6.1 Modle de rgression linaire
d(i) =
M X k=1
w0 (k) x (i k + 1) + e0 (i)
e0 erreur de mesure
6.2
minimisation de :
i=i1
|e (i)|2
Expression matricielle
x (N) x (N 1) x (N M + 1)
JMC (w) = t JMC (w) = 2At b + 2At Aw w Solution des moindres carrs : At Aw = At b 17
18
Chapitre 7
Estimation moindres carrs du ltre linstant n en fonction du ltre n 1 critre minimiser P JMCR (n, w)= n (n, i) |e (i)|2 i=1 e (i) = d (i) wt (n)x(i) x(i) = [x(i) x(i 1) ... x(i M + 1)]t 0 (n, i) 1 facteur de pondration
7.2
Dnitions
(n) =
n X i=1
ni x (i) xH (i)
0 1 facteur doubli 19
20
7.3
Algorithme
On pose P(n) = 1 (n), Initialisation: P(0) = 1 I o est une petite constante positive. Les coecients du ltre sont initialiss zro: w(0) = 0. Mise jour: k(n) =
e(n) = d(n) wH (n 1)x(n) w(n) = w(n 1) + k(n)e (n) 1 P(n) = P(n 1) k(n)xH (n)(n 1)
7.4
1 1+
7.5
Avantages du RLS
Proprits (vitesse, erreur en excs) de convergence bien suprieures celles du LMS et indpendantes du conditionnement des donnes.
7.6
Inconvnients du RLS
Cot calculatoire exhorbitant : de lordre de M 2 oprations (stockage et inversion dune matrice) Do lintrt des algorithmes rapides convergence du RLS = simplicit du LMS oui mais... instabilit numrique
Chapitre 8
Complments
8.1 Moindres Carrs Rcursifs Rapides
8.1.1
= aH (n)uM+1 (i) = EP L avant a posteriori M " # FM (n) M+1 (n) aM (n) = zeros(M, 1) Pn avec FM (n) = i=1 ni |fM (i)|2 b b h (n) = h (n 1) + k (n 1) (n)
M M M M
b Mise jour de hM
Mise jour de bM a
kM (n 1) = 1 (n 1) uM (n 1) M
21
22
Chapitre 8. Complments
bM (i) = u (i M ) g H (n)uM (n) M = cH (n)uM+1 (i) M = EP L arrire a posteriori " # zeros(M, 1) M+1 (n) cM (n) = BM (n) Pn avec BM (n) = i=1 ni |bM (i)|2
Mise jour de bM g
M (n) = u (n M ) g H (n 1)uM (n) M = h = EP L arrire a priori # " i u (n) H 1 hM (n 1) uM (n 1) k M (n) = 1 (n) uM (n) M gain de prdiction avant dordre M bM (n) = bM (n 1) c c " # k M (n) (n) M 0 BM (n) = BM (n 1) + M (n)b (n) M = cH (n 1) uM+1 (n) M
Mise jour de bM c
23
Notations :
aM (n) =
"
1 b M (n) h
cM (n) =
"
g(n) 1
# #
u (i 2) uM (i 1) = . . . u (i M ) M+1 (n) =
n X i=1
u (i 1)
uM+1 (i) =
"
u (i) uM (i 1)
"
U (n)
24
Chapitre 8. Complments
8.1.2
Le vecteur gain tendu est un vecteur (M +1)1 qui englobe les deux vecteurs poids kM (n 1) et kM (n) des prdicteurs linaires adaptatifs avant et arrire :
k M+1 (n) = 1 (n) uM+1 (n) M+1 " # 0 fM (n) a (n) = + FM (n) M k M (n 1) " # k M (n) bM (n) c (n) = + BM (n) M 0 Par dnition, le vecteur gain dordre M vaut : kM (n) = 1 (n) uM (n) M ce qui peut tre galement interprt comme une quation normale dterministe. kM (n) peut tre vu comme le vecteur poids dun ltre RIF agissant sur u (1) , u (2) , ..., u (n) pour produire lestimation au sens des moindres carrs de la rponse dsire : ( 1 si i = n d(i) = 0 si i = 1, ..., n 1 On dnit lerreur destimation : M (n) = 1 k H (n) uM (n) M 1 = H (n) 1 (n 1) u (n) 1 + uM M M M (n) a trois autres formulations utilises par les algorithmes rapides : Pour lestimation au sens des moindres carrs : M (n) = Pour la prdiction linaire avant : M (n 1) = Pour la prdiction linaire arrire : M (n) = bM (n) M (n) fM (n) M (n) eM (n) M (n)
25
M (n) est un facteur de conversion qui permet dexprimer les erreurs a posteriori en fonction des erreurs a priori. Equations de mise jour du facteur de conversion : FM (n 1) M (n 1) FM (n) BM (n 1) M (n) M+1 (n) = BM (n) M+1 (n) =
8.2
^ (n 1) a
M
M (n ) f M (n ) F (n ) M
M (n ) bM (n ) B (n ) M
RIF II
u (n )
^ (n 1) c
M
RIF III
k M (n )
RIF IV
{ M (n )
(n ) e(n ) (n ) min
^ (n 1) w
M
Etape 1 : on applique uM+1 (n) au ltre I En sortie, on obtient lEPL avant a priori M (n) = aH (n 1)uM+1 (n) M Le gain de conversion permet de calculer lEPL avant a posteriori : fM (n) = M (n 1) M (n) Mise jour du critre :
FM (n) = FM (n 1) + M (n)fM (n)
26
Chapitre 8. Complments
qui doit nous premettre de mettre jour le gain k (n) et les coecients du ltre a. Pour simplier, on dnit le vecteur gain normalis :
e k M+1 (n) =
"
A la n de cette tape, les coecients du ltre I ont t mis jour, ainsi que les coecients du ltre III mais pour ce dernier non seulement en temps mais en ordre ce qui ntait pas le but recherch.
27
Etape 2 : corriger la rcursion en ordre et mettre jour le ltre II M+1 (n) i M (n) = h 1 (n) M+1 (n) eM+1,M 1 (n) k M k M (n) = BM (n 1) eM+1,M +1 (n) BM (n) = BM (n 1) + M (n) b (n) M Gain normalis " e (n) kM 0 #
Le gain de conversion permet de calculer lerreur destimation a posteriori correspondante : eM (n) = M (n) M (n) Finalement, mise jour des coecients du ltre adaptatif b k wM (n) = wM (n 1) + eM (n) e (n) b M