You are on page 1of 42

1

Publi dans :
Les rseaux de neurones pour la modlisation et la conduite des procds, J.-P. Corriou coordonnateur, Lavoisier
Technique et Documentation, Paris.

MODLISATION, CLASSIFICATION ET COMMANDE


PAR RSEAUX DE NEURONES : PRINCIPES FONDAMENTAUX,
MTHODOLOGIE DE CONCEPTION ET ILLUSTRATIONS INDUSTRIELLES
I. RIVALS, L. PERSONNAZ, G. DREYFUS
Ecole Suprieure de Physique et de Chimie Industrielles de la Ville de Paris
Laboratoire dElectronique
10, rue Vauquelin
75005 PARIS
J.L. PLOIX
NETRAL S.A.
14, rue Verdi
92130 ISSY LES MOULINEAUX

INTRODUCTION
Les rseaux de neurones connaissent depuis quelques annes un succs croissant dans divers
domaines des Sciences de lIngnieur ; celui du gnie des procds nchappe pas cette rgle.
Malheureusement, la littrature fourmille dexemples o la mise en uvre des rseaux de
neurones relve plus de la recette que dune approche raisonne. De plus, les connotations
biologiques du terme rseaux de neurones, et lutilisation du terme dapprentissage, ont
souvent introduit une grande confusion ; elles ont conduit relier abusivement les rseaux de
neurones lIntelligence Artificielle, alors quils sont fondamentalement des outils statistiques.
Lobjectif de cet article est de montrer comment, partir des notions fondamentales, il est
possible daboutir une vritable mthodologie de mise en uvre, notamment dans le cadre de
la modlisation des processus. Nous montrons en particulier que, contrairement une croyance
rpandue, les rseaux de neurones ne sont pas ncessairement des botes noires : bien au
contraire, il est parfaitement possible, et mme vivement recommand, dintroduire dans le
rseau de neurones, ds sa conception, toutes les connaissances mathmatiques disponibles
concernant le processus modliser ou commander.

2
La premire partie de larticle rappelle les dfinitions, et introduit la proprit essentielle des
rseaux de neurones : la proprit dapproximation universelle parcimonieuse. Nous replaons
ainsi les rseaux de neurones dans le contexte mathmatique appropri, qui est celui de la
rgression non linaire. Dans la deuxime partie, nous introduisons les notions ncessaires pour
mettre en uvre les algorithmes dapprentissage ; nous insistons sur le caractre gnrique des
algorithmes dapprentissage, qui constitue lun des atouts des rseaux de neurones dans le
domaine de la modlisation et de la commande. La troisime partie indique brivement le lien
entre la proprit dapproximation universelle et lutilisation des rseaux de neurones en
classification. Nous abordons ensuite le domaine dapplication essentiel de larticle, celui de la
modlisation de processus ; nous dcrivons, et justifions mathmatiquement, une mthodologie
pour le choix de la structure dun modle neuronal, notamment en fonction des hypothses que
lon peut faire sur la manire dont le bruit intervient dans le processus modliser. Nous
montrons que les modles dtat constituent une classe de modles particulirement efficaces, et
nous illustrons cette proprit par la modlisation dun actionneur de bras de robot, effectue
par plusieurs techniques, par des quipes diffrentes. Les deux dernires parties de larticle
dcrivent des applications mettant en uvre la modlisation dans deux grands domaines : dune
part, la modlisation de procds industriels (calcination, distillation) pour la simulation et la
dtection danomalies ; dautre part, la modlisation pour la commande, illustre par lexemple
du pilotage dun vhicule 4x4 autonome.
I. LES RSEAUX DE NEURONES FORMELS : DFINITIONS, PROPRIT
FONDAMENTALE, GNRALITS SUR LAPPRENTISSAGE
I.1. DFINITIONS
Un rseau de neurones formels temps discret est un systme compos de deux types
dlments, ou units : les entres du rseau et les neurones eux-mmes. Chaque neurone
(dterministe) est un processeur non linaire (gnralement simul sur ordinateur, parfois ralis
sous forme de circuit lectronique) qui, chaque instant discret k, calcule son potentiel vi(k) et
son activit zi(k) de la faon suivante :
qij

zi(k) = fi v i(k)

vi(k) =

cij,t zj(k-t)

jPi t=0

Pi est lensemble des indices des units du rseau propageant leur activit au neurone i. Son
potentiel vi(k) est une somme des valeurs des activits de ces units, linstant k ou des
instants prcdents, pondre par les coefficients cij,t. qij est le retard maximal du neurone i sur
lentre ou le neurone j. Si qij=0 pour tout j, le neurone i est statique. La fonction fi, fonction
dactivation du neurone i, est en gnral non linaire. Ce peut tre la distribution de Heaviside,
une sigmode (cest le type de fonction que nous utilisons dans ce travail), une fonction base

3
radiale (RBF), etc. ; nous appelons neurone linaire un simple sommateur, cest--dire un
neurone dont la fonction dactivation est lidentit.
Un rseau de neurones est conu pour remplir une tche que le concepteur dfinit par un
ensemble de valeurs dentre, et par un ensemble de valeurs dsires correspondantes pour les
activits de certains neurones du rseau que lon appelle neurones de sortie (les lments de ces
ensembles sont appels exemples dapprentissage). Les neurones qui ne sont pas des
neurones de sortie sont dits cachs. Le rseau de la figure I.1 possde deux entres, deux
neurones cachs, et un neurone de sortie.
z3 (k)
3

C 31,0

z1 (k) 1
C 32,1

C 34,1

z2 (k) 2

C 53,0

C 43,0
1

0
C42,0

C 51,0

C54,1

z5 (k)

0
1

0
0
1

z4 (k)

Figure I.1.
Exemple de rseau de neurones et de son graphe.

Pour caractriser un rseau de neurones, il est pratique dutiliser son graphe. Ses nuds sont
les neurones, ses racines les entres du rseau, et les arcs sont les connexions pondres par
leur retard. Sil ny a pas de cycle dans ce graphe, le rseau est non boucl, sinon il est boucl.
Larchitecture dun rseau est dfinie par le graphe du rseau, les coefficients de celui-ci, et par
les fonctions dactivation des neurones. Le caractre boucl ou non du rseau, ainsi que les
fonctions dactivation, peuvent tre fixs en fonction de la tche que doit remplir le rseau de
neurones. Les valeurs des coefficients sont en gnral dtermines par un processus
algorithmique appel apprentissage (voir le paragraphe I.3) partir des exemples
dapprentissage, mais les valeurs de certains coefficients peuvent tre fixes lavance. Ainsi,
dans le cas de la modlisation dun processus, larchitecture peut tre partiellement dtermine
par des connaissances a priori ; les valeurs de coefficients ayant une signification physique
peuvent tre fixes pralablement lapprentissage.

4
I.1.1 Les rseaux de neurones non boucls
Un rseau est non boucl, ou statique, si son graphe ne possde pas de cycle. Il ralise donc,
de manire gnrale, une relation algbrique non linaire entre ses entres et ses sorties.
Dans le contexte du traitement du signal et de lautomatique, un rseau non boucl ralise un
filtre transverse non linaire temps discret. Ce filtre peut possder des synapses retard. On a
intrt mettre le rseau sous une forme quivalente, dite forme canonique, constitue
uniquement de neurones retard nul, ou neurones statiques : cette forme a lavantage de faire
apparatre les entres effectives du rseau chaque instant, et de faciliter lapprentissage (car
toutes les connexions sont de mme type). Ses units (entres et neurones) sont ordonnes, et
les connexions ne peuvent aller que dune unit un neurone dont lindice est suprieur.
Chaque neurone i du rseau calcule linstant k :
zi(k) = fi v i(k) avec vi(k) = cij zj(k)
jPi

o v i(k) est le potentiel du neurone i linstant k, zi(k) son activit, P i est lensemble des
indices des units propageant leur activit au neurone i, et cij est le coefficient de la connexion
reliant lunit j au neurone i.
Un rseau non boucl ralise donc une transformation entre-sortie non linaire y paramtre
par les coefficients C du rseau (figure I.2) :
O(k) = y I(k); C
NO
o O(k) est le vecteur des sorties linstant k, cest--dire des activits des neurones de
sortie du rseau linstant k, et I(k) NI est le vecteur des entres externes linstant k.
y(.; C) : NI NO, reprsente la fonction ralise par les neurones du rseau interconnects
avec les coefficients C.
Sorties l'instant k

O(k)

Rseau de neurones
statique


I(k)

Entres externes l'instant k


Figure I.2.
Forme canonique dun rseau de neurones non boucl.

5
La figure I.3 illustre lutilisation de la forme canonique pour lapprentissage de filtres en
cascade : un rseau de type TDNN (Time Delay Neural Network [WAI89]) est reprsent sur la
figure I.3a, et sa forme canonique sur la figure I.3b. Cette forme canonique possde 7 entres
externes, 5 neurones cachs, et un neurone de sortie.
Larchitecture de rseau non boucl la plus gnrale est celle du rseau compltement
connect, reprsente sur la figure I.4. Tous les neurones cachs et les neurones de sortie sont
connects aux units dindice infrieur.
y(k)

y(k)

c32,0 c32,1 c32,2 c32,3 c32,4


1
2
3
4
0
c32,0

c21,1 c21,2
1
2

u(k)

c21,0

c21,1

u(k-1)

c32,3

c32,4

c21,0

c21,1

c32,2

c21,0
c21,0

c32,1

2
c21,0

c21,1

2
c21,0

c21,1

c21,1

c21,2

c21,2

c21,2

c21,2

c21,2

u(k-2)

u(k-3)

u(k-4)

u(k-5)

u(k-6)

u(k)
a)

b)

Figure I.3.
Mise sous forme canonique dun filtre transverse non linaire temps discret (TDNN).
I(k) = u(k), u(k-1), u(k-2), u(k-3), u(k-4), u(k-5), u(k-6) ; O(k) = y(k) .
Sorties du rseau
Neurones cachs
N I+1

NI+2

Neurones de sortie
NI+N c+1

...

..........

N I+Nc +N O

....

NI-1

NI

Entres externes

Figure I.4.
Rseau de neurones non boucl compltement connect.

Une architecture historiquement trs utilise, surtout en raison de sa pertinence en


classification, est celle du rseau couches (figure I.5). Les neurones cachs sont rpartis en

6
couches successives, les neurones appartenant une couche donne ntant commands que par
les neurones de la couche prcdente, et ceux de la premire couche ntant connects quaux
entres externes. Mentionnons que la proprit dapproximation universelle des rseaux de
neurones est valable pour la famille des rseaux possdant seulement une couche de neurones
cachs (voir le paragraphe I.2).
Sorties du rseau
NI +N c+1

NI +N c+NO

NI +1

....

. . . . N.+N.
I

Couche de neurones de sortie

Couche de neurones cachs

.....N

Entres externes

Figure I.5.
Rseau de neurones non boucl une couche de neurones cachs.

Dans le contexte de la classification automatique, un tel rseau ralise une estimation de la


probabilit dappartenance dune forme une classe ; nous justifions, dans la partie II,
lutilisation des rseaux de neurones dans ce domaine. La figure I.5 reprsente larchitecture
gnralement utilise dans ce type dapplication.
I.1.2. Les rseaux de neurones boucls
Un rseau est boucl, ou dynamique, si son graphe possde au moins un cycle. Il constitue
un filtre rcursif non linaire temps discret. Comme pour les rseaux non boucls, on a
intrt, pour lapprentissage, mettre le rseau sous une forme quivalente dite canonique,
constitue de neurones statiques. En effet, tout rseau de neurones boucl temps discret
dordre NS peut tre reprsent par un rseau dont la dynamique est dcrite par NS quations
aux diffrences couples dordre 1, mettant en jeu NS variables dtat, et NI entres externes.
Cette forme canonique nest en gnral pas unique.
Le comportement dynamique dun rseau de neurones boucl peut tre dcrit par la
reprsentation dtat paramtre par les coefficients C, reprsente sur la figure I.6) :
S(k+1) = f S(k), I(k); C
O(k) = y S(k), I(k); C
NI
o I(k) est le vecteur des entres externes, S(k) NS le vecteur des variables dtat,
O(k) NO le vecteur des sorties, linstant k, et S(k+1) NS est le vecteur des variables dtat

7
linstant k+1. f (., .; C) et y (., .; C) reprsentent les fonctions ralises par le rseau de
neurones statiques de la forme canonique interconnects avec les coefficients C.

Sorties
l'instant k

Variables d'tat
l'instant k+1

O(k)

S(k+1)

Rseau de neurones statique

,y

1 1


I(k)


S(k)

Entres externes
l'instant k

Variables d'tat
l'instant k

Retards
unitaires

Figure I.6.
Forme canonique dun rseau de neurones boucl.

Une forme canonique dun rseau de neurones boucl est ainsi dfinie partir dun rseau
non boucl constitu de neurones statiques possdant NI entres externes, NS entres dtat (les
variables dtat linstant k), NC neurones cachs et NO neurones de sortie (neurones pour les
activits desquels il existe une valeur dsire). Les sorties du rseau linstant k sont les
activits des NO neurones de sortie, et les variables dtat linstant k+1 sont les activits de NS
neurones que nous appelons neurones dtat. Ces neurones dtat sont soit des neurones
cachs, soit des neurones de sortie.

C 31,0

z2(k-1)

z5 (k)

C 51,0

z1(k)

5
C 54,1

C 42,0

C 53,0
C 34,1

C 43,0

z3(k-1)

C32,1

z3 (k)

q-1
Figure I.7.
Mise sous forme canonique du rseau de la figure 1.
I(k) = z1(k), z2(k-1) T ; S(k) = z3(k-1) ; O(k) = z5(k) .

8
Par exemple, mettons le rseau de la figure I.1, boucl comme lindique son graphe, sous
une forme canonique (figure I.7). Ce rseau possde deux entres externes (N I=2) z1(k) et
z2(k-1), une entre dtat (N S=1) z3(k-1), deux neurones cachs (N C =2), dont un neurone
dtat (NS=1) dont lactivit donne la nouvelle valeur de la variable dtat z3(k), et un neurone
de sortie (NO=1) dont lactivit donne la valeur de la sortie z5(k).
I.2. P R O P R I T F O N D A M E N T A L E
DES
R SEAUX
L APPROXIMATION UNIVERSELLE PARCIMONIEUSE

DE

NEURONES

La proprit dapproximation universelle parcimonieuse justifie, dans une large mesure,


lutilisation des rseaux de neurones dans le domaine des Sciences de lIngnieur. Nous
soulignons dans le paragraphe I.3 que le caractre gnrique des algorithmes dapprentissage
constitue la seconde justification de cette utilisation.
I.2.1. Rseaux non boucls
Nous avons vu dans le paragraphe prcdent que tout rseau de neurones peut tre mis sous
une forme canonique comprenant un rseau de neurones statiques ; les proprits gnrales des
rseaux de neurones, boucls ou non, dpendent donc des proprits des rseaux de neurones
non boucls.
La proprit dapproximation universelle des rseaux de neurones peut snoncer comme
suit : pour toute fonction dterministe suffisamment rgulire, il existe au moins un rseau de
neurones non boucl, possdant une couche de neurones cachs et un neurone de sortie linaire,
qui ralise une approximation de cette fonction et de ses drives successives, au sens des
moindres carrs, avec une prcision arbitraire. Ce thorme ne sapplique que si les fonctions
dactivation des neurones cachs possdent des proprits que nous ne dveloppons pas ici ; les
fonctions sigmodes et les fonctions base radiale remplissent les conditions dapplication du
thorme.
Il va de soi que la proprit dapproximation universelle nest pas spcifique aux rseaux de
neurones : les polynmes, les sries de Fourier, les fonctions splines, possdent cette mme
particularit. Ce qui diffrencie les rseaux de neurones des autres approximateurs universels
usuels, cest leur parcimonie : pour obtenir une approximation dune prcision donne, les
rseaux de neurones utilisent moins de paramtres que les approximateurs usuels. En
particulier, le nombre de paramtres varie essentiellement de manire linaire en fonction du
nombre de variables de la fonction que lon cherche approcher, alors quil varie beaucoup plus

9
rapidement (voire exponentiellement) avec la dimension de lespace des entres dans le cas des
approximateurs usuels [HOR94].
En pratique, les rseaux de neurones sont donc avantageux, par rapport aux approximateurs
conventionnels, lorsque lon cherche rsoudre un problme plus dune ou deux variables.
Cet avantage est particulirement intressant du point de vue du temps de calcul, et surtout du
point de vue de la quantit dinformation ncessaire pour le calcul des coefficients :
- du point de vue du temps de calcul, lestimation des coefficients du rseau (lapprentissage),
est dautant plus rapide que le nombre de paramtres calculer est petit ;
- lorsque la fonction que lon cherche approcher nest pas connue analytiquement, mais
seulement par lintermdiaire de lensemble dapprentissage, la taille de lchantillon (donc le
nombre dexemples) ncessaire crot avec le nombre de poids. Le fait dutiliser moins de
coefficients que les mthodes classiques de rgression permet donc une conomie en nombre
dexemples, ce qui peut tre particulirement important lorsque lacquisition des exemples est
coteuse ou lente.
En rsum :
- les rseaux de neurones non boucls sont des outils statistiques de rgression qui permettent
lapproximation, au sens des moindres carrs, de toute fonction non linaire suffisamment
rgulire,
- cette approximation est conome en nombre de coefficients, donc en nombre dexemples,
- lestimation des paramtres de la rgression (les poids du rseau) partir dun ensemble
dchantillons constitue lapprentissage.
Il doit donc tre bien clair que le fonctionnement des rseaux de neurones est fondamentalement
diffrent de celui des systmes de traitement symbolique de linformation (tels que les systmes
experts) ; notons galement que, par essence, les rseaux de neurones sont aptes traiter des
informations numriques beaucoup plus que des informations symboliques.
I.2.2. Rseaux boucls
La proprit dapproximation universelle des rseaux de neurones prend un sens diffrent
sil sagit dun rseau boucl. En effet, considrons par exemple la modlisation dun processus
reprsent par un modle dtat :
xp(k+1) = f x p(k), u(k)
yp(k) = g x p (k)
o f et g sont des fonctions continues. Il existe bien un rseau boucl tel que, pour des entres
donnes x p(k) et u(k), les variables dtat S(k+1) et les sorties O(k) calculs par le rseau
approchent avec une prcision fixe ltat xp(k+1) et la sortie yp(k) du processus. En effet, il

10
suffit pour cela que le rseau non boucl de sa forme canonique soit constitu de deux sousrseaux dont lun approche la fonction f, et lautre la fonction g, les conditions dapplication du
thorme dapproximation universelle tant remplies. Mais ceci nimplique pas ncessairement
que le rseau ralise lapproximation du systme dynamique en toute circonstance. En effet, une
proprit dapproximation universelle pour les rseaux boucls peut snoncer de la manire
suivante : pour tout systme dynamique, pour toute prcision dsire e, pour un intervalle de
temps fini [0,T], pour des entres u(.) : u(.) : [0,T] nu et un tat initial x(0) n x,
il existe un rseau de neurones boucl qui approche le comportement entre-sortie du systme
avec la prcision e sur lintervalle [0,T] et sur les ensembles et [SON93]. La dfinition de
lapproximation dun systme dynamique par un rseau de neurones boucl est donc restreinte
un domaine de lespace des entres (comme pour les rseaux non boucls), mais aussi un
domaine de lespace des tats, et un intervalle de temps fini : un tel approximateur peut donc
ne pas reflter des caractristiques fondamentales du processus quil est cens approcher, sa
stabilit par exemple.

I.3. GN RALIT S SUR L A P P R E N T I S S A G E


Le problme de lapproximation dune fonction nest quun aspect de lapprentissage des
rseaux de neurones, la proprit dapproximation universelle tant seulement une condition
ncessaire leur utilisation comme modles et correcteurs non linaires gnraux.
Dans le cas o la tche du rseau de neurones est une tche de modlisation dun processus
physique, il est raisonnable de supposer que les sorties mesures sur le processus obissent
des lois dterministes, et de chercher une expression mathmatique des fonctions f et g. La
proprit dapproximation universelle est donc une proprit ncessaire du modle utilis cette
fin, mais elle nest pas suffisante. En effet :
- dune part, dans la pratique, les fonctions dterminer sont dfinies par un ensemble fini de
couples {entres-sorties mesures}, qui ne permet pas de dterminer ces fonctions de faon
univoque ; le but de lapprentissage est alors de trouver la solution la plus parcimonieuse,
passant par tous les points dapprentissage, qui, si lensemble dapprentissage est bien choisi,
tendra vers les fonctions f et g supposes rgir le fonctionnement du processus.
- dautre part, comme nous le verrons dans le paragraphe consacr la modlisation, on est
souvent en prsence de processus affects de perturbations alatoires ; dans ce cas, le but de
lapprentissage ne peut tre de passer par tous les points de lensemble dapprentissage : bien
que lon ne dispose pas des valeurs prises sur lensemble dapprentissage par les fonctions f
et g supposes rgir le fonctionnement du processus, il doit ajuster les coefficients du rseau
de faon que les fonctions quil ralise tendent vers f et g. La mise au point dun systme
dapprentissage en fonction des hypothses faites sur les lois dterministes et les perturbations
alatoires affectant un processus fait lobjet de la partie III.

11
Dans le cas o la tche du rseau est de raliser une loi de commande imposant une
dynamique dsire un processus pour lequel on dispose dun modle, la dmonstration de
lexistence dune telle loi de commande est en elle-mme un problme. En effet, si la synthse
du correcteur est effectue laide dun modle neuronal, dont il est difficile de dterminer les
caractristiques de faon analytique, cette existence peut tre difficile tablir. Ces problmes
spcifiques la commande ne seront pas abords ici.
Dans ce paragraphe, nous donnons les principes et dcrivons la mise en uvre des
procdures dapprentissage, indpendamment des considrations dexistence que nous venons
dvoquer.
I.3.1. Principe gnral
Larchitecture du rseau de neurones nest souvent que partiellement impose par la tche
raliser : les entres, ltat, et les sorties du rseau peuvent tre fixes en fonction de celle-ci par
le concepteur, ainsi que le type et la connectivit des neurones. Mais le nombre de neurones ne
peut tre fix a priori, et il est en gnral dtermin selon une procdure itrative, suivant le
succs de lapprentissage (il existe des mthodes systmatiques de slection de modles
dynamiques [LEO87] [URB94]). Larchitecture du rseau tant fixe, le but de lapprentissage
est lestimation des coefficients pour remplir au mieux la tche laquelle le rseau est destin.
Apprentissage dun rseau de neurones.
Comme mentionn plus haut, lapprentissage dun rseau est dfinie par :
- un ensemble dapprentissage constitu de N exemples, chacun tant constitu dun vecteur
{I(k)} appliqu aux entres du rseau, et du vecteur {D (k)} des valeurs dsires
correspondantes pour les sorties. Dans le cas de lautomatique et du traitement du signal, ces
exemples sont ordonns temporellement ; on parle alors de squences dapprentissage. Il est
trs important que cet ensemble dapprentissage soit suffisamment riche : il faut quil couvre
aussi compltement que possible le domaine de fonctionnement dsir pour le rseau, et que le
nombre dexemples soit grand devant le nombre de coefficients du rseau. La proprit de
parcimonie des rseaux de neurones permet de faciliter la ralisation de cette condition.
Notons que la ncessit de disposer dexemples en nombre suffisant, et suffisamment
reprsentatifs, est souvent prsente comme une limitation propre aux rseaux de neurones ;
ceci est incorrect : cest une limitation commune toute mthode statistique ; grce la
proprit de parcimonie, cette contrainte est plus facile satisfaire lorsque lon utilise les
rseaux de neurones que lorsque lon utilise dautres mthodes de rgression.
- une fonction de cot minimiser : en effet, la tche ne consiste pas ncessairement rendre
les sorties du rseau gales aux sorties dsires ou proches de celles-ci. Par exemple, pour
un problme de rgulation, on peut souhaiter minimiser galement le cot nergtique de la

12
commande. Le critre fera donc intervenir non seulement lcart de la sortie la valeur de
consigne, mais galement lnergie dpense. Ou bien, si le processus possde plusieurs
sorties, on peut attacher plus dimportance certaines dentre elles ; cela se traduit par une
pondration des diffrents termes de la fonction de cot (cest une gnralisation de la
commande linaire quadratique).
Lapprentissage dun rseau de neurones est ainsi dfini comme un problme doptimisation
qui consiste trouver les coefficients du rseau minimisant une fonction de cot.
Lapprentissage est mis en uvre par un systme dapprentissage qui comprend le rseau dont
les coefficients sont estimer, les squences dapprentissage et leur processus gnrateur
(processus, modle de rfrence), et lalgorithme utilis pour lestimation.
Exemple de la modlisation dun processus non linaire.
La figure I.8 reprsente le systme dapprentissage pour la modlisation dun processus : le
but est destimer les coefficients du rseau prdicteur. Les squences dapprentissage sont
constitues de la squence des commandes {u(k)} appliques au processus et au prdicteur, et
de la squence des sorties dsires pour le prdicteur, qui sont les sorties {yp(k)} mesures sur
le processus. Les coefficients sont estims de manire minimiser une fonction de cot dfinie
partir de lcart yp y, laide dun algorithme dapprentissage appropri.
Squence des
entres externes
{u}

Processus

Squence des
valeurs dsires
{yp}

+
{u}

Prdicteur
(rseau de neurones)

{y}

Algorithme
d'apprentissage

Figure I.8.
Systme dapprentissage pour la modlisation dun processus.

I.3.2. Expression de la fonction de cot


Dans cet article, nous nous intressons la mise au point de systmes non adaptatifs1 : la
phase dapprentissage et la phase dutilisation des rseaux considrs sont distinctes. Ainsi, un
classifieur non adaptatif ne subira plus de modifications de ses coefficients pendant son
utilisation. Dans ce cadre non adaptatif, lensemble dapprentissage est de taille finie.

1 Pour une prsentation de lapprentissage de systmes adaptatifs entre-sortie, voir [NER93].

13
Nous nous plaons dans le cas o la fonction de cot est une fonction quadratique des
erreurs {E(k)}, carts entre les sorties du rseau {O(k)} et les sorties dsires {D(k)}. La
minimisation de cette fonction de cot est effectue itrativement en modifiant les coefficients
chaque prsentation de lensemble dapprentissage : les erreurs {E(k)} sont calcules laide
du rseau muni des coefficients disponibles la fin de litration prcdente, et de lensemble
dapprentissage. En classification, on parle gnralement dalgorithme de minimisation du cot
total. En automatique et en traitement du signal, un tel algorithme dapprentissage est dit itratif,
et non rcursif.
En classification, on utilise frquemment lalgorithme du cot partiel dfini sur un ou
plusieurs exemples de lensemble dapprentissage. En automatique et en traitement du signal, le
mme type de dmarche conduit un algorithme dit rcursif ; ces algorithmes ne prsentent de
vritable intrt que pour les systmes adaptatifs.
Cet article ayant pour objet la mise en uvre de systmes non adaptatifs, nous utiliserons
dans les parties suivantes uniquement des algorithmes non rcursifs et itratifs. Lexpression de
la fonction de cot litration i dfinie sur la totalit de lensemble dapprentissage est la
suivante :
J(C, i) = 1
N

k=1

E i(k)TW E i(k) = 1
N

D(k) O i(k) TW D(k) O i(k)

k=1

o C reprsente les coefficients du rseau disponibles litration i, Ei(k) le vecteur des erreurs
pour lexemple (ou linstant) k et litration i, W une matrice dfinie positive (qui sera le plus
souvent choisie diagonale), D(k) le vecteur des sorties dsires pour lexemple k, et Oi(k) le
vecteur des sorties du rseau pour lexemple k et litration i.
I.3.3. Minimisation de la fonction de cot
Puisque nous utilisons des rseaux de neurones, les sorties du systme subissant un
apprentissage sont en gnral des fonctions non linaires des coefficients estimer. La
recherche du minimum de la fonction de cot ne peut seffectuer laide des moindres carrs
ordinaires, et demande donc lutilisation de mthodes de programmation non linaire. Les
algorithmes de calcul du gradient de la fonction de cot ainsi que des mthodes de minimisation
du premier et du second ordre sont prsentes dans [RIV95].
Au-del des aspects techniques de ces algorithmes, il faut retenir leur caractre gnrique :
lun des atouts majeurs des rseaux de neurones rside dans le fait que les algorithmes
dapprentissage sont applicables pour tout rseau mis sous forme canonique. Ainsi, le
concepteur a toute libert dans le choix de larchitecture la mieux adapte au problme pos : il
sait que, quelle que soit la structure du rseau, il pourra toujours utiliser la mme panoplie
dalgorithmes dapprentissage ; cette souplesse permet notamment de concevoir des rseaux
dont larchitecture est trs fortement guide par la physique du processus modliser et/ou

14
commander, exprime par les quations des modles de connaissance. La gnricit des
algorithmes rend ainsi possible la conception de modles neuronaux de connaissance qui
seront introduits dans la partie IV.
II. CLASSIFICATION
Dans le domaine du gnie des procds, les rseaux de neurones ont t utiliss frquemment
en tant que classifieurs, par exemple pour lidentification danomalies. Dans cette brve partie,
nous montrons comment les proprits de classification des rseaux de neurones dcoulent de la
proprit dapproximation universelle, et nous mettons en vidence les avantages et limitations
des rseaux de neurones par rapport aux autres classifieurs.
II.1. CLASSIFICATION ET APPROXIMATION DE FONCTION
Considrons un problme deux classes A et B, et considrons la fonction F(x) qui vaut +1
si lobjet dcrit par le vecteur x appartient la classe A, et qui vaut zro si cet objet appartient
la classe B. Lapproximation, au sens des moindres carrs, de la fonction F(x) nest autre que
la probabilit dappartenance de lobjet x la classe A. Or, nous venons de voir que les rseaux
de neurones constituent de bons approximateurs de fonctions non linaires : ils sont donc de
bons candidats pour lvaluation dune probabilit dappartenance, suivie dune dcision (qui
nest pas ncessairement prise par le rseau de neurones lui-mme) quant lappartenance de
lobjet lune ou lautre classe.
Contrairement une croyance largement rpandue, les rseaux de neurones ne sont donc pas
limits une prise de dcision binaire ; bien au contraire, ils sont intrinsquement capables de
raliser une estimation dune probabilit dappartenance. Cette proprit est trs souvent
ignore, alors quelle est particulirement prcieuse lorsque lon veut introduire un rseau de
neurones comme outil de classification dans des systmes complexes, contenant par exemple
dautres classifieurs, fonds sur des principes diffrents, ou utilisant des reprsentations
diffrentes pour les formes classer [PRI95].
II.2. CLASSIFICATION NEURONALE ET NON NEURONALE
Nous venons de justifier mathmatiquement le fait que les rseaux de neurones fournissent
une estimation de la probabilit dappartenance une classe. Les rseaux de neurones ne sont
pas les seuls avoir cette proprit : il existe notamment des mthodes de classification, dites
paramtriques, qui consistent faire une hypothse sur la forme de la distribution de probabilit
dappartenance, et ajuster les paramtres de cette distribution. Le rsultat final est donc, en

15
principe, le mme que celui que lon obtient laide dun rseau de neurones. Il ny a donc
aucune raison a priori de penser que les rseaux de neurones sont suprieurs, en termes de taux
de classification, ceux, parmi les classifieurs conventionnels, qui permettent destimer de
manire prcise les probabilits dappartenance. Le seul avantage que peuvent prsenter les
rseaux de neurones dans ce domaine, cest peut-tre une certaine facilit de mise en uvre, et
certainement une paralllisation facile si le rseau est ralis lectroniquement, ou sil est
implant sur un ordinateur parallle.

III. MODLISATION
III.1. INTRODUCTION
La modlisation dun processus consiste reprsenter son comportement dynamique laide
dun modle mathmatique paramtr. Ce modle sera utilis pour lapprentissage dun
correcteur, ou au sein dun systme de commande, ou encore comme simulateur du processus.
La premire phase dune modlisation consiste rassembler les connaissances dont on
dispose sur le comportement du processus, partir dexpriences et/ou dune analyse thorique
des phnomnes physiques mis en jeu. Ces connaissances conduisent faire plusieurs
hypothses de modles. Chacun de ces modles dynamiques, appels modles-hypothse,
ralise des fonctions non linaires entre ses variables de commande, dtat, et de sortie. Dans le
cas o ces fonctions sont inconnues, on parle de modle bote noire. Si certaines fonctions
peuvent tre fixes partir de lanalyse physique, on parle alors de modle de connaissance.
Lapproche bote noire utilise, le plus souvent, des modles entre-sortie, alors quune
reprsentation dtat est adopte pour les modles de connaissance.
On est ainsi conduit un ensemble de modles-hypothse concurrents. La seconde phase,
dcrite ci-dessous, va permettre de slectionner le meilleur dentre eux.
La seconde phase de la modlisation, aussi appele identification, consiste estimer les
paramtres des modles concurrents. Pour chacun deux, on met en uvre un systme
dapprentissage constitu de la forme prdicteur du modle-hypothse, et dun algorithme
dapprentissage (ou destimation). Lestimation des paramtres du modle est effectue en
minimisant une fonction de cot dfinie partir de lcart entre les sorties mesures du
processus et les valeurs prdites (erreur de prdiction). La qualit de cette estimation dpend de
la richesse des squences dapprentissage et de lefficacit de lalgorithme utilis.
lissue de lidentification de lensemble des modles-hypothse, on retient lhypothse
correspondant au meilleur prdicteur neuronal obtenu ; la validation finale du modle neuronal
est effectue en fonction de ses performances pour lutilisation prvue (commande ou
simulation).

16

Nous allons dcrire les modles-hypothse considrs dans cet article, et dfinir la forme
prdicteur associe un modle-hypothse donn ; ce prdicteur est llment principal du
systme dapprentissage.
III.1.1. Modles bote noire et modles de connaissance
La modlisation utilisant des modles bote noire entre-sortie a t traite dans [NER94].
Nous prsentons dans la partie IV.4 une application de ce type pour la modlisation dun
procd de calcination.
Toujours dans le cadre dune approche bote noire, il peut tre intressant davoir recours
une reprsentation dtat. En effet, les modles dtat constituent une classe plus vaste de
systmes dynamiques que les modles entre-sortie : certains modles dtat nont pas de
reprsentation entre-sortie globale quivalente. De plus, une reprsentation entre-sortie
quivalente une reprsentation dtat donne peut tre dordre plus lev. Plus prcisment,
soit un modle dtat mono-entre mono-sortie dentre u et de sortie y :
xp(k) = f xp(k-1), u(k-1) (quation d'tat)
(1)
yp(k) = g x p (k)
(quation de sortie)
o xp(k) est le vecteur dtat du modle dordre nx ; f et g sont des fonctions non linaires.
Il a t montr [LEV92] quun modle entre-sortie quivalent ce modle dtat est de la
forme :
yp(k) = h y p(k-1), ..., yp(k-r), u(k-1), , u(k-r)
(2)
avec nx r 2nx+1. Ainsi, les modles entre-sortie sont moins parcimonieux que les modles
dtat, en particulier parce quils demandent un plus grand nombre darguments pour la fonction
h estimer. Ceci sera illustr par la modlisation du comportement dynamique de lactionneur
dun bras de robot au paragraphe III.5.
Dans le cas o un modle de connaissance, mme imparfait ou incomplet, est disponible, le
concepteur a gnralement intrt utiliser cette connaissance ds la conception dun modle
dtat neuronal. Cette approche sera dcrite plus en dtail dans la partie IV.5 pour la
modlisation dune colonne distiller.
III.1.2. Dfinition de la forme prdicteur associe un modle-hypothse
Dans tout ce qui suit, les perturbations mesures sont considres comme des entres (notes
u), et seules des perturbations non mesures de type bruit sont envisages.

17
La forme prdicteur associe un modle-hypothse est le prdicteur qui fournit lerreur de
prdiction minimale si lhypothse est vraie.
- Dans le cas dun modle sans perturbation alatoire, trouver la forme prdicteur consiste
essentiellement trouver les arguments de la fonction f (modle dtat (1)) ou h (modle
entre-sortie (2)) du modle-hypothse. La forme prdicteur fournit une erreur nulle si
lhypothse est vraie.
- Pour les modles avec perturbations alatoires que nous allons prsenter, la forme prdicteur
dpend galement de la manire dont les perturbations sont prises en considration par le
modle-hypothse. La forme prdicteur est le prdicteur optimal au sens de la variance de
lerreur de prdiction, si lhypothse est vraie.
Nous prsentons successivement les modles entre-sortie et les modles dtat.
III.2. MOD LISATION ENTR E - SORTIE
Plusieurs modles dynamiques non linaires avec bruit ont t prsents dans [NER94] : les
modles NARX, NBSX, et NARMAX. Nous rappelons ces modles, dans le cas mono-entre
mono-sortie.
Le modle NARX (Non linaire Auto-Rgressif avec entre eXogne) est le modle non
linaire avec bruit qui conduit au prdicteur le plus simple. Dans le cas linaire ARX, ce modle
est encore appel equation error [LJU87]. Il scrit :
yp(k) = h y p(k-1), ..., yp(k-n), u(k-1), , u(k-m) + w(k)
(3)
o {w(k)} est une squence de variables alatoires indpendantes valeur moyenne nulle (bruit
pseudo-blanc).
La forme prdicteur associe au modle NARX est la suivante :
y(k+1) = h y p(k), ..., yp(k-n+1), u(k), , u(k-m+1)
(4)
On vrifie aisment que, si lhypothse NARX est vraie, lerreur de prdiction
e(k+1) = yp(k+1) y(k+1) est gale au bruit, par dfinition imprdictible. La variance de
lerreur est alors minimale.
Le systme dapprentissage doit utiliser un rseau prdicteur non boucl de la forme :
y(k+1) = f y p(k), ..., yp(k-n+1), u(k), , u(k-m+1); C
(5)
o f est la fonction non linaire ralise par le rseau non boucl muni des coefficients C. Si
lhypothse NARX est vraie et si les autres conditions dune bonne identification sont runies
(squences dapprentissage reprsentatives, algorithme adquat et performant), alors la fonction
f est une bonne approximation de h.

18
Le modle NBSX (Non linaire avec Bruit de Sortie additif et entre eXogne) peut
reprsenter un processus affect dun bruit de mesure additif non corrl. Dans le cas linaire,
ce modle est appel output error [LJU87]. Il scrit de la manire suivante :
z p(k) = h z p(k-1), ..., zp(k-n), u(k-1), , u(k-m)
(6)
yp(k) = zp(k) + w(k)
Le prdicteur associ est un prdicteur dordre n, dont ltat est constitu de la sortie et des n-1
valeurs prcdentes de celle-ci :
y(k+1) = h y(k), ..., y(k-n+1), u(k), , u(k-m+1)
(7)
Si lhypothse est vraie, lerreur de prdiction est gale au bruit.
Le systme dapprentissage doit ici utiliser un rseau de neurones prdicteur dordre n boucl
sur sa sortie :
y(k+1) = y(k), ..., y(k-n+1), u(k), , u(k-m+1); C
(8)
o f est la fonction non linaire ralise par la partie non boucle du rseau de coefficients C. Ici
encore, si lhypothse est vraie, et si toutes les conditions dune bonne identification sont
runies, alors la fonction f est une bonne approximation de h.
Dans le domaine du traitement du signal et de lautomatique, les modles prcdents sont
souvent insuffisants pour dcrire correctement les processus. Le modle-hypothse non linaire
le plus gnral que nous considrons est le modle NARMAX (Non linaire Auto-Rgressif
Moyenne Ajuste avec entre eXogne). Ce modle est une extension au non linaire du
modle linaire ARMAX [LEO85] [CHE89] [CHE90a&b]. Il est de la forme :
yp(k) = h y p(k-1), ..., yp(k-n), u(k-1), , u(k-m), w(k-1), , w(k-p) + w(k)
(9)
Le prdicteur associ est dordre p, ses variables dtat tant les p erreurs de prdiction
passes :
y(k+1) = h yp(k), ..., yp(k-n+1), u(k), , u(k-m+1), e(k), , e(k-p+1)
(10)
o e(k) = yp(k) y(k). Son erreur de prdiction est gale au bruit. Le systme dapprentissage
doit donc utiliser un rseau de neurones prdicteur boucl dordre p donc les variables dtat
sont les p erreurs de prdiction passes :
y(k+1) = f y(k), ..., y(k-n+1), u(k), , u(k-m+1); C
(11)
o f est la fonction non linaire ralise par la partie non boucle du rseau de coefficients C.
De mme, si lhypothse est vraie, et si toutes les conditions dune bonne identification sont
remplies, alors la fonction f est une bonne approximation de h.

19
III.3. MOD LISATION D T A T
Les modles neuronaux dtat sont utiliss, comme nous lavons dit, soit pour une
modlisation de type bote noire, dans le cas o un modle entre-sortie semble insuffisamment
performant, soit dans le cas o une tude physique conduit envisager le modle comme un
ensemble de modules dont certains sont physiques, et dautres des rseaux de neurones.
Pour une reprsentation dtat donne, nous distinguons les variables dtat mesures et
celles qui ne le sont pas, mais nous nabordons pas le problme de lobservation des variables
dtat non mesures. La prsentation est ici plus dlicate que pour les modles entre-sortie,
cest pourquoi nous commenons par des modles dtat sans perturbation alatoire.
III.3.1. Modlisation dtat sans perturbation alatoire
Considrons le modle-hypothse suivant :
x p(k) = f x p(k-1), u(k-1) (quation d'tat)
yp(k) = g x p(k)
(quation d'observation)

(12)

On dduit de ce modle une forme prdicteur thorique (on ne connat pas a priori les fonctions
f et g) :
x(k+1) = f x(k), u(k)
(13)
y(k+1) = g x(k+1)
o x est la prdiction de ltat xp.
Le prdicteur neuronal boucl dtat x et de sortie y correspondant est utilis pour
lapprentissage :
x(k+1) = f x(k), u(k); Cf
(14)
y(k+1) = y x(k+1); Cy
o f et y sont des fonctions non linaires ralises par deux sous-rseaux en cascade de
coefficients Cf et Cy. Lapprentissage est effectu laide de la squence dentre {u(k)} et de
celle de la sortie {yp(k)}. Les valeurs dsires pour les y(k+1) sont les sorties mesures
yp(k+1) .
Dans le cas gnral o ltat nest pas mesur, ltat x du prdicteur neuronal
nayant pas de valeurs dsires, x na donc pas de signification particulire. En effet, tout
prdicteur neuronal dont ltat vrifie x = F x p , o F est inversible, et de la forme :
x(k+1) = f x(k), u(k)
f x,u = F f F -1 x ,u
avec
(15)
-1
y(k+1) = g x(k+1)
g . =g F .
prdit sans erreur la sortie du processus. Il existe donc plusieurs formes prdicteur diffrentes,
qui ont le mme comportement entre-sortie que le modle-hypothse, mais dont ltat ne
concide gnralement pas avec celui du modle-hypothse, et dont les fonctions f et y ne sont
pas des approximations des fonctions f et g du modle-hypothse. Nanmoins, lutilisation du

20
prdicteur comme modle de simulation bote noire se ramne celle dun modle entresortie ; elle peut cependant poser des problmes linitialisation.
Si ltat est compltement mesur, nous distinguons dans le vecteur de sortie yp, ltat
mesur xp dune part, et les autres variables de sortie yp* dautre part :
x p(k)
x p(k)
=
yp(k) =
(16)
x p(k)
g*
*
yp (k)
La situation est analogue au cas entre-sortie : chaque composante de x possde une valeur
dsire. Il est donc possible destimer la fonction f laide soit dun prdicteur neuronal de
ltat non boucl :
x(k+1) = f xp(k),u(k); C
(16)
soit dun prdicteur boucl :
x(k+1) = f x(k),u(k); C
Un rseau non boucl est utilis pour estimer la fonction g* :
y*(k) = y xp(k); C

(17)
(18)

Lapprentissage est ralis laide de la squence de commande {u(k)} et de celle des sorties
{yp(k)}, qui comprennent ltat mesur {xp(k)}.
Si ltat nest pas compltement mesur, le concepteur a videmment intrt utiliser
les variables dtat mesures comme valeurs dsires.
Remarque :
Pour de nombreuses applications, on peut dsirer modliser non seulement le comportement
entre-sortie du processus, mais aussi lvolution de son tat. Or, nous avons vu ci-dessus
quen labsence dinformations sur le processus, les fonctions f et y obtenues par
apprentissage ne sont des approximations des fonctions f et g du modle-hypothse que si
toutes les variables dtat sont mesures et utilises comme valeurs dsires. Nanmoins, si des
connaissances a priori permettent dimposer la structure mathmatique des fonctions f et g et des
contraintes sur les variables dtat, il est possible de raliser une estimation exploitable des
fonctions f et g et donc de ltat, mme sans la mesure complte de ltat. Ceci est illustr par la
modlisation dtat dune colonne distiller dans la partie IV.5.
III.3.2. Modlisation dtat avec perturbations alatoires
Rappelons quen prsence de perturbations alatoires, la forme prdicteur associe au
modle-hypothse est le prdicteur qui est optimal (i.e. qui fournit une erreur de prdiction
variance minimale) si lhypothse est vraie.

21
Soit un modle-hypothse dtat avec bruit de sortie additif :
x p(k) = f x p(k-1), u(k-1)
yp(k) = g x p(k) + w(k)

(19)

On dduit de ce modle une forme prdicteur thorique :


x(k+1) = f x(k), u(k)
(20)
y(k+1) = g x(k+1)
Si lhypothse est vraie, lerreur de prdiction est gale au bruit : ce prdicteur est bien optimal.
Le prdicteur neuronal sen dduit, de la mme faon quen labsence de perturbation alatoire :
il est de la forme (14). Comme prcdemment, si certaines variables dtat sont mesures, ces
mesures doivent tre utilises comme valeurs dsires.
Pour tout modle-hypothse autre quavec bruit de sortie additif, les prdicteurs associs font
intervenir ltat mesur ; si ltat nest pas mesur, on ne peut quutiliser un prdicteur dtat
neuronal de la forme (14), qui est donc sous-optimal.
Remarque :
Rappelons que les modles dtat peuvent reprsenter une plus grande catgorie de systmes
dynamiques que les modles entre-sortie. Cet avantage est gnralement dterminant, mme si
ces modles sont sous-optimaux en prsence de perturbations alatoires autres quun bruit de
sortie additif. Ceci est illustr au paragraphe III.5 avec la modlisation de lactionneur dun bras
de robot.
III.4. APPRENTISSAGE
Nous avons vu dans la partie I quune forme canonique dun rseau de neurones est :
S(k+1) = f S(k), I(k); C
(21)
O(k) = y S(k), I(k); C
o I(k) est le vecteur des entres externes du rseau, S(k) est le vecteur dtat, et O(k) est le
vecteur de sortie. Les fonctions f et y sont ralises par la partie non boucle du rseau munie
des coefficients C. Pour raliser des prdicteurs dtat de la forme (14), on peut aussi bien
utiliser un rseau compos de deux sous-rseaux distincts en cascade :
S(k+1) = f S(k), I(k); Cf
(22)
O(k) = y ' S(k+1); Cy'
o Cf et C y' sont les coefficients des deux sous-rseaux.

22

O(k)

O(k)
S(k+1)

y
y=yof

S(k+1)

I(k)

q-1

S(k)

I(k)

q-1
S(k)

a)

b)
Figure III.1.
a) Formes canonique dun rseau de neurones ; b) Forme quivalente.

Exemple.
Soit le modle-hypothse NARMAX (9) ; le prdicteur associ est donn par (10). Ceci
impose lutilisation dun prdicteur neuronal de la forme (11) :
y(k+1) = f yp(k), ..., yp(k-n+1), u(k), , u(k-m+1), e(k), , e(k-p+1); C
(11)
o :
I(k) = y p(k), , yp(k-n+1), u(k), , u(k-m+1)
(23)
S(k) = e(k), , e(k-p+1)
O(k) = y(k+1)
yp (k+1)

e(k+1)

y(k+1)
f

.........

e(k)

e(k-p+2)

Retards
unit

Compltement
connect

.....
u(k)

....

u(k-m+1)
I(k)

yp (k)

yp (k-n+1)

..

.........
e(k)

...

e(k-p+1)
S(k)

Figure III.2.
Exemple de rseau prdicteur NARMAX.

Lapprentissage du rseau est dfini :


- par une squence dapprentissage I(k) applique aux entres externes, et une squence de
valeurs dsires correspondantes D(k) pour les sorties du rseau ;
- par une fonction de cot, dfinie sur la fentre fixe de taille N :

23
J(C, i) = 1
N

k=1

E i(k)TW E i(k) = 1
N

D(k) O i(k) TW D(k) O i(k)

(24)

k=1

o Oi(k) sont les sorties linstant k, calcules avec les coefficients disponibles litration i ;
E i(k) est le vecteur des erreurs linstant k et litration i, et D(k) est le vecteur des sorties
dsires linstant k ; W est une matrice dfinie positive.
La fonction de cot est minimise par une mthode itrative utilisant la valeur de la fonction
de cot et celle de son gradient, cette dernire tant calcule par lalgorithme de
rtropropagation. Les mthodes quasi-Newtoniennes pas asservi sont particulirement
efficaces dans ce cadre.
Lalgorithme de calcul de la fonction de cot et de son gradient est dit dirig si le rseau est
non boucl, semi-dirig sinon. Ceci signifie, dans le premier cas, que le rseau na pas dtat,
et quil est donc entirement dirig par les entres externes, et, dans le second cas, que ltat
du rseau ne lui est impos quau dbut de la fentre de la fonction dapprentissage.
Pour tout apprentissage de prdicteur neuronal, si le modle-hypothse est vrai, si les
squences dentre dapprentissage sont sensibilisantes, si la famille de fonctions ralisables par
le rseau est assez vaste (cest--dire si le rseau possde suffisamment de neurones), et si
lalgorithme dapprentissage est efficace, alors le rseau prdicteur est une bonne ralisation du
prdicteur optimal.
III.5. MOD LISATION DE L ACTIONNEUR D UN BRAS DE ROBOT
La position dun bras de robot est commande par un actionneur hydraulique. La position du
bras dpend de la pression dhuile dans lactionneur, pression commande par louverture
dune vanne. Les variations de louverture de la vanne, cest--dire la squence de commande
{u(k)}, et la pression dhuile correspondante, cest--dire la squence de sortie {yp(k)}, sont
montres sur la figure III.3. Ce fichier de donnes2 contient 1024 points de mesure : la
premire moiti dentre eux est utilise pour lapprentissage, la seconde pour lestimation de la
performance (squence de test).

2 Ces donnes proviennent de la Division of Oil Hydraulics and Pneumatics, Dept. of Mechanical Eng.,

Linkping University, et nous ont t aimablement communiques par P.-Y. Glorennec.

24
4

yp
2
0
-2
-4

200

4 00

600

Squence d'apprentissage

800

1 000

Squence de test

-1
0

200

400

600

800

1000

Figure III.3.
Squences dapprentissage et de test pour la modlisation dun bras de robot.

Lexamen des donnes montre que les squences dapprentissage et de test nexplorent
quapproximativement le mme domaine de fonctionnement (signaux de sortie et de commande
de mme type et de mme amplitude). On note quaux instants 600 et 850 environ de la
squence de test, lamplitude de la commande dpasse les amplitudes maximales atteintes sur la
squence dapprentissage. De plus, pour des entres similaires, les oscillations du processus
sont beaucoup plus entretenues sur la squence dapprentissage que sur la squence de test.
Nous ne disposons daucune connaissance sur le processus : la modlisation est donc
entirement bote noire. Nous avons tout dabord envisag des modles entre-sortie, puis
des modles dtat.
III.5.1. Modlisation entre-sortie de lactionneur hydraulique du bras de robot
Sous lhypothse entre-sortie NBSX, les meilleurs rsultats sont obtenus pour un modle
du second ordre. Le prdicteur neuronal est de la forme :
y(k+1) = f y(k), y(k-1), u(k); C
(25)
avec trois neurones cachs. Il est reprsent sur la figure III.4.

25
y(k+1)
f

q-1

u(k)

y(k)

y(k-1)

Figure III.4.
Prdicteur neuronal entre-sortie pour lactionneur hydraulique.

Lerreur quadratique moyenne obtenue laide du prdicteur de la figure III.4 est de 0,081
sur la squence dapprentissage, et de 0,305 sur la squence de test. Lajout de neurones
supplmentaires conduit un surajustement (overfitting). Les rsultats obtenus sur la squence
de test sont montrs sur la figure III.5. On peut observer que lerreur nest pas un bruit blanc.
5

yp
y

-5

100

200

300

400

500

Figure III.5.
Modlisation entre-sortie de lactionneur hydraulique.

Sous lhypothse NARX, les prdicteurs obtenus donnent tous des rsultats beaucoup moins
satisfaisants sils sont tests boucls (rappelons que la forme prdicteur associe un modle
NARX est non boucle). Ces prdicteurs ne peuvent donc pas tre utiliss comme simulateurs.
III.5.2. Modlisation dtat de lactionneur hydraulique du bras de robot
Quelles que soient les hypothses concernant les perturbations alatoires, la seule possibilit
est dutiliser un modle dtat boucl (rappelons quil sagit de modlisation bote noire). Le
prdicteur neuronal est de la forme :
x1(k+1) = f1 x1(k), x2(k), u(k); C
x2(k+1) = f2 x1(k), x2(k), u(k); C
(26)
y(k+1) = y x1(k), x2(k), u(k); C
avec deux neurones cachs. Il est reprsent sur la figure III.6.

26
y(k+1)

x1 (k+1)

x 2(k+1)

q -1

u(k)

x 1(k)

x2 (k)

Figure III.6.
Prdicteur neuronal dtat pour lactionneur hydraulique.

Au dbut des squences dapprentissage et de test, ltat du prdicteur est initialis zro.
Lerreur quadratique moyenne obtenue avec le prdicteur de la figure III.6 est de 0,103 sur la
squence dapprentissage, et de 0,114 sur la squence de test, ce qui constitue une bien
meilleure performance que celle des prdicteurs entre-sortie.
5

yp
y

-5

100

200

300

400

500

Figure III.7.
Modlisation dtat de lactionneur hydraulique.

Ces rsultats illustrent trs nettement lavantage de prdicteurs dtat pour la modlisation bote
noire lorsque les squences dapprentissage disponibles sont de petite taille : puisque quils
ncessitent moins darguments, ils ncessitent aussi moins de paramtres - ils sont plus
parcimonieux, et sont donc moins enclins au surajustement. Les rsultats obtenus sur la
squence de test sont reprsents sur la figure III.7.
III.5.3. Comparaisons
La comparaison de nos rsultats avec ceux dautres quipes est trs favorable :
- [SJ94] ralise lapprentissage dirig dun prdicteur NARX avec n=3, m=2 et 10 neurones
cachs. Le test est effectu avec le prdicteur obtenu boucl (modle de simulation associ au
prdicteur), et fournit une erreur quadratique moyenne de 0,585 sur la squence de test.

27
- Une performance analogue est obtenue dans les mmes conditions dans [BEN94] laide dun
modle ondelettes.
- [SJ93] ralise une erreur quadratique moyenne de 0,465 sur la squence de test laide du
modle de simulation associ un prdicteur NARX avec n=2, m=2 et 8 neurones cachs.
Les rsultats que nous avons obtenus laide dun prdicteur dtat deux neurones cachs,
bien meilleurs que les prcdents (erreur quadratique moyenne de 0,114 sur la squence de
test), dmontrent donc lintrt de ces prdicteurs trs gnraux, ainsi que la faisabilit de leur
apprentissage.
III.6. CONCLUSION
Cette partie prsente les principes de la modlisation neuronale. Outre la modlisation entresortie, dj dcrite dans [NER94], et qui sera illustre sur lexemple dun procd de calcination
dans la partie IV.4 suivante, nous avons expos la modlisation laide de modles dtat
neuronaux. En effet, lintrt de ce type de modles est considrable, pour une modlisation
bote noire comme pour une modlisation physique.
Dans le cas de la modlisation bote noire, lintrt de modles dtat neuronaux par rapport
des modles entre-sortie est d au fait quils forment une classe plus vaste, et ce quils sont
plus parcimonieux : (i) certains processus non linaires ne sont pas modlisables globalement
par des modles entre-sortie ; (ii) des modles entre-sortie ncessitent en gnral plus
darguments et donc de paramtres que des prdicteurs dtat quivalents. Ceci a t illustr par
lexemple de la modlisation de lactionneur dun bras de robot.
Dans le cas o lon peur raliser une modlisation physique, qui conduit donc un ensemble
dquations dtat, des modles neuronaux dtat peuvent avantageusement tre conus en vue
de prendre en considration ces connaissances a priori. Leur mise en uvre se distingue de celle
des modles neuronaux entre-sortie bote noire par le fait que leur structure est partiellement
impose : certaines variables dtat sont mesures, et certaines des quations dtat sont
ventuellement connues (fonctions fixes ou famille de fonctions dont les paramtres,
physiques, sont inconnus). Les fonctions inconnues peuvent tre ralises par des modules
neuronaux. Ces considrations sont dveloppes dans la partie IV.5 avec la modlisation dtat
dune colonne distiller.
Comme nous lavons prcis au dbut de cette partie, une modlisation neuronale peut tre
effectue en vue de la conception dun systme de commande dun processus non linaire, pour
laborer un correcteur, o encore pour simuler le processus au sein du systme de commande,
comme cest le cas pour la commande avec modle interne. Un expos succinct de lutilisation
de modles neuronaux pour la conception de systmes de commande neuronaux fera lobjet de
la partie V.

28

IV. MODLISATION
INDUSTRIELS

POUR

LA

SIMULATION

DE

PROCDS

IV.1. INTRODUCTION
La modlisation de procds industriels pour la simulation connat deux grandes classes
dapplications : la dtection danomalies, et laide la conception ou la conduite dun
processus. Nous dveloppons le principe de la conception dun modle neuronal de
connaissances, et nous illustrons cette partie par deux applications industrielles.
IV.1.1. Modlisation pour la dtection danomalies
Un processus industriel moderne est souvent trs instrument ; il fournit en permanence les
rsultats de nombreuses mesures, apportant son pilote une grande quantit dinformations,
quasiment en temps rel, qui sont souvent difficiles exploiter : cest notamment le cas
lorsquune anomalie de fonctionnement se traduit par de faibles carts simultans sur plusieurs
mesures, voire par des volutions normales pour chaque mesure prise sparment, mais dont
lapparition simultane traduit cette anomalie.
Pour automatiser la dtection de telles situations, plusieurs approches peuvent tre envisages :
- lutilisation de systmes experts (ventuellement flous) : une telle approche ncessite une
formalisation (ventuellement incertaine) de lexpertise ; elle est difficilement applicable
lorsquun grand nombre de grandeurs doivent tre prises en considration ;
- lutilisation de classifieurs (ventuellement neuronaux) capables de discriminer les situations
normales de situations anormales ; la limitation fondamentale de cette approche rside dans le
fait que ces mthodes statistiques exigent des bases dexemples ; or, sil est trs facile de
trouver de nombreux exemples de situations normales, il est souvent - heureusement - trs
difficile de disposer, en nombre quivalent, dexemples des diffrentes situations anormales
susceptibles de se prsenter (on ne les connat dailleurs pas forcment) ;
- lutilisation dun modle prcis du comportement normal du processus, les anomalies tant
dtectes en comparant les prdictions du modle et les mesures effectues sur le processus ;
cette mthode ncessite videmment un modle prcis en temps rel, mais elle vite de
collecter des exemples de fonctionnement anormal. Lensemble dapprentissage doit couvrir
lensemble du domaine de comportement normal du processus.

29
IV.1.2. Modlisation pour laide la conception ou la formation
On peut galement mettre en uvre des rseaux de neurones pour raliser des simulateurs
destins laide la conception de systmes, ou pour aider la formation de personnels de
conduite de procds. Dans ce cas, il nest pas ncessaire que le simulateur soit extrmement
prcis, mais il doit pouvoir simuler une grande varit de situations, mme si celles-ci ne sont
pas trs vraisemblables ou frquentes.
IV.2. SYST MES ADAPTATIFS
Comme nous lavons indiqu dans la partie I, les rseaux de neurones peuvent tre mis en
uvre au sein de systmes adaptatifs, cest--dire de systmes qui apprennent en permanence.
Cette proprit impose videmment une charge de calcul en temps rel plus importante que celle
de systmes non adaptatifs, mais elle peut tre indispensable dans les cas o le processus est
lobjet dvolutions lentes telles que lencrassement dun conduit, lusure dun palier, la drive
dun capteur, etc. ; si lvolution est suffisamment lente, une remise jour rgulire, mais non
permanente, des coefficients du modle peut suffire. Dans le cas dune modlisation base de
connaissances, ces coefficients peuvent dailleurs tre utiliss comme indicateurs de lvolution
dun processus, des fins de surveillance ; dans le cas dune modlisation bote noire, il
convient de prvoir un suivi de ces volutions.
IV.3. LES SYST MES NEURONAUX DE CONNAISSANCE
Une croyance populaire veut que les rseaux de neurones soient des botes noires,
incapables dexpliquer leur comportement. Cest gnralement faux. Comme nous lavons
mentionn plusieurs reprises, il est parfaitement possible, et mme souhaitable, dutiliser,
dans la conception dun rseau de neurones, la plus grande quantit possible dinformations
mathmatiques concernant le processus modliser. On peut ainsi raliser de vritables
modles neuronaux de connaissance.
Lorsque lon cherche modliser un processus dynamique, plusieurs situations peuvent se
prsenter :
- aucune connaissance mathmatique, suffisamment prcise pour tre exploitable, nest
disponible : on a alors ncessairement recours une modlisation bote noire, qui doit tre
effectue selon les principes exposs dans la partie III, et qui est illustre par la modlisation
de lactionneur du bras de robot au paragraphe III.5.

30
- une analyse physique permet de dterminer les variables dtat dun modle, qui peut tre
exprim sous la forme dun ensemble dquations dtat non linaires, mais qui nest pas
suffisamment prcis pour tre utilisable en dtection danomalies :
dx = f x(t), u(t)
dt
Limprcision de ce modle peut tre due des approximations faites dans lanalyse
physique, ou une mconnaissance de certains phnomnes, qui se traduisent par des
incertitudes importantes sur les paramtres du modle. Nanmoins, ce modle est
suffisamment pertinent pour introduire des contraintes dans la conception du prdicteur
neuronal ; lapprentissage devrait donc fournir un modle plus prcis.
Aprs discrtisation de cette quation par la mthode dEuler, les quations dtat
deviennent :
x(k+1) = x(k) + f x(k), u(k)
(dautres mthodes que la mthode dEuler peuvent tre utilises). Le rseau de neurones
reprsent sur la figure IV.1 (qui est sous forme canonique) obirait ces quations aux
diffrences si le rseau de neurones statique ralisait la fonction f.
x(k+1)

q-1

Rseau
de neurones
statique

x(k)

u(k)

Figure IV.1.
Ralisation neuronale des quations dtat discrtises.

Pour bnficier de lapprentissage, on peut organiser le rseau statique en deux types de


sous-rseaux :
(i) les fonctions connues analytiquement, mais dont le calcul exact ncessite une quantit
doprations incompatibles avec les exigences de fonctionnement en temps rel (par
exemple, le calcul de la valeur de certaines composantes de f pour x et u donns peut
ncessiter la solution dune quation algbrique ou diffrentielle) sont approches par
certaines parties de ce rseau aprs un apprentissage hors-ligne partir de donnes
calcules. Si ncessaire, un apprentissage final, partir de donnes mesures, peut
affiner le rsultat.
(ii) les comportements non connus analytiquement sont modliss par des sous-rseaux
botes noires.

31
Notons que les fonctions connues qui sont suffisamment simples peuvent tre incluses
directement dans le rseau ; dans ce cas, le seul intrt de la mise sous forme neuronale rside
dans le fait quelle permet lintgration de ces fonctions dans lensemble du modle de manire
homogne et facilement manipulable dans le cadre dun modle neuronal global.
Il faut noter que, si les quations diffrentielles constituant le modle ne sont pas sous forme
dquations dtat, le rseau obtenu aprs discrtisation nest pas sous forme canonique. Le
rseau doit alors tre mis sous forme canonique avant lapprentissage.
Lun des intrts majeurs du modle de connaissance rside dans le fait quil rsulte
gnralement dune dcomposition du problme global en sous-problmes de plus petite taille ;
cette dcomposition se retrouve dans la structure du rseau de neurones, qui devient ainsi
lisible . Cette lisibilit permet notamment de vrifier que chaque sous-rseau ralise bien la
fonction qui lui est affecte, et de dtecter, le cas chant, des problmes de non identifiabilit.
Ainsi, lapprentissage peut fournir les valeurs de paramtres physiques qui sont mal connus, ou
qui prsentent des dviations par rapport aux valeurs thoriques.
Le concepteur dun modle neuronal possde donc une gamme tendue de possibilits, qui
lui permettent de bnficier de connaissances acquises, tout en mettant profit, de plusieurs
manires, les capacits dapprentissage des rseaux.
IV.4. E XEMPLE DE MOD LISATION

B O TE

NOIRE

: UN

PROC D D E

CALCINATION

Un procd de calcination met en jeu des ractions chimiques entre solides, et entre solides et
gaz. Ces ractions sont toujours difficilement matrises, car de nombreux paramtres pertinents
ne sont pas accessibles la mesure. Ltat de division du solide, la taille des grains, leurs
formes, ou leur tat de surface, par exemple, sont trs difficiles caractriser. Les
connaissances thoriques sont peu prs inutilisables.
Dans le cadre dune tude pour la Socit Ciments Lafarge, une modlisation bote noire a
t effectue. Les entres retenues sont les grandeurs physiques reconnues pertinentes par les
experts du domaine. La sortie est reprsentative de la qualit du produit final. Les modles
thoriques tablis par divers auteurs mettent en jeu des grandeurs qui ne sont pas mesures ;
elles font intervenir des coefficients dont les valeurs numriques publies ont une dispersion de
plusieurs ordres de grandeurs : il nest donc pas possible dutiliser ces connaissances pour
modliser le procd.

32

Densit

Les mesures sont effectues toutes les minutes, et le temps de rponse typique du processus
est de lordre de 30 minutes. Les meilleurs rsultats ont t obtenus avec un prdicteur entresortie du premier ordre six neurones cachs. Ce prdicteur a t mis en uvre, aprs un
apprentissage semi-dirig, pour prvoir la sortie du processus sur divers horizons, en
supposant les entres constantes sur ces horizons. Un exemple de prvision 10 minutes est
reprsent sur la figure IV.2, sur laquelle sont portes les mesures effectues linstant t, et la
prvision effectue linstant t 10 minutes.

1600
1500
1400
1300
1200
1100
1000
1

181

361
541
Temps (minutes)

721

901

Figure IV.2.
Exemple de prvision dix minutes de la sortie du procd de calcination.

IV.5. EXEMPLE DE MOD LE NEURONAL DE CONNAISSANCES : UN PROC D D E


DISTILLATION

Le processus de distillation a t trs largement tudi, et il est bien connu. Il met en jeu des
quilibres thermodynamiques entre liquide et vapeur dont lanalyse thorique est faite depuis
longtemps. Les colonnes distiller industrielles sont souvent trs bien instrumentes, et le
processus lui-mme est peu bruit.
Dans le cadre dune tude effectue pour Elf Atochem, nous avons ralis un simulateur,
fonctionnant en temps rel sur PC 486, dont la prcision est suffisante pour permettre la mise en
vidence danomalies de fonctionnement. Dans cette application, nous avons utilis la mthode
dcrite au paragraphe IV.3 pour effectuer la conception dun modle neuronal de connaissance,
qui comporte 8 entres, 10 sorties, et 100 variables dtat, dont seulement 8 sont mesures (de
manire indirecte). Le profil de temprature dans la colonne est reconstitu par le rseau.
Notons que, malgr le grand nombre de neurones utiliss (un millier), seuls 32 poids sont
calculs par lapprentissage, grce lutilisation des connaissances physiques. Les rsultats
obtenus permettent de dtecter des anomalies par comparaison entre les tempratures mesures
et celles qui sont prdites par le modle. Un rsultat typique est prsent ci-dessous.

33

-12.00

Tempratures(C)

-12.50

Anomalie

Processus

-13.00
-13.50
-14.00
-14.50
-15.00
-15.50

Modle

-16.00
0

12

24

36

48

60

72
84
96
Temps (heures)

108 120

132

Figure IV.3.
Exemple de dtection danomalies.

V. MODLISATION POUR LA COMMANDE


La commande de processus par rseaux de neurones est aborde ici de faon succincte, afin
de faire apparatre les aspects spcifiques de la modlisation neuronale pour la commande, ainsi
que lapport des rseaux de neurones pour une telle utilisation.
V.1. PR SENTATION
Commander un processus, cest dterminer les commandes lui appliquer, afin de lui
assurer un comportement donn, en dpit de perturbations. Ces commandes sont dlivres par
un organe de commande, quon labore en plusieurs tapes.
Tout dabord, un modle du comportement du processus est ncessaire la synthse de
lorgane de commande : un tel modle sera appel modle de commande. Les qualits requises
pour un modle de commande ne sont videmment pas les mmes que pour un modle de
simulation ; on privilgiera notamment une structure de modle assez simple pour faciliter la
synthse dune commande, la rapidit du calcul, par rapport la validit parfaite sur un trs
large domaine de fonctionnement qui est ncessaire un modle de simulation (pour la dtection
danomalies par exemple). Il faut ensuite choisir larchitecture du correcteur (correcteur par
retour dtat, PID), en fonction du modle et du cahier des charges, correcteur qui peut
galement tre ralis par un rseau de neurones.
Nous nous intressons ici des systmes de commande non adaptatifs, cest--dire des
systmes dont les paramtres sont calculs lors dune phase de synthse pralable leur
utilisation. Lapprentissage des correcteurs ncessaires aux systmes de commande prsents

34
est donc ralis hors-ligne laide du modle de commande, comme le montre la figure V.1 :
ceci caractrise les mthodes de commande indirectes.
Squence des
consignes
{r}

Modle
de rfrence
d'apprentissage

Squence des
valeurs dsires
yr

{r}
{r}

Correcteur
(rseau de neurones
soumis
apprentissage)

{u} Modle de commande


(rseau de neurones
fix)

{y}

Algorithme
d'apprentissage

Figure V.1.
Systme dapprentissage dun correcteur neuronal (non adaptatif indirect).

Dans ce cadre, le rseau pour lequel la tche est dfinie (entres externes, sorties dsires,
et fonction de cot minimiser) est donc compos du rseau correcteur dont les coefficients
sont estimer, et du modle de commande dont les coefficients sont fixs. La squence des
entres externes est constitue des consignes {r} ; la squence des sorties dsires pour le
systme {correcteur+modle de commande} est constitue des sorties {yr(k)} dun modle de
rfrence. La dynamique de ce dernier traduit les exigences du cahier des charges pour le
comportement en boucle ferme du systme de commande.
Enfin, certains systmes de commande utilisent le modle de commande lui-mme : cest le
cas notamment des systmes avec modle interne, que nous dcrivons au paragraphe V.2.2.
Comme nous lavons montr dans la premire partie, les rseaux de neurones se prtent bien
la ralisation de modles non linaires, car ils peuvent approcher avec une prcision arbitraire
le comportement de nimporte quel systme statique ou dynamique. Ce sont de plus des
approximateurs parcimonieux. Ces proprits ont deux consquences :
- La possibilit de modliser indiffremment des non-linarits trs diverses, quelles soient
inhrentes au processus lui-mme (non-linarit de la cinmatique dun robot mobile, ou dun
moteur explosion) ou ses actionneurs (non-linarits gomtriques de type saturation,
hystrsis) ;
- La parcimonie dun modle neuronal de commande permet de rduire le temps de calcul
lorsque le systme de commande utilise ce modle de commande (en temps rel), comme cest
le cas pour les systmes avec modle interne, ou de commande prdictive.

35
V.2. QUELQUES SYST MES DE COMMANDE
Nous illustrons ces avantages sur lexemple de la commande dun vhicule 4x4 Mercedes
quip des actionneurs et des capteurs ncessaires, le robot REMI de la SAGEM. Le problme
de lasservissement du vhicule sur une trajectoire de consigne avec un profil de vitesse impos
peut tre rsolu deux temps :
- lasservissement de la position du vhicule sur la trajectoire indpendamment de sa vitesse
laide du volant, ce qui ncessite la modlisation du comportement latral du vhicule : nous
posons ce problme en termes de rgulation.
- lasservissement de la vitesse du vhicule sur le profil de vitesse impos laide des
commandes des freins et de lacclrateur, qui ncessite la modlisation du comportement
longitudinal du vhicule : il sagit dun problme de poursuite.
V.2.1. Rgulation optimale neuronale
La rgulation optimale avec cot quadratique horizon infini se prte bien lutilisation de
rseaux de neurones, dont lapprentissage repose justement sur la minimisation dune fonction
de cot. En effet, le but de cette mthode est de trouver une loi de commande minimisant la
fonction de cot J suivante :
+

J x(0) =

x T(k) Q x(k) + r u(k)2

k= 0

partir dun tat initial x(0) quelconque, o Q est une matrice de pondration dfinie positive, et
r est un rel positif ou nul. Lintrt des rseaux de neurones est de permettre facilement la
minimisation de la fonction de cot pour nimporte quel modle non linaire du processus. Un
systme de rgulation optimale utilisant un rgulateur neuronal par retour dtat statique est
reprsent sur la figure V.2.
r=0

xp

Rgulateur
neuronal
par retour d'tat
statique

u
Processus

xp

Figure V.2.
Systme de rgulation neuronal.

Exemple.
Un rgulateur neuronal optimal de la position latrale et de lorientation du vhicule REMI
par rapport la trajectoire de consigne a t mis au point [RIV93], laide dun modle
neuronal du comportement latral du vhicule. Cette modlisation a tir parti dune analyse
physique, et a notamment tenu compte des saturations en position et en vitesse angulaires de

36
lactionneur du volant. Le pilotage latral tait auparavant ralis la SAGEM avec des
techniques linaires : la prise en considration des non-linarits principales a permis
damliorer sensiblement les performances (erreur latrale maximale de 40 cm, pour des
courbures jusqu 0,1 m-1, et des dvers jusqu 30%, sur route et en tout-terrain).
Les performances du systme de commande au cours dun asservissement sur une trajectoire
de consigne longue de 600 m (figure V.3) sont prsents sur la figure V.4 ; la priode
dasservissement est de 0,05 secondes.
120
100

(C)

80
60
y (m)
40

dpart

20
0
-20
-50

50

100

x (m)

150

200

Figure V.3.
Trajectoire de consigne.
(m)

(rd)

0.4

0.5

ey

0
-0.5

-0.4
0

100

200

300

400

500

(m)

100

200

300

a)
(rd)
0.05

400

500 (m)

400

500 (m)

c)
(m/s)
8

vp

0
-0.05
0

100

200

300

b)

400

500

(m)

100

200

300

d)

Figure V.4.
Asservissement latral sur trajectoire : a) erreur latrale, b) erreur de cap, c) commande du volant, d) vitesse,
en fonction de labscisse curviligne le long de la trajectoire de consigne.

37
V.2.2. Asservissement de poursuite neuronal
La majeure partie des systmes de commande neuronaux pour lasservissement de poursuite
appartient la catgorie des systmes dits par simple bouclage, dont un exemple est reprsent
sur la figure V.5. Dans ces systmes, le signal de rtroaction est la sortie du processus (ou son
tat mesur).
Organe de commande
r
Correcteur

yp

Processus

Figure V.5.
Systme de commande par simple bouclage.

Dans les systmes de commande avec modle interne (qui est le modle de commande utilis
pour lapprentissage), le signal de rtroaction principal est la diffrence entre la sortie du modle
interne et celle du processus. Lintrt de cette diffrence est quelle est reprsentative des
dfauts de modlisation et de leffet de perturbations. Grce cela, la conception dun systme
de commande neuronal robuste vis--vis de ces dfauts et de perturbations est plus facile ainsi
quen simple bouclage. De plus, lutilisation de rseaux de neurones comme modle interne
peuvent contribuer lamlioration de ces systmes de commande dans le cas de processus non
linaires.
Organe de commande
r

r*

Correcteur

yp

Processus

u
Modle interne

Figure V.6.
Systme de commande avec modle interne.

Exemple.
Le systme avec modle interne de la figure V.6 a t mis en uvre pour lasservissement de
vitesse de REMI, aprs modlisation neuronale du comportement longitudinal de celui-ci,
modlisation ici encore taye par une analyse physique imposant partiellement larchitecture du
rseau [RIV94]. Aucune technique linaire ne stait avre satisfaisante pour ce problme : le
systme de commande neuronal a obtenu des performances comparables celle du systme
galement non linaire de la SAGEM (compensation de leffet de pentes jusqu 40%, sur route
et en tout-terrain). Le systme de commande neuronal a lavantage dtre beaucoup plus

38
compact que le prcdent. Pour cette raison, le modle neuronal est aussi prfr pour le test en
laboratoire de systmes de commande.
Nous prsentons ci-dessous une simulation de la vitesse de REMI avec ce modle (figure
V.7). Le rseau est boucl pendant toute la dure de la simulation qui est de 7 minutes environ ;
la priode dchantillonnage est de 0,05 secondes.
(m/s)

20

v
10

vp

0
2

0
(m/s)

50

100

150

200

250

300

350

400

(s)

250

300

350

400

(s)

e = vp v

-2
0

50

100

150

200

>0

<0

-1
0

50

100

150

200

250

300

350

400

(s)

150

200

250

300

350

400

(s)

0.5

p
0
0

50

100

Figure V.7.
Modlisation du comportement longitudinal de REMI avec un modle neuronal entre-sortie du premier ordre.
vp est la vitesse du processus, v celle du modle ; q est la commande de langle papillon, p la commande de la
pression de freinage (grandeurs normalises), et rp reprsente le rapport des vitesses (0 en 1re ; 0,75 en 4me).

39
CONCLUSION
Dans cet article, nous avons, en premier lieu, procd une prsentation des rseaux de
neurones partir des dfinitions et de la proprit fondamentale dapproximation universelle
parcimonieuse ; partir du moment o cette proprit est tablie, la nature essentiellement
statistique des rseaux de neurones apparat trs clairement. Garder constamment lesprit cette
caractristique fondamentale des rseaux de neurones, cest se prmunir contre les biais
introduits naturellement par les termes de rseaux de neurones et dapprentissage, qui
pourraient faire croire des parents entre les rseaux de neurones dune part, et les mthodes et
la problmatique de lIntelligence Artificielle (systmes experts ou systmes flous) dautre part :
une commande neuronale est beaucoup plus proche dune commande PID que dun systme
expert, ou beaucoup plus proche dun filtre de Kalman que dune commande floue. Nous avons
insist sur lintrt pratique de la parcimonie des rseaux de neurones, parcimonie qui est
largement illustre par les exemples dapplications prsentes dans larticle. Nous avons
galement expos, en termes trs gnraux, les principes de lestimation des coefficients dun
rseau de neurones ou apprentissage, et avons montr le caractre gnrique des algorithmes
dapprentissage, qui sappliquent indpendamment de larchitecture, aussi complique soit-elle,
des rseaux utiliss.
Bien que ce ne ft pas l lessentiel de notre propos, nous avons tenu a exposer brivement
le principe de fonctionnement des classifieurs neuronaux ; en effet, le lien entre la proprit
dapproximation universelle et les proprits de classification nest pas toujours bien mis en
vidence dans la littrature. Nous montrons notamment que, contrairement une opinion trs
largement rpandue, les rseaux de neurones sont intrinsquement aptes estimer la probabilit
dappartenance dune forme inconnue, alors quils sont souvent prsents comme capables
seulement de dterminer des sparations dures entre les classes. Nous avons galement
montr les limitations des rseaux de neurones dans le domaine de la classification, et insist sur
le fait que les rseaux de neurones entrent dans la catgorie des meilleurs classifieurs, mais
quils nont aucune raison dtre systmatiquement les meilleurs de cette catgorie.
Nous avons ensuite consacr une large place la modlisation de processus dynamiques par
rseaux de neurones. La dmarche adopter pour russir une modlisation a t explique en
dtail ; nous avons particulirement insist sur lintrt des prdicteurs dtat par rapport aux
prdicteurs entre-sortie qui sont habituellement prsents dans la littrature, et nous lavons
illustr par le problme de la modlisation dun bras de robot, qui a t abord indpendamment
par plusieurs quipes ; nous avons montr que la modlisation par rseaux de neurones est
particulirement parcimonieuse (deux neurones dans la couche cache), et environ six fois plus
prcise que dautres approches de ce mme problme.
Nous avons expliqu la problmatique et les principes de mise en uvre de modles
neuronaux de procds dans un contexte industriel. Nous avons illustr ce propos par deux
exemples de modlisation de procds industriels complexes : la modlisation bote noire dun

40
procd de calcination, et la modlisation par modle neuronal de connaissances dune
colonne distiller.
Nous avons galement abord, de manire plus brve, le problme de la modlisation pour la
commande neuronale. Nous lavons illustr par un exemple industriel : lasservissement sur
trajectoire dun vhicule 4x4 autonome, par action sur le volant, lacclrateur, et le frein.
Lobjectif essentiel de cet article tait de montrer que les rseaux de neurones reposent
prsent sur des bases mathmatiques solides qui permettent denvisager des applications
industrielles grande chelle, notamment dans le domaine de la modlisation. Si la rsolution de
problmes difficiles ncessite toujours - et ncessitera encore trs longtemps - beaucoup de
travail et un ventail tendu de connaissances en statistiques, traitement du signal, automatique,
etc., il nest pas douteux que les rseaux de neurones peuvent allger considrablement la tche
des ingnieurs en permettant une approche efficace et gnrique des problmes non linaires.

REMERCIEMENTS
Les rsultats prsents dans cet article nauraient p tre obtenus sans les contributions
dcisives de Jean-Pierre Corriou (ENSIC Nancy), Michel de Cremiers et Daniel Canas
(SAGEM), Marc Lavabre et Dieudonn Malanda (NETRAL).

RFRENCES
[BEN94] Benveniste A., Juditsky A., Delyon B., Zhang Q.& Glorennec P.-Y. (1994)
Wavelets in identification, Preprints of the 10th IFAC Symposium on Identification,
Copenhague, 4-6 juillet 1994.
[CHE89] Chen S. & Billings (1989) Recursive prediction error parameter estimation for non
linear models, Int. J. Control Vol.49 No.2, pp. 569-594.
[CHE90a] Chen S., Billings S. A. & Grant P. M. (1990) Nonlinear system identification
using neural networks, Int. J. Control Vol.51 No.6, pp. 1191-1214.
[CHE90b] Chen S., Cowan C.F.N., Billings S. A. & Grant P. M. (1990) Parallel recursive
prediction error algorithm for training neural networks, Int. J. Control Vol.51 No.6, pp.
1215-1228.
[HOR94] Hornik K., Stinchcombe M., White H. & Auer P. (1994) Degree of approximation
results for feedforward networks approximating unknown mappings and their
derivatives, Neural Computation Vol.6, pp. 1262-1275.

41
[LEO85] Leontaritis I. J. & Billings S. A. (1985) Input-output parametric models for
nonlinear systems. Part II : stochastic nonlinear systems, Int. J. Control Vol.41 No.2,
pp. 329-344.
[LEO87] Leontaritis I. J. & Billings S.A. (1987) Model selection and validation for nonlinear
systems, Int. J. Control Vol.1, pp. 311-341.
[LEV92] Levin A. U. (1992) Neural networks in dynamical systems; a system theoretic
approach, PhD Thesis, Yale University.
[LJU87] Ljung L. (1987) System Identification; Theory for the User, Prentice Hall.
[NER93] Nerrand O., Roussel-Ragot P., Personnaz L. & Dreyfus G. (1993) Neural networks
and nonlinear adaptive filtering : unifying concepts and new algorithms, Neural
Computation Vol.5 No.2, pp. 165-199.
[NER94] Nerrand O., Roussel-Ragot P., Urbani D., Personnaz L. & Dreyfus G. (1994)
Training Recurrent Neural Networks: Why and How? An Illustration in Process
Modeling, IEEE Trans. Neural Networks 5, pp. 178-184.
[PLO94] Ploix J.-L., Dreyfus G., Corriou J.-P. & Pascal D. (1994) From Knowledge-based
Models to Recurrent Networks: an Application to an Industrial Distillation Process,
NeuroNmes94.
[PRI95] Price D., Knerr S., Personnaz L. & Dreyfus G. (1995) Pairwise neural network
classifiers with probabilistic outputs, Neural Information Processing Systems, Morgan
Kaufmann.
[RIV93] Rivals I., Personnaz L., Dreyfus G. & Canas D. (1993) Real-time control of an
autonomous vehicle : a neural network approach to the path-following problem, 5th
International Conference on Neural Networks and their Applications, pp. 219-229
(NeuroNmes93).
[RIV94] Rivals I., Canas D., Personnaz L. & Dreyfus G. (1994) Modeling and control of
mobile robots and intelligent vehicles by neural networks, IEEE Conference on
Intelligent Vehicles, 24-26 octobre 1994, Paris, pp. 137-142.
[RIV95] Rivals I. (1995) Modlisation et commande de processus par rseaux de neurones ;
application au pilotage dun vhicule autonome, Thse de Doctorat de lUniversit Paris
6.
[SJ93] Sjberg J. (1993) Regularization issues in neural network models of dynamical
systems, LiU-TEK-LIC-1993:08, ISBN 91-7871-072-3, ISSN 0280-7971.
[SJ94] Sjberg J., Hjalmarsson H. & Ljung L. (1994) Neural networks in system
identification, Report LiTH-ISY-R-1622.
[SON93] Sontag E. D. (1993) Neural networks for control, in [TRE93], pp. 339-380.
[TRE93] Trentelman H. L. & Willems J. C. eds. (1993) Essays on control : perspectives in the
theory and its applications, Birkhuser , Boston.

42
[URB94] Urbani D., Roussel-Ragot P., Personnaz L. & Dreyfus G. (1994) The selection of
neural models of nonlinear dynamical systems by statistical tests, Neural Networks for
Signal Processing, Proceedings of the 1994 IEEE Workshop, pp. 229-237.
[WHS92] White D. A. & Sofge D. A. (1992) Handbook of intelligent control : neural, fuzzy
and adaptive approaches, Van Nostrand Reinhold, New York.

You might also like