You are on page 1of 150

CENTRO DE INVESTIGACIN Y DE

ESTUDIOS AVANZADOS DEL INSTITUTO


POLITCNICO NACIONAL

Departamento de Control Automtico



Ttulo de la Tesis:

Anlisis y diseo de redes neuronales CMAC para la
identificacin y control de sistemas no lineales



Tesis que presenta:

M. en C. Floriberto Ortiz Rodrguez
1



Para obtener el grado de:

Doctor en Ciencias
En la Especialidad de Control Automtico



Directores de Tesis:

Dr. Wen Yu Liu
Dr. Marco A. Moreno Armendriz



Mxico DF., Octubre del 2008

1
Becario 176273 del CONACyT.

ndice general
0.1. Notacin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1. Introduccin 3
1.1. Motivacin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.2. Objetivo de la tesis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.2.1. Objetivos particulares . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.3. Estructura de la tesis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.4. Publicaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.4.1. Revista . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.4.2. Congresos internacionales . . . . . . . . . . . . . . . . . . . . . . . . 11
2. Red neuronal FCMAC 13
2.1. Sistema biolgico del cerebro . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
2.1.1. Estructura del cerebro . . . . . . . . . . . . . . . . . . . . . . . . . . 13
2.1.2. Neurona biolgica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
2.1.3. Aprendizaje . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
2.1.4. Anatoma de la corteza del cerebelo . . . . . . . . . . . . . . . . . . . 17
2.2. Redes neuronales articiales . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
2.2.1. Redes neuronales estticas . . . . . . . . . . . . . . . . . . . . . . . . 25
2.2.2. Aprendizaje en las redes neuronales articiales . . . . . . . . . . . . . 30
2.3. Sistemas difusos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
2.4. Red neuronal CMAC . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
ii NDICE GENERAL
2.4.1. Red neuronal CMAC . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
2.4.2. Red neuronal CMAC generalizada . . . . . . . . . . . . . . . . . . . . 42
2.4.3. Red neuronal CMAC difusa . . . . . . . . . . . . . . . . . . . . . . . 44
3. Identicacin mediante redes FCMAC 51
3.1. Preliminares . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
3.1.1. Modelo en el espacio de estados . . . . . . . . . . . . . . . . . . . . . 55
3.2. Identicacin mediante redes neuronales CMAC . . . . . . . . . . . . . . . . 56
3.2.1. Red FCMAC con recurrencia local . . . . . . . . . . . . . . . . . . . 57
3.2.2. Red FCMAC con recurrencia global . . . . . . . . . . . . . . . . . . 65
3.2.3. Red FCMAC con recurrencia global-local . . . . . . . . . . . . . . . . 70
3.3. Redes jerrquicas FCMAC . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74
3.3.1. Representacin de una funcin con estructura jerrquica . . . . . . . 74
3.3.2. Construccin de la red jerrquica FCMAC . . . . . . . . . . . . . . . 75
3.3.3. Redes jerrquicas recurrentes FCMAC . . . . . . . . . . . . . . . . . 83
3.4. Simulaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 90
3.4.1. Red HFCMAC vs HRFCMAC . . . . . . . . . . . . . . . . . . . . . . 92
4. Control de sistemas dinmicos 97
4.1. Mtodos de Control Adaptable . . . . . . . . . . . . . . . . . . . . . . . . . 97
4.2. Control adaptable basado en las redes CMAC . . . . . . . . . . . . . . . . . 99
4.2.1. Control adaptable indirecto basado en redes CMAC . . . . . . . . . . 101
4.2.2. Ley de aprendizaje para las redes neuronales HFCMAC . . . . . . . . 104
4.2.3. Simulaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 109
5. Conclusiones 113
5.1. Conclusiones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 113
6. Apndices 119
6.1. A. Preliminares Matemticos . . . . . . . . . . . . . . . . . . . . . . . . . . . 119
NDICE GENERAL iii
6.1.1. Norma Euclideana . . . . . . . . . . . . . . . . . . . . . . . . . . . . 119
6.1.2. Matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 120
6.1.3. Valores propios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 122
6.1.4. Norma espectral . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 123
6.1.5. Supremo e nmo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 124
6.2. B Algoritmo de aprendizaje . . . . . . . . . . . . . . . . . . . . . . . . . . . 124
6.2.1. Mnimos cuadrados . . . . . . . . . . . . . . . . . . . . . . . . . . . . 124
6.2.2. Retropropagacin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 127
6.2.3. Consideraciones bsicas del algoritmo de aprendizaje . . . . . . . . . 129
6.3. C. Esquemas de identicacin . . . . . . . . . . . . . . . . . . . . . . . . . . 130
6.3.1. Aproximacin de funciones . . . . . . . . . . . . . . . . . . . . . . . . 131
6.3.2. Modelo de entrada-salida . . . . . . . . . . . . . . . . . . . . . . . . . 133
6.4. D Estabilidad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 134
6.4.1. Funcin de Lyapunov . . . . . . . . . . . . . . . . . . . . . . . . . . . 140
iv NDICE GENERAL
ndice de guras
1.1. Estructura jerrquica. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
2.1. Estructura del Cerebro . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
2.2. Esquema del control del movimiento humano . . . . . . . . . . . . . . . . . . 15
2.3. Neurona biolgica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
2.4. Clulas Granulares y Purkinge . . . . . . . . . . . . . . . . . . . . . . . . . . 17
2.5. Clulas Purkinge . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
2.6. Aprendizaje Hebbiano . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
2.7. Anatomia del Cerebro . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
2.8. Estructura interna del cerebelo . . . . . . . . . . . . . . . . . . . . . . . . . 20
2.9. Elementos de una neurona. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
2.10. Topologia de las redes neuronales articiales. . . . . . . . . . . . . . . . . . . 24
2.11. Redes estticas y dinmicas . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
2.12. Red neuronal de funciones de base radial. . . . . . . . . . . . . . . . . . . . . 28
2.13. Arquitecturas de redes neuronales dinmicas . . . . . . . . . . . . . . . . . . 30
2.14. Diagrama a bloques de la red neuronal articial. . . . . . . . . . . . . . . . . 32
2.15. Componentes de un sistema difuso. . . . . . . . . . . . . . . . . . . . . . . . 33
2.16. Diferentes topologias de redes CMAC. . . . . . . . . . . . . . . . . . . . . . 36
2.17. Estructura interna de la red CMAC. . . . . . . . . . . . . . . . . . . . . . . 37
2.18. Red CMAC: dos entradas, una salida. . . . . . . . . . . . . . . . . . . . . . . 38
2.19. Elementos de Asociacin 1. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
vi NDICE DE FIGURAS
2.20. Elementos de asociacin 2. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
2.21. Elementos de asociacin 3. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
2.22. Total de elementos activados en la red CMAC. . . . . . . . . . . . . . . . . . 40
2.23. Hipercubos activados en la red CMAC. . . . . . . . . . . . . . . . . . . . . . 41
2.24. Red CMAC generalizada . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
2.25. Red neuronal CMAC difusa . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
2.26. Relacin CMAC con las reglas difusas . . . . . . . . . . . . . . . . . . . . . . 47
3.1. Tipos de funciones: a) clase k, b) clase -k, c) clase k-innito, d) clase kl . . . 53
3.2. Esquema de identicacin. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
3.3. Red recurrente local FCMAC . . . . . . . . . . . . . . . . . . . . . . . . . . 57
3.4. Red recurrente global FCMAC. . . . . . . . . . . . . . . . . . . . . . . . . . 65
3.5. Recurrencia Global mas local FCMAC. . . . . . . . . . . . . . . . . . . . . . 70
3.6. Estructura jerrquica con 2 niveles. . . . . . . . . . . . . . . . . . . . . . . . 74
3.7. Sistema difuso convencional con una sola capa. . . . . . . . . . . . . . . . . . 76
3.8. Sistema difuso con estructura jerrquica. . . . . . . . . . . . . . . . . . . . . 77
3.9. Sistema Jerrquico FCMAC. . . . . . . . . . . . . . . . . . . . . . . . . . . . 78
3.10. Red jerrquica recurrente FCMAC. . . . . . . . . . . . . . . . . . . . . . . . 85
3.11. Red HRFCMAC. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87
3.12. Comparacion de resultados de las redes FCMAC. . . . . . . . . . . . . . . . 93
3.13. Error Cuadrtico de las redes recurrentes FCMAC . . . . . . . . . . . . . . . 94
3.14. Identicacin mediante la red HFCMAC vs HRFCMAC. . . . . . . . . . . . 95
3.15. Error de Identicacin mediante la red HFCMAC y la HRFCMAC. . . . . . 96
4.1. Sistema barra-esfera . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 109
4.2. Respuesta del sistema de control. . . . . . . . . . . . . . . . . . . . . . . . . 111
4.3. Error de control. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 112
6.1. Propagacin de la seal en una red neuronal . . . . . . . . . . . . . . . . . . 125
6.2. Modelo entrada-salida. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 134
NDICE DE FIGURAS vii
6.3. Identicacin con estructura paralela. . . . . . . . . . . . . . . . . . . . . . . 135
6.4. Identicacin serie-paralela. . . . . . . . . . . . . . . . . . . . . . . . . . . . 136
6.5. Tipos de funciones: a) clase k, b) clase k-innito, c) clase kl . . . . . . . . . 137
6.6. asintticamente estable globalmente mediante comparacin de funciones . . . 138
6.7. Estabilidad ISS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 139
viii NDICE DE FIGURAS
0.1 Notacin 1
0.1. Notacin
:. , c:t:cdc :c|idc :cd
r , c:tcdo:
R
a
, c:jccio dimc::io:c|
/. i. ,. o. j. . : , :n/::dicc:
,. q. c. , , ,n:cio:c:
n. o , jc:o:
c , :c:o:ic ccticdc
j , ,n:ci o: Gcn::ic:c
:, , ,n:ci o: dc jc:tc:c:cic
: , jc:tc:c:cic :ccn::c:tc
t. / , tic:jo (co:ti:no. di:c:cto)
: , `o jc:tc:c:cic
, cnc:ti.cci o:
:
o
, c|c:c:to: c:ocicci o:
/ , /ijc:cn/o: ccticdo:
:
v
, c|c:c:to: :c:o|nci o:
, c:jccio c:ocicci o:
1 , c:jccio :cccjtio
:
c
, :c:o|nci o:
`
mn
() , c|o: j:ojio :c: jcnc~ :o dc |c :ct:i.
`
max
() , c|o: j:ojio :c: q:c:dc dc |c :ct:i.
r
i
, c| i c:i:o c|c:c:to dc| ccto: r
|r| , :o::c dc| ccto: r
c
i)
, c| i, c:i:o c|c:c:to dc |c :ct:i.
2 NDICE DE FIGURAS
Captulo 1
Introduccin
Los sistemas actuales a controlar se han vuelto muy complejos, la mayora de ellos presen-
tan algn grado de no linealidad, pueden ser variantes e invariantes en el tiempo, presentan
incertidumbres en sus entradas y en su estructura. Las incertidumbres en su entrada son
causadas por la imprecisin al medir el valor de sus parmetros desconocimiento de los
mismos, mientras que las incertidumbres en su estructura se reeren a las dinmicas no
modeladas, como friccin no lineal, acoplamiento de engranes, ruido en los sensores, pertur-
baciones externas, etc., este tipo de fenmenos no pueden ser tratados por las tcnicas de
control clsico [18]. Las consideraciones sobre sensibilidad son importantes en el diseo de
sistemas de control, ya que todos los elementos fsicos tienen la propiedad de cambiar con el
ambiente y con el tiempo, no se pueden considerar los parmetros de un sistema de control
completamente estacionarios durante toda su vida de operacin, todos los sistemas fsicos
estn sujetos a seales externas ruido durante su funcionamiento. Una perturbacin es una
seal que tiende a afectar negativamente el comportamiento de la salida de un sistema. Si
la perturbacin se genera dentro del sistema se denomina interna, en tanto que una pertur-
bacin externa se produce fuera del sistema, es decir, es una seal de entrada. En general,
un buen sistema de control debe ser insensible a la variacin de los parmetros pero capaz
de responder a los comandos datos de entrada. El efecto de la retroalimentacin sobre el
ruido y la perturbacin depende en mayor medida en que parte del sistema se presentan las
4 Introduccin
seales externas, en la mayoria de las ocasiones la realimentacin puede reducir los efectos
del ruido y las perturbaciones en el desempeo del sistema.
Uno de los mtodos que ms interes a despertado en la teora de control de sistemas
no lineales que pueden resolver los problemas mencionados anteriormente es el control in-
teligente, el cul incorpora tcnicas como las redes neuronales articiales y los sistemas
difusos. Las redes neuronales articiales son un tipo especial de estructura matemtica las
cules se basan en el modelo biolgico de las neuronas del cerebro. Una red neuronal tiene la
propiedad de ajustar automticamente sus parmetros mediante una regla llamada algoritmo
de aprendizaje, generalmente este algoritmo se basa en la retropropagacin del error, as la
red puede aproximar una funcin no lineal con una gran exactitud. Esta notable caracters-
tica permite que la red sea utilizada para identicar y controlar procesos complejos que son
completamente parcialmente desconocidos, adems puede compensar incertidumbres en
las entradas del sistema. Una nueva topologa de red neuronal propuesta por James Albus
en 1976 llamada Cerebellar Model Articulatin Controller, cuya traduccin es: modelo del
cerebelo para el control de la articulacin CMAC por su acrnimo en ingls [1], [2]. El
modelo biolgico de la neurona se encuentra en el cerebelo, el cul se encarga de contro-
lar y coordinar todos los movimientos de las articulaciones en el ser humano, es capaz de
controlar millares de msculos para producir un movimiento coordinado. La red CMAC es
la representacin articial de este modelo y ha sido utilizado ampliamente para control de
sistemas en lazo cerrado de sistemas dinmicos complejos principalmente en aplicaciones en
tiempo real debido a su rpido proceso de aprendizaje, la red CMAC es una alternativa a
las clsicas redes como el perceptrn multicapa (Multi Layer Perceptron, MLP).
Otra herramienta del control inteligente son los sistemas difusos, los cules tienen la par-
ticularidad de agregar conocimiento apriori y la experiencia de un experto acerca del sistema
y de la estrategia de control. Una limitacin importante que presentan los controladores
difusos convencionales es que el nmero de reglas se incrementa exponencialmente al incre-
mentarse el nmero de variables involucradas, por lo que se generan reglas redundantes y el
diseo se complica, a esta limitante se le conoce como .
el
problema de la dimensionalidad ",
de tal forma que con : variables de entradas y : funciones de pertenencia para cada variable,
5
se necesitan :
a
reglas para construir la base de reglas del sistema difuso completo. Cuando
las variables de entrada : se incrementan, la base de reglas aumenta rpidamente, esto hace
que el controlador difuso sea difcil de implementar ya que el espacio de memoria requerido
crece exponencialmente. Uno de los mtodos desarrollados para resolver este problema fue
propuesto por Raju, Zhou and Kisner [24], que consiste en disear una estructura jerrquica
con un nmero de sistemas de baja dimensionalidad conectados en niveles jerrquicos como
se observa en la gura 1.1. La estructura jerrquica tiene la propiedad de que el nmero
total de reglas para los sistemas difusos se incrementa linealmente con respecto al nmero
de variables de entrada. Por ejemplo si se denen : conjuntos difusos para cada variable
de entrada, cada subsistema difuso requiere solo de :
2
reglas y el nmero total de reglas es
(:1):
2
, el cul tiene un crecimiento lineal con respecto al nmero de variables de entrada
:, esto representa una gran ventaja con respecto a los sistemas difusos convencionales.
Sistema
1
Sistema
2
Sistema
3
1y
2y
( ) y s
1s
2s
3s
4s
Figura 1.1: Estructura jerrquica.
Un sistema de control automtico presenta un control conectado a una planta y una
retroalimentacin de las salidas de sus estados para compararlo con la seal de referencia,
lo que puede llevar a modicar la dinmica del sistema original en lazo abierto y hacerlo
inestable. En 1892 A. M. Lyapunov [3] present dos mtodos para determinar la estabilidad
de los sistemas dinmicos descritos mediante ecuaciones diferenciales ordinarias. El primer
mtodo se compone de todos los procedimientos en los cuales se usa la forma explcita de
6 Introduccin
la solucin de las ecuaciones diferenciales para el anlisis. En cambio, el segundo mtodo
no requiere de las soluciones de las ecuaciones diferenciales, es decir, mediante el segundo
mtodo de Lyapunov se determina la estabilidad de un sistema no lineal sin resolver las
ecuaciones de estado, lo cul resulta en un mtodo ms sencillo. Uno de los criterios, es la
estabilidad de los puntos de equilibrio del sistema en el sentido de Lyapunov. Un punto de
equilibrio es estable si todas las soluciones que inician cerca de este punto permanecen cerca,
de otra forma es inestable. Es asintticamente estable si todas las soluciones que empiezan
cerca del punto de equilibrio, no solo permanecen cerca, si no que ademas tienden al punto
de equilibrio en un tiempo muy grande. De manera general el mtodo de Lyapunov es para
sistemas autnomos (independiente del tiempo) y no autnomos (dependiente del tiempo)
sin perturbaciones en la entrada del tipo r (/ + 1) = , [/. r(/) . 0] .
Otro criterio de estabilidad muy particular empleado en esta tesis es la estabilidad
c:t:cdc c:tcdo (1oo por sus siglas en ingles), la cul es una extensin natural de la
estabilidad de Lyapunov para sistemas no lineales con entradas y cuyas salidas son los
estados. Este enfoque estudia la dependencia de la trayectoria de los estados de los sis-
temas no lineales en tiempo contino y discreto sobre la magnitud de las entradas n(/), las
cules pueden representar variables de control perturbaciones para sistemas con estruc-
tura r (/ + 1) = , [/. r (/) . n(/)], es decir, un sistema es 1oo c:tc/|c si la trayectoria
de cada uno de los estados que se genera a partir de un control acotado permenece aco-
tado y la trayectoria eventualmente llega a ser pequea si la seal de entrada es pequea
independientemente del estado inicial.
En esta tesis se realiza el diseo de un identicador y un controlador neurodifuso para
sistemas no lineales que combinan las ventajas de las redes neuronales CMAC y los sistemas
difusos con estructura jerrquica y jerrquica-recurrente, se realiza el anlisis de estabilidad
del algoritmo de aprendizaje de retropropagacin del error para las redes CMAC difusas
mediante el criterio de estabilidad entrada-estado conocido como 1oo 1cjn:o. Los
siguientes acrnimos son tilizados en toda la tesis: red neuronal CMAC difusa (FCMAC),
red neuronal recurrente CMAC difusa (RFCMAC), red neuronal jerrquica CMAC difusa
(HFCMAC) y por ltimo red neuronal jerrquica recurrente CMAC difusa (HRFCMAC).
1.1 Motivacin 7
1.1. Motivacin
Las redes neuronales articiales presentan la propiedad de ajustar sus pesos para ten-
er un comportamiento similar a un sistema no lineal desconocido a ser aproximado, esta
caracterstica es utilizada para identicar y controlar procesos complejos y compensar las in-
certidumbres presentes en las entradas del sistema, esta herramienta matemtica puede ser
combinada con otra tcnica de control inteligente que son los sistemas difusos que agregan
conocimiento humano y experiencia apriori acerca del comportamiento del sistema y de la
estrategia de control, dadas por un experto en forma de reglas de inferencia con estructura :i
antecedente c:to:cc: consecuente, el objetivo de combinar ambas tcnicas es aprovechar las
ventajas que presenta cada uno de ellos. Algunos de los casos en donde es necesario utilizar
sistemas neuro-difusos ya sea para la identicacin o control de sistemas no lineales son los
siguientes:
En procesos no lineales multivariables, que presentan un gran nmero de variables de
entrada y de salida, en los cules solo se pueden conocer los datos de entrada y de
salida del sistema.
Cuando es necesario introducir el conocimiento a priori de un experto en el esquema
de control, obtenido a partir de su experiencia y conocimiento prctico de la planta.
Cuando se desea identicar y controlar plantas cuyos parmetros presentan algn grado
de imprecisin e incertidumbre, en donde se desconoce parcial o completemente el
modelo matemtico del sistema por ser demasiado complejo.
Sin embargo las limitaciones causadas por el problema de la dimensionalidad en los
sistemas neuro-difusos convencionales, sugieren una nueva metodologa para el diseo de
identicadores y controladores inteligentes a travs del uso de una red FCMAC con estructura
jerrquica. Los sistemas neuro-difusos jerrquicos evitan el crecimiento del nmero de reglas
de inferencia de forma exponencial, solo lo hace de manera lineal, lo que evita un incremento
en el espacio de memoria requerido para su implementacin, esta caracterstica hace que
8 Introduccin
la red FCMAC sea fcil de realizar principalmente en aplicaciones de tiempo real, adems
que el ajuste de los peso slo se realiza en algunas neuronas activadas por las entradas, esto
ocasiona que el algoritmo de aprendizaje para la actualizacin de los pesos de la red sea
mucho mas rpido.
1.2. Objetivo de la tesis
El objetivo general de la tesis se enfoca en el diseo de una topologia de red neuronal
articial llamada FCMAC para la identicacin y control de sistemas no lineales, se pro-
ponen dos tipos de redes FCMAC sin retroalimentacin para atacar problemas estticos y
con retroalimentacin para sistems dinmicos. Adems de que presentan una estructura
jerrquica para minimizar los requerimientos de memoria, todos estos esquemas presentan
un algoritmo de aprendizaje de la red entrada-estado estable.
1.2.1. Objetivos particulares
Los objetivos particulares se dividen principalmente en dos aspectos:
El primero es realizar una identicacin para sistemas estticos no lineales mediante
la integracin de sistemas difusos y redes neuronales articiales generalmente llamados
sistemas neuro-difusos, basados en una topologa de red conocida como red neuronal
FCMAC, a partir de esta topologa se hace una extencin a redes recurrentes FC-
MAC con retroalimentacin local en una de las capas de las red, con retroalimentacin
global entre la capa de entrada y de salida y con una combinacin de ambas retroal-
imentaciones tanto local como global, todas estas retroalimentaciones para resolver
los problemas de identicacin en los sistemas dinmicos. Tanto a las redes estticas
como dinmicas FCMAC se presentan con una estructura jerrquica para resolver el
problema de la dimensionalidad.
El segundo objetivo es realizar un control adaptable indirecto mediante la misma
topologia de red utilizada en la identicacin: la red recurrente FCMAC con estruc-
1.3 Estructura de la tesis 9
tura jerrquica de baja dimensionalidad para resolver el problema del incremento de
reglas presentes en controladores neuro-difusos convencionales. En la identicacin y
control mediante las redes FCMAC se realiza el anlisis de estabilidad del algoritmo
de aprendizaje tipo retro-propagacin del erros para el ajuste de los pesos de la red, el
cul se basa en el segundo mtodo de Lyapunov.
1.3. Estructura de la tesis
El trabajo de tesis titulado "Anlisis y diseo de redes neuronales CMAC para
la identicacin y control de sistemas no lineales " est dividido en cinco capitulos:
El captulo uno menciona los antecedentes de las redes neuronales articiales, los difer-
entes conceptos de estabilidad y la motivacin que se tuvo para realizar la identicacin y
control de sistemas no lineales mediante sistemas neuro-difusos, en particular la red neuronal
CMAC recurrente con estructura jerrquica. Se menciona adems los objetivos generales y
particulares planteados en este trabajo de tesis.
El captulo dos hace una breve resea sobre el funcionamiento de los sistemas neuronales
biolgicos, la estructura y el proceso de aprendizaje que hace posible su interelacin con
el medio que lo rodea, se aborda de manera particular la anatoma del cerebelo, el cul
se encarga de coordinar y ejecutar de manera sincronizada todos los movimientos de las
articulaciones del cuerpo humano. Del estudio de la anatoma del cerebelo parte un modelo
matemtico conocido como red neuronal CMAC difusa, del cul se hace una breve descripcin
de su arquitecura y principio de funcionamiento.
El captulo tres estudia las caractersticas ms importantes de las redes neuronales y de
los sistemas difusos como aproximadores de funciones y para la identicacin de sistemas no
lineales. En este captulo se detalla el funcionamiento de la red neuronal CMAC y sus dis-
tintas modicaciones como son la red CMAC difusa, recurrente y con estructura jerrquica.
Adems de su aplicacin en la identicacin de sistemas no lineales en tiempo discreto. En
la Identicacin de los sistemas discretos se realiza el anlisis de estabilidad entrada-estado
del algoritmo de aprendizaje de la red FCMAC, el cul se basa en la retropropagacin del
10 Introduccin
error.
El captulo cuatro estudia la capacidad de las redes neuronales CMAC para controlar
sistemas, en este captulo se trabaja con sistemas en tiempo continuo. Se desarrolla un control
adaptable indirecto mediante la estructura de la red jerrquica FCMAC, se realiza el anlisis
de estabilidad mediante el segundo mtodo de 1cjn:o para demostrar la convergencia de
los pesos en el algoritmo de aprendizaje de la red.
El captulo cinco presenta las conclusiones del trabajo y se propone el estudio de otros
tpicos de inters relacionados con los sistemas neuro-difusos CMAC. En este capitulo se
mencionan las diferentes aplicaciones de la red CMAC, principalmente en sistemas electro-
mecnicos subactuados y aplicaciones en tiempo real.
1.4. Publicaciones
1.4.1. Revista
1. Wen Yu, Marco A. Moreno-Armendariz, Floriberto Ortiz Rodriguez, System identica-
tion using hierarchical fuzzy neural networks with stable learning algorithm, Journal
of Intelligent & Fuzzy Systems, Vol.18, No.2, 171-183, 2007.
2. Wen Yu, Floriberto Ortiz Rodrguez, Marco A. Moreno-Armendariz, Nonlinear systems
identication via two types of recurrent fuzzy CMAC, Neural Processing Letters.
Vol.28, No.1, 49-62, 2008.
3. Wen Yu, Floriberto Ortiz Rodrguez, Marco A. Moreno-Armendariz, Hierarchical fuzzy
CMAC for nonlinear systems modeling, IEEE Transactions on Fuzzy Systems.
Vol.16, No.5, 1302-1314, 2008.
4. Floriberto Ortiz Rodriguez, Wen Yu, Marco A. Moreno-Armendariz, Stable adaptive
control with hierarchical fuzzy CMAC, Journal Information Sciences, Special Issue:
Prediction, Control and Diagnosis using Advanced Neural Computations, aceptado
para su publicacin.
1.4 Publicaciones 11
1.4.2. Congresos internacionales
1. Floriberto Ortiz Rodriguez, Wen Yu, Marco A. Moreno-Armendariz, System identi-
cation using hierarchical fuzzy CMAC neural networks, Computational Intelligence-
ICIC2006, Srpinger-Verlag, Lecture Notes in Computer Science, LNAI 4114, 230-
235, 2006.
2. Floriberto Ortiz Rodriguez, Wen Yu, Marco A.Moreno-Armendariz, Recurrent fuzzy
CMAC in hierarchical form for dynamic system identication, 2007 American Con-
trol Conferences, ACC07, New York, USA, 5706-5711, 2007.
3. Floriberto Ortiz, Wen Yu, Marco Moreno-Armendariz, Xiaoou Li, Recurrent Fuzzy
CMAC for Nonlinear System Modeling, Advances in Neural Networks -ISNN 2007,
Srpinger-Verlgag, Lecture Notes in Computer Science, LNCS 4491, 487-495, 2007.
4. Floriberto Ortiz Rodriguez, Wen Yu, Marco A. Moreno-Armendariz, Nonlinear systems
identication via two types of recurrent fuzzy CMAC, 2007 International Joint
Conference on Neural Networks, IJCNN07, Orlando, USA, 2007.
5. Floriberto Ortiz Rodriguez, Wen Yu, Marco A. Moreno-Armendariz, Anti-swing control
with hierarchical fuzzy CMAC compensation for an overhead crane, 2007 The 22nd
IEEE International Symposium on Intelligent Control, ISIC07, Singapure,
2007.
6. Floriberto Ortiz Rodriguez, Wen Yu and Marco A. Moreno-Armendariz, Stable adap-
tive control with hierarchical fuzzy CMAC, Fifth International Symposium on
Neural Networks, ISNN 2008, Beijing, China, September 24-28, 2008.
12 Introduccin
Captulo 2
Red neuronal FCMAC
2.1. Sistema biolgico del cerebro
2.1.1. Estructura del cerebro
El cerebro contiene muchos subsistemas especializados para realizar diferentes tareas que
el cuerpo humano le exiga, las interacciones entre estos sistemas determinan su compor-
tamiento, un esquema general de la anatomia del cerebro se muestra en la gura 2.1.
La gura 2.2 muestra las principales estructuras involucradas en el control motriz del
cuerpo y sus conexiones internas, el sistema motriz funciona de una manera jerrquica,
los niveles ms altos de la jerrquia transmiten seales a los niveles bajos que procesan la
informacin captada por los sensores y transmiten dicha informacion sobre su estado a los
niveles altos.
La espina dorsal es la principal interfaz entre el cerebro y el resto del cuerpo, contiene mu-
chos grupos de nervios sensoriales, motores (de ejecucin) y muchos subsistemas neuronales
que proporcionan los diferentes reejos del cuerpo.
La base del cerebro esta compuesta de mdula y la parte media del cerebro, contiene
distintos grupos de neuronas especializadas para realizar diferentes tareas como pueden ser:
mantenerse erguido, control del balance y transformacin de la informacin sensorial, etc.
14 Red neuronal FCMAC
Figura 2.1: Estructura del Cerebro
El cerebelo ayuda en el aprendizaje y en coordinar los reejos motrices aprendidos e
instintivos, recibe informacin de la corteza matriz y de la espina dorsal, los cules son
empledos con otras reas del cerebro.
El tlamo procesa y distribuye la mayora de la informacin motriz captada por los
sensores y que es enviada a la corteza cerebral. Los ganglios basales estan al lado de la
corteza cerebral y se encargan de coordinar algunos movimientos y estan involucrados en la
parte cognocitiva del ser humano, pueden realizar las transiciones entre diferentes estados
de movimiento.
La corteza cerebral, es un conjunto de neuronas nas que cubren al cerebro, el cul pre-
senta dos hemisferios: izquierdo y derecho, la corteza cerebral realiza funciones perceptivas,
cognoscitivas, y las de ms alto nivel motriz, as como la emocin y la memoria. Las respues-
tas de complejas comportamientos se originan aqu. Tiene muchas reas que se especializan
en diversas funciones cognoscitivas, tales como la visin, lengua, y planeamiento [32].
2.1 Sistema biolgico del cerebro 15
Ganglios
Basales
Talamo
Cerebelo
Espina
Dorsal
Area motora de
la corteza del
cerebro
Musculos
Sensores
Base del
Cerebro
Comandos de
movimiento
Nivel
bajo
Nivel
alto
Ganglios
Basales
Talamo
Cerebelo
Espina
Dorsal
Area motora de
la corteza del
cerebro
Musculos
Sensores
Base del
Cerebro
Comandos de
movimiento
Nivel
bajo
Nivel
alto
Figura 2.2: Esquema del control del movimiento humano
2.1.2. Neurona biolgica
Una neurona biolgica es una clula especializada que se encarga de transmitir informa-
cin a otras clulas neuronas a partir de seales electro-qumicas, como se observa en la
gura 2.3, las seales elctricas se presentan como diferencias de voltajes que atraviesan la
membrana celular. Las neuronas presentan muchas ramicaciones que le permiten conectarse
a otras neuronas, las cules se conocen con el nombre de dendritas, las dendritas (entradas)
obtienen informacin de neuronas vecinas mientras que los axones transmiten (salidas) dicha
informacin. Para distancias cortas entre neuronas la informacin es intercambiada a travs
de voltaje esttico, para distancias grandes las seales son transmitidas a travs de las den-
dritas y los axnes como una cadena de pulsos de voltaje, la informacin es codicada en
una taza de pulso o de disparo.
Cada pulso transmitido a una neurona es integrado al cuerpo de la clula hasta alcanzar
un umbral, con lo cual la neurona emite su propio pulso y la integracin se reinicializa. La
interfaz entre cualesquiera dos neuronas se conoce como sinapsis, la cul se realiza entre
un axn y una dendrita. La terminal del axn puede ser excitada o inhibida dependiendo
del umbral, lo que signica que la sinapsis modula el pulso entrante de modo que tenga un
16 Red neuronal FCMAC
Figura 2.3: Neurona biolgica
mayor o menor efecto de integracin sobre la neurona nal, este incremento o decremento es
la taza de disparo.
Existen diferentes tipos de neuronas en el cerebro que presentan distintas formas y
tamaos, por ejemplo las clulas granulares que estn presentes en la corteza del cerebro
son pequeas con forma de estrella y solamente presentan en promedio cuatro dendritas
(entradas), en contraste con las clulas Purkinje que son mucho ms grandes, tienen una
estructura en forma de arbol con muchas ramicaciones y pueden llegar a presentar cerca de
200,000 dendritas, como se observan en las guras 2.4 y 2.5.
2.1.3. Aprendizaje
El aprendizaje se puede entender como un proceso neuronal en el cul se realiza una
interpretacin interna del mundo externo, las diferentes estructuras del cerebro presentan
diferentes comportamientos de aprendizaje utilizando varios mecanismos, en muchos casos
el aprendizaje se da en los niveles de las neuronas individuales al ajustar su sinapsis
alteraciones en su dinmica en respuesta a diferentes seales de entrada.
2.1 Sistema biolgico del cerebro 17
Figura 2.4: Clulas Granulares y Purkinge
En 1949 Donald Hebb propuso un mecanismo celular para el condicionamiento clsico
conocido como aprendizaje hebbiano, gura 2.6. Un estimulo no condicionado es originado
en la neurona , esto estimula una respuesta en la neurona C porque se produce una sinapsis
de acoplamiento entre las dos. Un estmulo condicionado que se origina en la neurona 1,
inicialmente no estimula una respuesta sinptica sobre C por ser pequea, sin embargo, si
1 es estimulado al mismo tiempo que C es excitado, entonces la sinapsis 1 C ser muy
fuerte. Inicialmente C slo es excitado en respuesta a , si 1 estimula junto con , entonces
la sinapsis de 1 ser muy grande y podr inuir en la respuesta de C, de esta manera un
estimulo condicionado est asociado con un estimulo no condicionado.
2.1.4. Anatoma de la corteza del cerebelo
La tarea del cerebelo es regular la actividad motora que ocurre en otras reas del cerebro,
El cerebelo resulta especialmente vital para el control de actividades musculares rpidas,
como correr, escribir a mquina, tocar el piano, incluso hablar, ver la gura 2.7. Las seales
que se originan en el cerebelo modulan la cantidad del movimiento, el inicio y la terminacin
del movimiento y el control preciso del tiempo de cualquier evento que implique una secuencia
coordinada de movimientos, regula y coordina los movimientos del cuerpo: Piernas, ojos,
18 Red neuronal FCMAC
Figura 2.5: Clulas Purkinge
C
B
A
C
B
A
Figura 2.6: Aprendizaje Hebbiano
brazos, controlar los movimientos posturales y de equilibrio.
La prdida de esta zona del encfalo puede destruir cada una de estas funciones motoras.
El cerebelo ocupa cerca del 10 % del volumen del cerebro, pero contiene ms de la mitad
del total de neuronas cerebrales, el cerebelo acta en el control motriz slo en relacin
con las actividades motoras que se inician en alguna otra parte del sistema nervioso. Pueden
originarse en la mdula espinal, la formacin reticular, los ganglios basales o en reas motoras
de la corteza cerebral.
El cerebelo a pesar que no tiene el control directo sobre la contraccin muscular vigila
y establece ajustes correctores de las actividades motoras desencadenadas por otras partes
2.1 Sistema biolgico del cerebro 19
Figura 2.7: Anatomia del Cerebro
del encfalo. Recibe continuamente informacin actual de las partes perifricas del cuerpo,
para determinar el estado instantneo de cada uno de sus reas - su posicin, su ritmo de
movimiento, las fuerzas que actan sobre l, etc. El cerebelo compara el estado fsico actual
de cada parte del cuerpo segn indica la informacin sensorial, con el estado que intenta
producir el sistema motor. Si los dos no se comparan favorablemente, de manera instantnea
se trasmiten seales correctoras adecuadas hacia el sistema motriz, para aumentar o disminuir
la actividad de msculos especcos. Los impulsos motores del cerebelo son transmitidos hacia
los centros motores del cerebro y de la mdula con destino a los msculos.
La corteza del cerebelo presenta tres capas de neuronas como se observa en la gura 2.8,
las cules presentan diferentes tipos de clulas como son: clulas grnulosas, clulas purkin-
je, capa molecular, materia blanca (slo axones). La corteza motora transmite seales a la
periferia para causar una funcin motriz, pero al mismo tiempo transmite esta informacin
al cerebelo, entonces el cerebelo compara las "intenciones"de la corteza con la .
a
ctuacin"de
las partes corporales, en caso que sta no corresponda con aqullas, calcula el .
er
ror.
en
tre
20 Red neuronal FCMAC
Figura 2.8: Estructura interna del cerebelo
ambas para poder llevar a cabo las correcciones apropiadas de inmediato. Un efecto secun-
dario del mecanismo del cerebelo de retroalimentacin es su capacidad de .
a
mortiguar"los
movimientos musculares. Para explicar el trmino .
a
mortiguador", debemos sealar primero
que prcticamente todos los movimientos del cuerpo "son pendulares". Debido a la inercia,
todos los movimientos pendulares tienen tendencia a pasar a su estado inicial, si el cerebelo
est intacto, seales subconscientes apropiadas detienen el movimiento exactamente en el
sitio requerido, evitando as que se pase de l y suprimiendo el temblor de amortiguacin
esta es la caracterstica bsica de un sistema de amortiguamiento [31].
2.2. Redes neuronales articiales
Las redes neuronales articiales son un modelo simplicado de las redes neuronales bi-
olgicas, se pueden clasicar dentro del grupo de sistemas inteligentes, entre los que se
2.2 Redes neuronales articiales 21
encuentran: sistemas adaptables, difusos, genticos y todos aquellos que tratan de modelar
el conocimiento y el aprendizaje. La calicacin de inteligentes se debe a que los sistemas
mencionados anteriormente tienen la capacidad de adaptarse a su medio aprender de l
de forma autnoma. Las redes neuronales articiales pueden denirse como un arreglo de
elementos bsicos de procesamiento con capacidad de entrenamiento. Este entrenamiento
consiste en el ajuste de algunos parmetros con el n de que la red asimile, con algn grado
de precisin, la relacin causa-efecto deseada entre las variables de entrada y de salida de la
red neuronal. Las redes neuronales articiales se han utilizado principalmente en dos grandes
reas:
Aproximacin de funciones
Reconocimiento y clasicacin de patrones
En el campo del control automtico, las redes neuronales articiales se utilizan princi-
palmente como modelos para la identicacin y el control de sistemas. La identicacin de
sistemas consiste en ajustar los parmetros de un modelo propuesto, de tal forma que su
comportamiento se aproxime al sistema o planta a ser estudiado. La tarea de la identicacin
de sistemas es obtener modelos matemticos que reproduzcan la relacin entre las variables
que intervienen en el sistema estudiado, las redes neuronales articiales tienen una aplicacin
directa en el campo de identicacin de sistemas debido a su capacidad de generalizacin a
partir de la relacin entrada-salida del sistema. La generalizacin de la red neuronal se efec-
ta aplicando un conjunto de entradas diferentes a las usadas en la etapa de aprendizaje y
se observa su respuesta, esperando que reproduzca con cierto grado de precisin la respuesta
del sistema identicado. Por otro lado, el problema de control busca disear un sistema que
genere la seal de entrada a la planta necesaria para modicar su comportamiento con el n
de que se comporte de la forma deseada.
Dos tipos de redes neuronales han recibido mucha atencin en trabajos recientes: Las redes
neuronales multicapa y las redes neuronales recurrentes. Las redes multicapa han resultado
una herramienta muy poderosa en problemas de reconocimiento de patrones (sistemas estti-
cos), mientras que las redes recurrentes han sido utilizadas para la identicacin y control de
22 Red neuronal FCMAC
sistemas dinmicos, tambin en la resolucin de problemas de optimizacin. Desde el pun-
to de vista terico las redes multicapas representan mapeos no lineales estticos, mientras
que las redes recurrentes son representados por sistemas con retroalimentacin dinmica no
lineal.
Se conoce con el nombre de redes neuronales articiales a todos los modelos matemticos
que intenta imitar las capacidades y caractersticas de sus semejantes biolgicos. Las redes
neuronales estn formados por elementos simples de clculo, todos ellos interconectados con
una cierta topologa estructura, como lo son las neuronas llamadas perceptrones (Rossen-
blatt, 1958) que son el elemento ms simple de una red. El modelo bsico de una neurona
est formada como se observa en la gura 2.9 por los siguientes elementos:
Un conjunto de sinapsis, que son las entradas de la neurona ponderadas por un peso.
Se identica al peso que conecta la entrada :
)
de la neurona i por el smbolo n
i)
. Se
incluye un peso independiente n
i0
mejor conocido como bias, donde se considera una
entrada constante para la neurona i.
Un sumador que simula el cuerpo de la neurona y obtiene el nivel de excitacin.
La funcin de activacin genera la salida si se alcanza el nivel de excitacin y restringe
el nivel de salida, evitando asi la saturacin de la red.
La salida de la neurona est dada por la expresin:

i
= ,
_
a

)=1
n
i)
:
)
+ n
i0
_
(2.1)
en donde : indica el nmero de entradas a la neurona i.
El argumento de la funcin de activacin es la combinacin lineal de las entradas de la
neurona. Si se considera al conjunto de entradas y los pesos de la neurona i como un vector
de dimension (: + 1) . la expresin (2.1) puede escribirse de la siguiente forma:

i
= ,
_
\
T
i
:

(2.2)
2.2 Redes neuronales articiales 23

M
1
s
2
s
n
s
0 i
w
1 i
w
2 i
w
in
w
M
( )
Funcin de
activacin
Compensacin
i
y
Pesos

M
1
s
2
s
n
s
0 i
w
1 i
w
2 i
w
in
w
M
( )
Funcin de
activacin
Compensacin
i
y
Pesos
Figura 2.9: Elementos de una neurona.
donde : = [1. :
1
. :
2
. .... :
a
]
T
. n
i
= [n
i0
. n
i1
. .... n
ia
]
T
. La neurona articial descrita anteri-
ormente est formado por un grupo de constantes que ponderan la entrada a un sumador y
la salida es acotada por la funcin de activacin. Las funciones de activacin ms utilizadas
estn denidas por las siguientes expresiones:
c) Escaln:
,() = o (:) =
_
1, si : _ 0
0, si : < 0
/) Si gmoide
,() = :iq:(:) =
1
1+c
s
c) Tangente
,() = tanh (:) =
1c
2s
1+c
2s
d) Saturacin
,() = :ct (:) =
_

_
1, si : < 1
r, si [:[ _ 1
1, si : 1
(2.3)
Una propiedad de las funciones sigmoide y tangente hiperblica es que su derivada existe
y es una funcin continua. Esto es necesario ya que en el algoritmo de aprendizaje el clculo
del gradiente local para cada neurona del perceptrn multicapa requiere del conocimiento
de la derivada de la funcin de activacin ,() asociada con la neurona en cuestin. Para
que esa derivada exista es necesario que ,() sea diferenciable. Las funcines de activacin
24 Red neuronal FCMAC
comnmente utilizadas en redes neuronales son las funciones sigmoidal y gaussiana.
Las redes neuronales articiales estn construidas en base a elementos de clculo rel-
ativamente simples, que son capaces de aprender de su ambiente y modicar su forma de
interactuar con l. Al modo en que las neuronas se organizan en la red se le conoce como
topologa. En las redes neuronales articiales se clasican en tres arquitecturas elementales:
redes con una sola capa, mlti-capas y en malla, como se observa en la gura 2.10.
Una sola capa
Mltiples capas
Malla
1s
ns
iy
1s
M
ns
M
1s
M
ns
1y
M
iy
1y
M
iy
1y
M
Figura 2.10: Topologia de las redes neuronales articiales.
En las redes neuronales, la arquitectura usada inuye en su capacidad de adaptacin,
debido al conjunto de pesos ajustables que presenta. Las redes neuronales presentan las
siguientes caractersticas segn su organizacin interna:
Paralelismo
Representacin y clculo distribuido
Algoritmo de aprendizaje
2.2 Redes neuronales articiales 25
Tolerancia a fallas
Otra clasicacin que presentan las redes neuronales se base en la manera en que la
informacin se transmite en la red. Se dividen en dos grupos: redes con conexiones hacia
adelante (estticas) y redes con conexiones hacia atrs recurrentes (dinmicas).
Redes Neuronales
Estticas Dinmicas
Perceptron
Perceptron
mlticapa
Funciones radiales
bsicas
Redes competitivas
Redes de
Kohonen
Redes de Hopfiel
Redes ART Redes CMAC
Figura 2.11: Redes estticas y dinmicas
2.2.1. Redes neuronales estticas
Si la respuesta de una red neuronal depende nicamente de sus entradas y no depende
de seales en instantes anteriores de tiempo se dice que es una red neuronal esttica, por lo
que la respuesta de la red neuronal es invariante en el tiempo. Existen dos tipos de redes
neuronales estticas: las redes neuronales mlti-capa y las redes neuronales de funciones
radiales bsicas.
Las redes neuronales estticas son muy tiles en los problemas de clasicacin de patrones
y aproximacin de funciones porque construyen funciones no lineales entre el espacio de
26 Red neuronal FCMAC
entrada al espacio de salida de las variables involucradas. Una red neuronal con conexiones
hacia adelante con una capa oculta no lineal y una capa de salida lineal puede aproximar
cualquier funcin con el grado de precisin que se desee, como se demostr en: [14], [18], [17].
Redes neuronales mlticapas
Estas redes neuronales estn construidas por neuronas organizadas en capas. Cada nivel
intermedio de la red tiene como entrada a todas a un conjunto de las salidas de la capa
anterior. Un ejemplo de una red neuronal con mltiples capas se presenta en la gura 2.10.
La primer capa es la entrada a la red, su funcin es la distribuir las entradas de la red en
la primer capa oculta, la capa dos est localizada entre la primer capa y la ltima capa, se
denomina capa oculta, la ltima capa genera las salidas de la red neuronal. El ujo de la
informacin se transmite en un slo sentido, de manera que una red neuronal mlticapa es
un mapeo no lineal del espacio de entrada :, al espacio de salida , es decir: : .
Redes neuronales con funciones de base radial
Un incoveniente de las redes neuronales MLP es que su entrenamiento es lento, la mini-
mizacin del ndice del error cuadrtico de salida requiere de comparar en varias ocasiones el
conjunto de datos de entrenamiento con la respuesta de la red neuronal. Las redes neuronales
con funciones de base radial (RBF) son una alternativa a las redes neuronales MLP, en el
contexto de que las RBF las capas ocultas estn conformadas por un conjunto de funciones
que constituyen una base para el problema de clasicacin. La justicacin matemtica la
establece el teorema de Cover (Cover, 1965), se basa en que un problema de clasicacin es
ms probable que sea linealmente separable si se transforma en otro de dimensin mayor.
Las funciones de base radial fueron introducidas primero para la solucin de problemas de
interpolacin multivariable. El trabajo pionero en este tema fue Powell, 1985. Broomhead
y Lowe en 1988, exploraron por primera vez el uso de las redes neuronales con funciones
de base radial para poder realizar una clasiccin no lineal. A diferencia de la disposicin
que se tiene en las funciones de activacin de la red MLP que permite construir modelos de
2.2 Redes neuronales articiales 27
entrenamiento mediante el algoritmo de retro-propagacin, las nuevas redes con funciones de
base radial construyen sus modelos con funciones de activacin que son diferente tanto en
la capa oculta como en la capa de salida, esto es, una red RBF est diseada con neuronas
en la capa oculta activadas mediante funciones radiales de carcter no lineal con sus centros
propios y en la capa de salida mediante funciones lineales. La estructura de las redes de base
radial presenta tres capas bien denidas:
La capa de nodos de entrada, completamente conectadas a las neuronas de la capa
oculta.
La capa oculta de neuronas que proveen una transformacin no lineal activada por las
funciones de base radial.
La capa de salida, tambin completamente interconectada a la capa oculta y activada
a travs de una funcin lineal continua.
La construccin de una red RBF requiere de una mayor cantidad de neuronas en los
nodos ocultos que en las redes MLP. Aunque las redes RBF no son comnmente utilizadas
en aplicaciones que impliquen un alto volumen de patrones de entrenamiento, se le reconoce
como una red con una alta eciencia en la fase de entrenamiento. El entrenamiento a difer-
encia de la red MLP usando el algoritmo de aprendizaje de retro-propagacin, es solamente
hacia adelante, de este modo la salida de una red RBF en general, est inuenciada por una
transformacin no lineal originada en la capa oculta a travs de la funcin de base radial y
una lineal en la capa de salida a travs de la funcin lineal contina.
En la gura 2.12 se presenta una red RBF, donde :
i
, son las entradas a la red i = 1. 2. .... :;
la salida est dada por = nj(:) . en donde las j
i
son las funciones de base radial, para
este caso son funciones gaussianas. Si la red neuronal presenta neuronas en la capa oculta,
entonces la salida de la red neuronal de base radial se expresa de la forma:
=

i=1
n
i
j
i
(:) (2.4)
28 Red neuronal FCMAC

y
M
1
s
2
s
n
s
M
1
w
2
w
n
w
( )
1
s
( )
n
s
( )
2
s

y
M
1
s
2
s
n
s
M
1
w
2
w
n
w
( )
1
s
( )
n
s
( )
2
s
Figura 2.12: Red neuronal de funciones de base radial.
En general una red RBF tiene un mejor desempeo con un mayor volumen de datos de
entrenamiento que su contraparte la red MLP, presentan una arquitectura simplicada con
una capa oculta, su entrenamiento es rpido y se puede realizar una combinacin de diferentes
paradigmas de aprendizaje.
Aplicaciones de las redes estticas
Las principales aplicaciones de las redes neuronales estticas son aquellas en donde es
necesario construir una relacin entre la entrada y la salida, como por ejemplo:
Clasicacin de patrones: Sea d una muestra que pertenece a un conjunto 1 y c es un
designador de clase. Se dice que d es de clase c, si existe una funcin ,, tal que:
, : d c (2.5)
A todas las muestras : que cumplen 2.5, forman la clase C:
C = d 1 [ , : d c
2.2 Redes neuronales articiales 29
Aproximacin de funciones: Dada una funcin , : : . en donde : o _ 1
a
.
1 _ 1
n
. Encontrar una
^
, tal que:
_
_
_, (:)
^
, (:)
_
_
_ < c; \: o
En donde c es un entero positivo pequeo. Se dice que
^
, es una aproximacin en o de
,.
Memoria asociativa: En la actualidad las computadoras tienen memorias direccionadas,
memorias que necesitan como informacin de entrada una direccin para recuperar un
dato, esto hace que tengan una estructura rgida; en consecuencia tienen un tiempo
de escritura y lectura grande. Por el contrario una memoria asociativa, no requiere
de la direccin especca del dato guardado, lo que necesita es otro dato, es decir, en
este tipo de memorias se recupera la informacin por la asociacin impuesta sobre su
contenido, este modo de operar hace a una memoria asociativa ms rpida de recuperar
la informacin.
Redes neuronales dinmicas
Hay problemas que necesitan de un sistema que tenga una respuesta dependiente de
su estado anterior, por lo que requieren de una estructura que tenga una dinmica interna
propia. Si la respuesta de una red neuronal depende de su pasado, se dice que es una red
neuronal dinmica. Algunas de las tareas para este tipo de redes son: La prediccin de series,
la identicacin y el control de sistemas dinmicos.
La gura 2.13 muestra las diferentes arquitecturas de las redes dinmicas. Las guras (a)
y (b) muestran redes con recurrencia local, la primera una recurrencia en la misma capa y
la segunda muestra una recurrencia entre las capas ocultas. Las guras (c) y (d) muestran
una recurrencia global, donde la retroalimentacin va de la salida de la red a la entrada y en
el segundo caso la retroalimentacin solo llega a la segunda capa de la red. En el desarrollo
de este trabajo de tesis, las arquitecturas (a) y (c) fueron empleadas.
30 Red neuronal FCMAC
1s
ns
M
1y
1s
ns
M
1y
1s
ns
M
1y
1s
ns
M
1y
a) b)
c) d)
Figura 2.13: Arquitecturas de redes neuronales dinmicas
2.2.2. Aprendizaje en las redes neuronales articiales
El aprendizaje en el contexto de las redes neuronales es un proceso por el cul los pesos
de la red neuronal son adaptados a travs de un proceso de entrenamiento con datos del
ambiente en el cul la red se desea utilizar, el tipo de aprendizaje est determinado por
la regla que se emplea para ajustar el valor de los pesos. Esta denicin del proceso de
aprendizaje implica la siguiente secuencia de pasos:
1. Las redes neuronales son estimuladas por el medio ambiente.
2. Las redes neuronales sufren cambios en sus pesos como resultado de esta estimulacin.
3. Las redes neuronales responden de una nueva forma al ambiente por que los cambios
han ocurrido en su estructura interna.
2.2 Redes neuronales articiales 31
Al conjunto de reglas bien denidas para la solucin del proceso de aprendizaje se le
denomina algoritmo de aprendizaje. Los algoritmos de aprendizaje dieren unos de otros en
la manera en la cul ajustan los pesos de cada neurona.
Aprendizaje por correccin del error
La seal de salida de la neurona i es denotada por
i
(/), esta seal de salida representa
solamente la salida de la red neuronal, la cul es comparada con la respuesta deseada,
denotada por d
i
(/), consecuentemente se produce una seal de error denotada por c
i
(/), de
esta denicin se tiene:
c
i
(/) = d
i
(/)
i
(/) (2.6)
El algoritmo de aprendizaje se basa en el valor de la seal de error c
i
(/) para aplicar un
ajuste en los pesos de la neurona i. En cada paso / los ajustes de correccin son realizados
para hacer el valor de la seal de salida
i
(/) muy cercano a la seal de la respuesta deseada
d
i
(/). Este procedimiento es llevado a cabo al minimizar una funcin de costo indice de
desempeo (/) . denido en trminos de la seal de error c
i
(/) como:
(/) =
1
2
c
2
i
(/) (2.7)
Esto es, (/) es el valor instantneo del error, el ajuste paso a paso de los pesos sinp-
ticos de la neurona i son continuos hasta que el sistema alcance el estado estacionario (i.e.,
cuando los pesos no cambien), en este punto el proceso de aprendizaje trmina. El proceso
de aprendizaje descrito anteriormente se reere obviamente al aprendizaje por correccin del
error, en particular la minimizacin de la funcin de costo (/) nos lleva a que la regla de
aprendizaje comnmente llamada la :cq|c dc|tc :cq|c \id:on Ho,,.
Sea n
i,)
(/) denota el valor del peso sinptico n
i,)
de la neurona i excitada por el elemento
:
)
(/) por un vector de seales de entrada : (/) en el tiempo /. De acuerdo a la regla delta,
el ajuste n
i,)
(/) aplicado a los pesos sinpticos n
i,)
en el tiempo / est denido como:
32 Red neuronal FCMAC
n
i,)
(/) = jc
i
(/) :
)
(/) (2.8)
Donde j es una constante positiva que determina la tasa de aprendizaje de un paso del
proceso de aprendizaje al siguiente. Nos referiremos a j como el parmetro de la tasa de
aprendizaje. Se asume que la seal de error se puede medir.
Regla de
Aprendizaje
Red neuronal
artif icial

()ie n
()id n ()iy n
+
-
()is n
Figura 2.14: Diagrama a bloques de la red neuronal articial.
De la gura (2.14) se observa que el aprendizaje por correccin del error es de natu-
raleza local, esto es, que los justes de los pesos sinpticos realizados por la regla delta estn
localizadas alrededor de la neurona i. Al calcular el ajuste sinptico n
i,)
(/) . los valores
actualizados de los pesos sinpticos n
i,)
estn determinados por:
n
i,)
(/ + 1) = n
i,)
(/) + n
i,)
(/)
n
i,)
(/) y n
i,)
(/) pueden ser vistos como el anterior y el nuevo valor de los pesos
sinpticos n
i,)
.
2.3. Sistemas difusos
La lgica difusa es una generalizacin de la lgica clsica, en la cul existe una transicin
suave del valor falso al verdadero. La base de la lgica difusa es derivada de la teora de
2.3 Sistemas difusos 33
los conjuntos difusos [19], Un conjunto difuso en o, est caracterizada por una funcin
de pertenencia j

(:) . el cul asocia un nmero real con cada elemento en o en el intervalo


[0. 1] . con el valor de j

(:) se representa el grado de pertenencia de : en . Esto es, el


conjunto difuso sobre el universo o se dene como:
= (:. j

(:)) [ : o
La funcin de pertenencia mapea cada elemento a su valor de pertenencia entre 0 y 1.
Algunos tipos de funciones de pertenencia son: triangular, trapezoidal, gaussiana, campana
generalizada, sigmoidal, etc.. A continuacin se presenta brevemente los conceptos bsicos
de los sistemas difusos.
Fuzzyficacin
Inferencia
difusa
Defuzzyficacin
Base de
reglas
Fuzzyficacin
Inferencia
difusa
Defuzzyficacin
Base de
reglas
Figura 2.15: Componentes de un sistema difuso.
Un sistema difuso es un mapeo no lineal de un vector de datos de entrada a una salida
escalar utilizando lgica difusa. Este mapeo se realiza utilizando la fuzicacin, inferencia
difusa, y la defuzicacin, componentes que conforman un sistema difuso como se muestra
en la gura 2.15. El componente de fuzzycacin mapea un valor no difuso del espacio de
entrada a un valor lingistico conveniente, el cul puede ser visto como una etiqueta del
conjunto difuso. La mquina de inferencia difusa consiste de tres partes conceptuales: La
base de reglas que contiene una seleccin de las reglas difusas, la base de datos que denen
las funciones de pertenencia utilizadas en las reglas difusas, la normalizacin de las entradas
y salidas del universo del discurso, La realizacin de la particin difusa del espacio de entrada
34 Red neuronal FCMAC
y salida, y el mecanismo de razonamiento que realiza el procedimiento de inferencia sobre
las reglas y da las condiciones para derivar una salida razonable. La estructura de una regla
difusa sencilla tiene la estructura:
o1 : es , 1`1C`C1o es 1 (2.9)
Donde y 1 son los valores lingsticos de entrada y salida denidos por los conjuntos
difusos sobre el universo o y 1 respectivamente. La parte o1 : es , es llamada la parte
antecedente de la regla, la parte 1`1C`C1o es 1, es llamada la parte consecuente. La
regla puede ser representada como una relacin de implicacin como:
1 : 1
Donde 1 es la relacin difusa denida sobre el universo del producto cartesiano o 1 .
y 1 son la parte antecedente y consecuente de la regla. Esta relacin puede ser obtenida
de diferentes fuentes: del conocimiento y experiencia de un experto, del sentido comn, del
conocimiento intuitivo del ingeniero de diseo, acerca del sistema bajo estudio ya sea de los
principios fsicos de funcionamiento o de las leyes fsicas que lo gobiernan.
Los modelos difusos bsicamente se dividen en dos categorias: Uno es el modelo lingisti-
co, el cul est basado en una coleccin de reglas :ic:to:cc:, que utilizan un razonamiento
difuso este se conoce como modelo Mamdani. La forma de este modelo para un sistema de
dos entradas-una salida se describe por:
o1 :
1
es y :
2
es 1, 1`1C`C1o es C (2.10)
donde . 1 y C son conjuntos difusos sobre el universo o. 1 y 2 respectivamente.
El otro tipo es el modelo Sugeno, est caracterizado en su parte consecuente por una
expresin matemtica:
o1 :
1
es y :
2
es 1, 1`1C`C1o = , (:. ) (2.11)
donde y 1 son conjuntos difusos sobre el universo del discurso o y 1 respectivamente. Un
modelo Sugeno de primer orden tiene la forma:
o1 :
1
es y :
2
es 1, 1`1C`C1o = j: + + : (2.12)
2.4 Red neuronal CMAC 35
Los modelos difusos pueden ser desarrollados empleando el mtodo directo, donde se extrae
directamente el conocimiento del experto y es expresado en la forma de reglas lgicas.
2.4. Red neuronal CMAC
Una de las tcnicas de control inteligente ms utilizadas y que ha presentado un incre-
mento signicativo en su investigacin y desarrollo en los ltimos aos han sido las redes
neuronales articiales (NNs, por sus siglas en ingls), las cules son muy poderosas para iden-
ticar y controlar una amplia variedad de sistemas no lineales usando nicamente entradas
y salidas de la planta sin necesidad de tener con un modelo matemtico que la describa. Los
controladores basados en redes neuronales han sido desarrollados para compensar los efectos
no lineales presentes en los sistemas a controlar. En la topologa de las redes neuronales
hacia adelante (feedforward) todos los pesos son actualizados en cada ciclo de aprendizaje,
este aprendizaje es de naturaleza global, lo cual es una tarea que consume mucho tiempo,
esto llega a ser una desventaja cuando se pretende realizar un aprendizaje en linea o para
aplicaciones de control en tiempo real donde el tiempo de respuesta se vuelve crtico.
Una nueva topologa de red neuronal articial que no presenta estas desventajas fue
propuesta por James Albus en 1976 llamada: Cerebellar Model Articulatin Controller -
CMAC -, cuya traduccin literal es modelo del cerebelo para el control de la articulacin
[1], [2]. Este modelo articial es una representacin del modelo biolgico que se describe
de manera general por tres capas que corresponden a las neuronas sensoriales que detectan
los estmulos, las clulas granulares y las clulas Purkinje, ests ltimas se encuentran en la
corteza del cerebelo [31]. La red neuronal CMAC puede ser clasicada como un perceptrn de
memoria asociativa o mecanismo de bsqueda (look-up) por medio de una tabla, el cul no se
encuentra completamente conectada y la actualizacin de los pesos es local; ha sido utilizado
ampliamente para control de sistemas en lazo cerrado de sistemas dinmicos complejos en
tiempo real debido principalmente a su rpido proceso de aprendizaje. La red CMAC puede
aprender relaciones no lineales de una amplia categoria de funciones y es una alternativa a las
redes clsicas como el MLP. Algunas desventajas de las redes multicapa como el Perceptron
36 Red neuronal FCMAC
(MLP) es que su algoritmo de entrenamiento generalmente toman muchas iteraciones para
converger, de aqu que en aplicaciones de aprendizaje en linea y en tiempo real no son
muy recomendables, el nmero de clculos por iteracin es grande y el algoritmo se ejecuta
lentamente, lo que hace muy difcil su implementacin en hardware. La gura 2.16, muestra
de manera general las diferentes topologas de redes CMAC que son estudiadas en este
trabajo, en las siguientes secciones se explica a detalle el funcionamiento de cada una de
ellas.
Red
CMAC
FCMAC
HFCMAC RFCMAC
HFCMAC
feedforward
HFCMAC
recurrente
RFCMAC
global
RFCMAC
local
Red
CMAC
FCMAC
HFCMAC RFCMAC
HFCMAC
feedforward
HFCMAC
recurrente
RFCMAC
global
RFCMAC
local
Figura 2.16: Diferentes topologias de redes CMAC.
2.4.1. Red neuronal CMAC
La idea bsica de la red CMAC es almacenar los datos dentro de una regin, de tal
forma que los datos puedan fcilmente recuperarse y el espacio de almacenamiento sea mn-
imo, la red CMAC consta de mltiples entradas y mltiples salidas. Por las caractersticas
mencionadas en la introduccin, la red CMAC es considerada una red neuronal articial,
sin embargo, para las implementaciones actuales en software, generalmente es mucho ms
conveniente tratar a la red CMAC como una tabla de bsqueda. La red CMAC de la gura
2.17 consta de tres capas 11. 12 y 13.
La capa 11 presenta las variables de entrada : = [:
1
. :
2
. .... :
a
]. el espacio de entrada es
2.4 Red neuronal CMAC 37
A B C D
E F G H
I J K L
f
g
h
a
b
c
d
e
j
k
l
i
Resolucin
Hipercubos
Asociados a
1
2
3
2s
1s
0 1 2 3 4
4
3
2
1
0
Elementos de
asociacin
sr
an
h
Hipercubos
activados
W
W
W

y(s)
L1
L2
L3
an
Elementos de
asociacin
1s
Figura 2.17: Estructura interna de la red CMAC.
dividido en segmentos denominados elementos de resolucin denotado por :
c
, cada espacio
de entrada tiene un rango de valores permitidos, por lo que cada entrada analgica :
i
se
cuantiza y se convierte en un valor discreto, este nuevo par de valores ser utilizado para
generar una direccin de memoria.
En la capa 12. la direccin de memoria seleccionada previamente se asocia con otras
memorias cercanas a su vecindad, este conjunto de memorias se denominan elementos de
asociacin :
o
, al proyectar esta vecindad sobre los elementos de resolucin :
c
para cada en-
trada :
i
, se forma el ancho de asociacin. Para la misma direccin de memoria se le pueden
asociar diferentes localidades de memoria, a cada grupo con diferentes localidades de memo-
ria, se le conoce como hipercubo /. El contenido de todos los hipercubos que son memorias
presentan un valor numrico que ser actualizado mediante un algoritmo de aprendizaje.
La capa de salida 13 es la suma del contenido de todos los elementos de memoria de los
hipercubos, la salida total de la red CMAC se representa por (:) .
38 Red neuronal FCMAC
Los elementos de resolucin :
c
, el rango de los valores de entrada permitidos en la red
CMAC, los elementos de asociacin :
o
, el nmero de hipercubos / y su tamao, son denidos
por el diseador.
3,0 3,1 3,2 3,3
2,0 2,1 2,2 2,3
1,0 1,1 1,2 1,3
0,0 0,1 0,2 0,3
A B
C D
F E
d
b
c
a
e
f
1s
2s
0 1 2 3
1
2
3
1
2
3
1 2 3
12.35 s=
22.36 s=
Figura 2.18: Red CMAC: dos entradas, una salida.
3,0 3,1 3,2 3,3
2,0 2,1 2,2 2,3
1,0 1,1 1,2 1,3
0,0 0,1 0,2 0,3
A B
b
a
1s
2s
0 1 2 3
1
2
3
1
1
22.36 s=
12.35 s=
Figura 2.19: Elementos de Asociacin 1.
Un ejemplo de la red CMAC con dos entradas-una salida se observa en la gura 2.18.
En la capa 11 se encuentran las variables de entrada :
1
= 2.35 y :
2
= 2.36.. Los elementos
de resolucin son :
c
= 3, el rango de valores permitidos es de 0 a 3 por cada entrada :
i
,
2.4 Red neuronal CMAC 39
el nmero de asociacin es de 3. y el nmero de hipercubos es 3. Las entradas originales se
cuantizan y toman nuevos valores, esto es: :
1
= 2 y :
2
= 2, este valor genera la direccin de
memoria (2. 2) .
3,0 3,1 3,2 3,3
2,0 2,1 2,2 2,3
1,0 1,1 1,2 1,3
0,0 0,1 0,2 0,3
C D
d
c
1s
2s
0 1 2 3
1
2
3
2
2
12.35 s=
22.36 s=
Figura 2.20: Elementos de asociacin 2.
Como se observa en la gura 2.19, los primeros elementos de asociacin que corresponden
a la direccin (2. 2) son las localidades: (0. 0) . (0. 1) . (0. 2) . (1. 0) . (1. 1) . (1. 2) . (2. 1) . (2. 2) .
Todos estos elementos de memoria forman el primer hipercubo /
1
.
3,0 3,1 3,2 3,3
2,0 2,1 2,2 2,3
1,0 1,1 1,2 1,3
0,0 0,1 0,2 0,3
F E
e
f
1s
2s
0 1 2 3
1
2
3
3
3
12.35 s=
22.36 s=
Figura 2.21: Elementos de asociacin 3.
40 Red neuronal FCMAC
El segundo grupo de elementos de asociacin que corresponden a la direccin (2. 2)
son: (1. 1) . (1. 2) . (1. 3) . (2. 1) . (2. 2) . (2. 3) . (3. 1) . (3. 2) . (3. 3) . este conjunto de elementos
de memoria forman el hipercubo dos /
2
, como se observa en la gura 2.20.
3,0 3,1 3,2 3,3
2,0 2,1 2,2 2,3
1,0 1,1 1,2 1,3
0,0 0,1 0,2 0,3
A B
b
a
1s
2s
0 1 2 3
1
2
3
1
1
22.36 s=
C D
2
F E
3
d
c
2
e
f
3
12.35 s=
+
y(s)
Figura 2.22: Total de elementos activados en la red CMAC.
Por ltimo, el hipercubo /3 consta de los elementos de memoria: (2. 2) . (2. 3) . (3. 2) . (3. 3),
como se muestra en la gura 2.21. El total de elementos de memoria activados que se muestran
en la gura 2.22, son (0. 0) . (0. 1) . (0. 2) . (1. 0) . (1. 1) . (1. 2) . (2. 1) . (2. 2) . (2. 3) . (3. 1) . (3. 2) . (3. 3) .
Al nmero total de combinaciones de memoria tambin se puede realizar mediante todas
las combinaciones de hipercubos como se muestra en la gura 2.23, a todos los hipercubos
activados por las entradas se les asigna el valor de n:o, a las bloques de asociacin no activa-
dos se les asigna el valor de cc:o, los hipercubos activados estn compuestos de elementos de
memoria neuronas, estos sern los nicos que podrn actualizar sus pesos mediante algn
algoritmo de aprendizaje. El total de hipercubos combinaciones que se pueden formar son:
[c. /. 1c. 1/. Cc. Cd. 1c. 1d. 1c. 1,. 1c. 1,] (2.13)
La tercera capa de la red, presenta la sumatoria de todos los pesos de las neuronas
activadas en la capa 12, del total de neuronas presentes en la red, solo una pequea cantidad
2.4 Red neuronal CMAC 41
0,3
0,2
0,1
0,0
1,3
1,2
1,1
1,0
2,3
2,2
2,1
2,0
Memoria
3,3
3,2
3,1
3,0
0,3
0,2
0,1
0,0
1,3
1,2
1,1
1,0
2,3
2,2
2,1
2,0
3,3
3,2
3,1
3,0
0,3
0,2
0,1
0,0
1,3
1,2
1,1
1,0
2,3
2,2
2,1
2,0
3,3
3,2
3,1
3,0
+ y
Salida
*y
Ajuste de pesos
Para las memorias
activas
Salida
deseada
Bb
Ba
Ab
Aa
Dd
Dc
Cd
Cc
Ff
Fe
Ef
Ee
12.35 s=
22.36 s=
Vector de
entrada
Hipercubos 1h 2h 3h
Figura 2.23: Hipercubos activados en la red CMAC.
de ellas son utilizadas. La salida de la red CMAC como se observa en la gura 2.23, es el
valor numrico contenido en cada direccin de memoria fsica activada por los hipercubos,
son sumadas para seleccionar un nico conjunto de pesos, estos denen el valor de la funcin
de control almacenada en esa direccin y se encuentra dada por:
=
_

_
n(c) + n(/) + n(1c) + n(1/) +
n(Cc) + n(Cd) + n(1c) + n(1d) +
n(1c) + n(1,) + n(1c) + n(1,)
_

_
(2.14)
= [n(c) + n(1d) + n(1,)]

i
= a
i
w =
.
h

)=1
c
i)
n
)
Donde n es el vector columna con el contenido de las memorias activadas y c
i)
es el
vector la con los elementos de la memoria activados. Cuando se tiene el caso de un espacio
de mltiples entradas - mltiples salidas los requerimientos de memoria aumentan.
42 Red neuronal FCMAC
2.4.2. Red neuronal CMAC generalizada
La gura 2.24, muestra la arquitectura de una red CMAC generalizada estudiadas en [6],
[11], a diferencia de la red CMAC propuesta por J. Albus es que esta nueva topologia de red
presenta funciones gaussianas en los hipercubos.
1
s
2
s
Nivel 1
Nivel 2
Nivel 3
A B C
D E F
G H I
a
b
c
d
e
f
h
i
Estado (3,3)
g
1 2 3 4 5 6 7
7
6
5
4
3
2
1
Ee
Bb
Gg
Nivel 1
Nivel 2
Nivel 3
1
s
2
s
Nivel 1
Nivel 2
Nivel 3
A B C
D E F
G H I
a
b
c
d
e
f
h
i
Estado (3,3)
g
1 2 3 4 5 6 7
7
6
5
4
3
2
1
Ee
Bb
Gg
Nivel 1
Nivel 2
Nivel 3
Figura 2.24: Red CMAC generalizada
La red CMAC generalizada est compuesta por cinco capas, la propagacin de los datos
de entrada y las funciones bsicas en cada etapa se explican a continuacin:
1. En la capa n:o se encuentra el espacio de entrada :. el cul es contino y :
di:c::io:c|, se dene como: : = [:
1
. :
2
. .... :
a
]
T
1
a
. i = 1. ... :. donde : denota
el nmero de entradas. Cada entrada :
i
es dividida en varios elementos, el nmero de
elementos se conoce como resolucin :
c
. algunos de estos elementos son agrupados para
formar un bloque :
b
por cada entrada, llamado bloque de asociacin.
2. La capa do: es conocida como espacio de asociacin de memoria : El nmero total
de bloques :
b
formados en los diferentes niveles de quantizacin se dene como :

. El
nmero de bloques :

en la red CMAC generalmente es mayor que do:. La interseccin


de los bloques de asociacin :
b
se conoce como hypercubos /
b
. El comportamiento de
2.4 Red neuronal CMAC 43
cada bloque /
b
est en funcin de los campos receptivos, que es la diferencia principal
con la red CMAC original, para una red neuronal CMAC generalizada los campos
receptivos pueden ser generalmente funciones triangulares gaussianas. En este trabajo
se utiliza la funcin gaussiana representada como:
j

i
j
(:
i
) = exp
_
(:
i
c
i)
)
2
o
2
i)
_
. , = 1. .... :

(2.15)
Donde j

i
j
(:
i
) representa la funcion gaussiana asociadas a cada campo receptivo ,. El
superndice i representa la i c:i:c entrada :
i
, con el promedio c
i)
y la varianza o
i)
para cada una de las entradas.
3. Espacio del campo receptivo 1: Las reas formadas por los bloques como en el vector
(2.13), son llamados campos receptivos asociados a una funcin gaussiana, el nmero de
campos receptivos es igual a :
b
(bloque de asociacin). Cada localidad de corresponde
a un campo receptivo. El campo receptivo multidimensional se dene como:
/
)
(:. c
)
.
)
) =
a

i=1
j

i
j
(:
i
) (2.16)
= exp
_
a

i=1
(:
i
c
i)
)
2
o
2
i)
_
. , = 1. .... :
v
Donde /
)
est asociado con el , c:i:o campo receptivo, c
)
= [c
1)
. c
2)
. .... c
a)
]
T
1
a
y

)
= [o
1)
. o
2)
. .... o
a)
]
T
1
a
. i = 1. . :. El campo receptivo multidimensional puede
ser representado en una notacin vectorial como:
,(s. c. v) = [/
1
. /
2
. .... /
ar
]
T
Donde c =
_
c
T
1
. c
T
2
. .... c
T
I
. .... c
T
ar

T
1
aar
y v =
_
v
T
1
. v
T
2
. .... v
T
I
. .... v
T
ar

T
1
aar
.
4. Espacio de memoria de los pesos w: cada localidad de 1 presenta un valor ajustable
en el espacio de memoria de pesos, con :
v
componentes puede ser expresado como:
w = [w
1
. w
2
. .... w
c
. .... w
j
]
44 Red neuronal FCMAC
donde w
c
= [n
1c
. n
2c
. .... n
)c
. .... n
arc
]
T
1
ar
. n
)c
denota el valor de los pesos de la
o c:i:c salida asociada con el , c:i:o campo receptivo. Los pesos de n
Ic
son
inicializadoas en cero y se ajustan automticamente durante la operacin en lnea.
5. El espacio de salida : La salida de la red CMAC es la suma algebraica de los valores
de los campos receptivos 1/. 1c. Gq. .. activados por las entradas, el cul se expresa
como:
=

n
)c
,
)
(s. c
)
. v
)
) (2.17)
= n
T
,(:)
2.4.3. Red neuronal CMAC difusa
La arquitectura de una red CMAC difusa se muestra en la gura 2.25, esta red est
compuesta por cinco capas: En la primer capa se encuentra el espacio de entrada, en la
segunda se encuentra la capa de fuzzicacin, en la tercera est la capa de asociacin difusa,
en la cuarta la capa de post-asociacin difusa y en la ltima, la capa de salida. Las funciones
bsicas realizadas en cada capa se explican a continuacin:
1. La capa 1
1
est dada por : = [:
1
. :
2
. .... :
a
]
T
1
a
. la cual transere las entradas de la
red a la siguiente capa dada por la variable :,
i
= :
i
. i = 1. ...:. donde : es el nmero
de las variables de entrada.
2. La capa 1
2
de la red neuronal CMAC difusa es conocida como capa de fuzzicacin, en
donde cada nodo de fuzzicacin corresponde a una variable lingistica (ej. positivo,
cero, negativo), la cul esta expresada por una funcin de pertenencia j

i
j
, en este
trabajo se utiliza la funcin gaussiana representada como en 2.15. Existen : variables
lingisticas por cada entrada como se observa en la gura 2.25, el nmero de nodos en
esta capa es :
n
.
3. La capa 1
3
de asociacin difusa realiza el clculo de la parte antecedente de las reglas
lgicas difusas. Cada nodo en esta capa realiza la operacin de implicacin:
SI :
1
est en
1
)
y :
a
est en
a
)
ENTONCES ...
2.4 Red neuronal CMAC 45
1
s
Z
1
N
1
P
1
Z
2
N
2
P
2
M
M
1
L
2
L
M
n
s
4
L
3
L
SI
SI
Entonces
Entonces
M
M
Espacio
de salida

( ) y x
5
L
1
s
Z
1
N
1
P
1
Z
2
N
2
P
2
M
M
1
L
2
L
M
n
s
4
L
3
L
SI
SI
Entonces
Entonces
M
M
Espacio
de salida

( ) y x
5
L
Figura 2.25: Red neuronal CMAC difusa
Se utiliza la regla producto y se obtiene:
c
j
=
a

i=1
`
j
_
j

i
j
_
(2.18)
donde j son las veces de asociacin, j = 1. .... | donde | es el nmero de asociacin, `
es el vector de seleccin de la memoria de asociacin la cul est denida como:
`
j
_
j

i
j
_
= j

i
j;p
= [0. 0 1. 0 ]
_

_
j

i
1
,
.
.
.
j

i
m
_

_
(2.19)
4. La capa 1
4
de post-asociacin difusa se calcula al normalizar las reglas activadas y
prepararlas para la inferencia difusa.
,
j
= c
j
,
|

j=1
c
j
=
_
.
i

i=1
j

i
j
,
_
,
_
.
A

)=1
.
i

i=1
j

i
j
,
_
(2.20)
5. El espacio de salida 1
5
: La salida de la red CMAC difusa es la suma de los pesos
activados por las entradas en el espacio de memoria, la cul se expresa como:
= n
T
,(:) (2.21)
46 Red neuronal FCMAC
Red CMAC via sistemas difusos
Para un sistema difuso con ` nmero de reglas difusas y do: variables de entrada : =
[:
1
. :
2
] . se construyen las reglas difusas con la siguiente estructura:
1
i
: Si :
1
est en
i
1
y :
2
est en
i
2
. ENTONCES = n
T
,(:) (2.22)
Donde i = 1. 2. .... ` y la parte consecuente de la regla se obtiene de la salida de la red
CMAC. Las funciones de pertenencia utilizadas para los conjuntos difusos
i
)
son gausianas
j

i
j
,
donde , = 1. ... :. Se realiza el proceso de fuzzicacin para calcular la salida :
=

1
,
T
1
n +
2
,
T
2
n + ... +
.
,
T
.
n

1
+
2
+ ... +
.
(2.23)
=
.

i=1
c
T
i
n
i
.

i=1

i
Donde:
1
=
2

i=1
j

i
j
(:
i
) . la ecuacin anterior puede ser escrita en forma compacta como:
= n
T
,(:) (2.24)
Donde: , = [,
1
. ,
2
. .... ,
.
]
T
, ,
i
=

i
N
P
i=1

i
. =
_
c
T
1
. c
T
2
. .... c
T
.

T
La matriz se determina por los vectores de asociacin de la red CMAC y , se determina
por las reglas difusas, las cules podrn ser dadas y permitirn al vector de pesos n ajustar
sus valores [13].
Por simplicidad para el problema de do: dimensiones, se construye la base de reglas difusas
con la estructura (2.22), las funciones de pertenencia se elijen como en la gura 2.26, en la cul
1 es positivo y ` es negativo son conjuntos difusos para cada variable, existen cuatro reglas
con cnct:o vectores de asociacin c
1
. c
2
. c
3
. c
4
denotados por las siguientes combinaciones
[:
1
. :
2
] = [(1. 1) . (1. `) . (`. 1) . (`. `)]. Para este ejemplo existen 16 vectores de asociacin
en la red CMAC, mientras que en le red CMAC difusa solo cnct:o son utilizados, para
determinar el vector de asociacin c
i
en la red CMAC difusa, se realiza la operacin lgica
2.4 Red neuronal CMAC 47
C1 en todos los vectores de asociacin de la red CMAC. Por ejemplo si [:
1
. :
2
] est en el
caso (1. 1) existen nueve elementos en la regin y al realizar la operacin C1 sobre los
correspondientes nueve vectores de asociacin se obtiene c
1
= [1. 1. 1. 1. 0. 0. 0. 1. 1. 1. 1. 1].
(-4,4)
(-4,2)
(-4,-2)
(-4,-4)
(-2,4)
(-2,2)
(-2,-2)
(-2,-4)
(2,4)
(2,2)
(2,-2)
(2,-4)
(4,4)
(4,2)
(4,-2)
(4,-4)
A
D
B
C
E F
a
b
d
c
f
e
4
2
-4
-2
-4 -2 2 4
s
1
s
2
N
P
-2 0 2
s
1
N
P
s
2
-
2








0









2
(-4,4)
(-4,2)
(-4,-2)
(-4,-4)
(-2,4)
(-2,2)
(-2,-2)
(-2,-4)
(2,4)
(2,2)
(2,-2)
(2,-4)
(4,4)
(4,2)
(4,-2)
(4,-4)
A
D
B
C
E F
a
b
d
c
f
e
4
2
-4
-2
-4 -2 2 4
s
1
s
2
N
P
-2 0 2
s
1
N
P
s
2
-
2








0









2
Figura 2.26: Relacin CMAC con las reglas difusas
De la gura 2.26, se descompone en diferentes niveles de quantizacin, donde cada hiper-
cubo generado tendr asociado una funcin de pertenenca, en este caso es una funcin
triangular, dentro de los hipercubos generados existen clulas o neuronas, analizaremos la
clula ubicada en las coordenadas (4. 4). Se construye la base de reglas difusas en base a las
posibles combinaciones de las funciones de pertenencia como:
1
1
: o1 :
1
= 1 :
2
= 1. 1`1C`C1o = n
T
,
1
1
2
: o1 :
1
= 1 :
2
= `. 1`1C`C1o = n
T
,
2
1
3
: o1 :
1
= ` :
2
= 1. 1`1C`C1o = n
T
,
3
1
4
: o1 :
1
= ` :
2
= `. 1`1C`C1o = n
T
,
2
La parte antecedente de las reglas difusas corresponden al vector de seleccin de los
elementos de memoria, para el ejemplo de la clula (4. 4) . en el primer nivel de quantizacin,
dispara el hipercubo 1/ = 1, en el segundo nivel dispara 1d = 1 y en el tercero 1, = 1, Estos
son los elementos de memoria activados, se realiza el mismo procedimiento para cada una de
48 Red neuronal FCMAC
las clulas. La parte ENTONCES es la suma de todos los elementos de memoria activados
en las diferentes combinaciones ((1. 1) . (1. `) . (`. 1) . (`. `)) . Los elementos de memoria
se reeren a los hipercubos: `c:o:ic = [c. /. 1c. 1/. Cc. Cd. 1c. 1d. 1c. 1,. 1c. 1,].
:
1
. :
2
c c|n|c `c:o:ic c
i
c: |c jc:tc 1`1C`C1o
(1. 1) (4. 4) [0 0 0 1 0 0 0 1 0 0 0 1] [1 1 1 1 0 0 0 1 0 0 0 1]
(4. 2) [0 0 1 0 0 0 0 1 0 0 0 1]
(2. 2) [1 0 0 0 0 0 0 1 0 0 0 1]
(2. 4) [0 1 0 0 0 0 0 1 0 0 0 1]
(1. `) (2. 4) [1 0 0 0 0 0 1 0 0 0 1 0] [1 0 1 1 0 0 1 1 0 0 1 0]
(2. 2) [1 0 0 0 0 0 1 0 0 0 1 0]
(4. 4) [0 0 0 1 0 0 1 0 0 0 1 0]
(4. 2) [0 0 1 0 0 0 0 1 0 0 1 0]
:
1
. :
2
c c|n|c `c:o:ic c
i
c: |c jc:tc 1`1C`C1o
(`. 1) (4. 2) [1 0 0 0 0 1 0 0 0 1 0 0] [1 1 0 0 0 1 0 1 0 1 0 0]
(4. 4) [0 1 0 0 0 1 0 0 0 1 0 0]
(2. 2) [1 0 0 0 0 0 0 1 0 1 0 0]
(2. 4) [0 1 0 0 0 0 0 1 0 1 0 0]
(`. `) (4. 4) [1 0 0 0 1 0 0 0 1 0 0 0] [1 0 0 0 1 1 1 1 1 0 0 0]
(4. 2) [1 0 0 0 0 1 0 0 1 0 0 0]
(2. 4) [1 0 0 0 0 0 1 0 1 0 0 0]
(2. 2) [1 0 0 0 0 0 0 1 1 0 0 0]
Como se ha visto en esta seccin la red neuronal CMAC presenta una estructura similar
a la red con funciones de base radial (FBR), ya que ambos pueden usar la funcin gaus-
siana como funcin de activacin en su capa oculta, presentan una rpida convergencia del
algoritmo de aprendizaje en relacin al MLP. La red FBR es de naturaleza local por lo que
computacionalmente consumen menos recursos y menos tiempo, son ms fciles de imple-
2.4 Red neuronal CMAC 49
mentar por software y hardware, sin embargo existen algunas modicaciones a la red CMAC
que la han hecho ms poderosa.
Las redes FBR solo estn diseados para abordar problemas estticos ya que presenta
una estructura rgida hacia adelante de tres capas, por otra parte las redes CMAC pueden
presentar una recurrencia local, global una combinacin de ambas lo que permite su uso
en la identicacin y control de sistemas dinmicos. Al combinar la herramienta de los
sistemas difusos y las redes CMAC, se obtiene una red CMAC difusa, este esquema presenta
la capacidad de aprendizaje de la red junto con el conocimiento a priori del sistema y una
estrategia de control difusa. El problema de la dimensionalidad de la explosin de las reglas
se resuelve usando una estructura jerrquica. Estas son algunas de las ventajas de las redes
CMAC con respecto a las redes con funciones de base radial.
50 Red neuronal FCMAC
Captulo 3
Identicacin mediante redes FCMAC
3.1. Preliminares
En 1892 A. M. Lyapunov desarroll dos mtodos en su famosa monografa: Problema
general de la estabilidad del movimiento, present dos mtodos para determinar la estabilidad
de los sistemas dinmicos descritos mediante ecuaciones diferenciales ordinarias. El primer
mtodo se compone de todos los procedimientos en los cuales se usa la forma explcita de
la solucin de las ecuaciones diferenciales para el anlisis. En cambio, el segundo mtodo no
requiere de las soluciones de las ecuaciones diferenciales, es decir, mediante el segundo mtodo
de Lyapunov se determina la estabilidad de un sistema sin resolver las ecuaciones de estado,
lo cul resulta en un mtodo ms sencillo, de manera general el mtodo de Lyapunov es para
sistemas autnomos y no autnomos sin perturbaciones del tipo r (/ + 1) = , [/. r(/) . 0].
Los teoremas de estabilidad de Lyapunov dan condiciones sucientes para la estabilidad y
estabilidad asinttica, tambien pueden ser usados para mostrar acotamiento de la solucin.
La nocin de estabilidad entrada-estado (i:: por sus siglas en ingles) es una extensin
natural de la estabilidad de Lyapunov para sistemas con entradas. La i:: es una de las
herramientas ms importantes para estudiar la dependencia de la trayectoria de los estados
de los sistemas no lineales en tiempo contino y discreto sobre la magnitud de las entradas,
las cules pueden representar entradas de control perturbaciones con estructura r (/ + 1) =
52 Identicacin mediante redes FCMAC
, [/. r (/) . n(/)], es decir, un sistema es i:: si cada trayectoria de los estados que corresponde
a un control acotado permenece acotado y la trayectoria eventualmente llega a ser pequea
si la seal de entrada es pequea independientemente del estado inicial. Para estudiar las
propiedades de la estabilidad entrada-estado se considera el siguiente sistema no lineal en
tiempo discreto en su representacin de espacio de estados:
r(/ + 1) = , [r (/) . n(/)]
(/) = q [r (/)]
(3.1)
Donde r (/) R
a
es el vector de estados y n(/) R
n
es el vector de entrada. Para algn
:. : y para cada instante de tiempo / Z
+
. ,. q son funciones no lineales , : R
a
R
n
R
a
.
Para cualquier r R
a
. r
T
es la transpuesta y [r[ es la norma euclideana. Para una matriz
de : :. || es la norma de la matriz. Se emplea R. R
+
. Z. Z
+
para denotar al conjunto
de los nmeros reales, a los reales no negativos, a los enteros y a los nmeros enteros no
negativos respectivamente. Para cada r
0
R
a
y cada entrada n. se denota a r (. r
0
. n) como
la trayectoria del sistema (3.1), con el estado inicial r (0) = r
0
y la entrada n. Las entradas
seales de control n() son funciones de Z
+
a R
n
. Se considera el sistema con valores de
entrada tomados en un subconjunto restringido R
n
; se utiliza /

como el conjunto de
valores de control tomados de . Es claro que la trayectoria est denida nicamente sobre
Z
+
. Se considera que , (0. 0) = 0. es decir, r
0
= 0 es un estado de equilibrio del sistema en
la entrada 0. Se introducen las deniciones de funciones clase /. /
o
y // y los conceptos
de funciones i:: y 1cjn:o i::.
Denicin 3.1 Funcin clase /. Si una funcin continua () : [0. c) [0. ) es estricta-
mente creciente con (0) = 0. () es llamada una funcin clase /. Si (:) es una funcin
clase /, y adems no est acotado, i.e. |i:
co
(:) = se dice que (:) pertenece a la clase
/
o
.
Denicin 3.2 Funcin clase //. Una funcin contina , (:. t) : [0. c) [0. ) [0. )
es llamada una funcin clase // si el primer argumento de la funcin , (:. ) es clase /, y
el segundo argumento de la funcin , (. t) es estrictamente decreciente y |i:
to
, (. t) = 0 .
3.1 Preliminares 53
0 5 10 15 20 25 30
0.7
0.8
0.9
1
1.1
1.2
1.3
1.4
1.5
1.6
0 5 10 15 20 25 30
0.4
0.5
0.6
0.7
0.8
0.9
1
1.1
1.2
1.3
0 5 10 15 20 25 30
0
100
200
300
400
500
600
700
800
900
0 5 10 15 20 25 30
0
0.05
0.1
0.15
0.2
0.25
0.3
0.35
0.4
a) Funcin clase K b) Funcin clase -K
c) Funcin clase K infinito d) Funcin clase KL
0 5 10 15 20 25 30
0.7
0.8
0.9
1
1.1
1.2
1.3
1.4
1.5
1.6
0 5 10 15 20 25 30
0.4
0.5
0.6
0.7
0.8
0.9
1
1.1
1.2
1.3
0 5 10 15 20 25 30
0
100
200
300
400
500
600
700
800
900
0 5 10 15 20 25 30
0
0.05
0.1
0.15
0.2
0.25
0.3
0.35
0.4
a) Funcin clase K b) Funcin clase -K
c) Funcin clase K infinito d) Funcin clase KL
Figura 3.1: Tipos de funciones: a) clase k, b) clase -k, c) clase k-innito, d) clase kl
La siguientes guras muestran las funciones: a) clase /, b) clase /
o
, c) clase //.
Sean
1
() y
2
() dos funciones clase /, sobre [0. c) . Se expresan c
1
() . c
2
() como
funciones clase /
o
y una funcin , clase //, la inversa de
i
se dene como
1
i
. se tienen
las siguientes caractersticas:

1
1
est denido sobre [0.
1
(c)) y pertenece a una clase /.
c
1
2
se dene sobre [0. ) y pertenece a la clase /
o
.

1

2
pertenece a una clase /.
54 Identicacin mediante redes FCMAC
c
1
c
2
pertenece a una clase /
o
.
o (:. :) =
1
(, (
2
(:) . :)) pertenecen a la clase //.
Denicin 3.3 Un sistema representado como (3.1), se dice ser entrada-estado estable si
existe una funcin () de clase /. y una funcin , () de clase //, tal que n 1
o
. i.e.,
sup |n(/)| < . y cada estado inicial r
0
R
a
presenta:
|r (/. r
0
. n(/))| _ , (|r
0
| . /) + (|n(/)|) (3.2)
Para cada / Z
+
. Hay que notar que por causalidad, la denicin (3.2) puede ser reem-
plazada por:
|r (/. r
0
. n(/))| _ , (|r
0
| . /) + (|n(/ 1)|) (3.3)
Se puede observar en la ecuacin (3.3) que la propiedad i:: implica que el sistema con
entrada 0; r (/ + 1) = , [r (/) . 0] es globalmente asintticamente estable (GAS) y que (3.1)
es .
en
trada convergente, estado convergente ", i.e., cada trayectoria del estado r (/. r
0
. n(/))
va a 0 si n(/) va a 0 cuando / . sin embargo lo contrario no es cierto.
Denicin 3.4 Una funcin suave \ : R
a
R _ 0 es llamada una funcin de 1cjn:o
i:: para el sistema (3.1) si las siguientes condiciones permanecen:
c).- Existen funciones c
1
() . c
2
() de clase /
o
tal que:
c
1
(r
0
) _ \ (r
0
) _ c
2
(r
0
) \r
0
R
a
/).- Existe una funcin c
3
() de clase /
o
y una funcin c
4
() de clase / tal que \r
0
R
a
.
cada r (/) R
a
. n(/) R
n
.
\
I+1
\
I
_ c
3
(|r
0
(/)|) + c
4
(|n(/)|)
Una funcin suave de 1cjn:oi:: es una funcin suave. Es claro que si \ es una funcin de
1cjn:oi:: para el sistema (3.1), entonces \ es una funcin de Lyapunov para el sistema
3.1 Preliminares 55
r (/ + 1) = , [r (/) . 0] cuando la entrada n = 0, como en la teoria clsica de estabilidad de
Lyapunov.
Se considera el sistema r (/ + 1) = , [r (/) . n(/)] donde n /

para algunos subcon-


juntos compactos R
n
y , es continua.
Denicin 3.5 Un sistema r (/ + 1) = , [r (/) . n(/)] es globalmente asintticamente es-
table si las siguientes dos propiedades permanecen:
Para cada 0. existe algn o 0. tal que [r (/. r
0
. n)[ < para todo / _ 0. para todo
n /

. y para todo [r
0
[ < o.
La propiedad cuando lim
Io
[r (/. r
0
. n)[ = 0 permanece para todo r
0
R
a
, \n /

.
Estas deniciones implican que para el sistema no lineal (3.1), los siguientes trminos son
equivalentes: a) Entrada-estado estable, b) robusto estable, c) funcin suave de 1cjn:o
i:: como se demuestra en [30].
3.1.1. Modelo en el espacio de estados
Un sistema dinmico tambin puede ser descrito por un modelo en el espacio de estados.
El modelo en el espacio de estados de un sistema dinmico no lineal invariante en el tiempo
con mltiples entradas mltiples salidas se dene a continuacin:
r (/ + 1) = , (r (/) . n(/)) (3.4)
(/) = q (r (/))
donde r (/) = [r
1
(/) . r
2
(/) . . . . . r
a
(/)]
T
son los : componentes del vector de estado del
sistema, n(/) = [n
1
(/) . n
2
(/) . . . . . n
v
(/)]
T
es el vector de entradas al sistema y (/) =
[
1
(/) .
2
(/) . . . . .
n
(/)]
T
. es el vector de salida, ,. q son los mapeos no lineales estticos.
Si el sistema es lineal, la ecuacin (3.4) se convierte en:
r (/ + 1) = r (/) + 1n (/) (3.5)
(/) = Cr (/)
donde . 1 y C son matrices de dimensiones : :. : :. y : :. El esquema de
identicacin se muestra en la gura 3.2:
56 Identicacin mediante redes FCMAC
Planta
Red
Neuronal
( ) u k
+
1
z

-
( ) 1 x k + ( ) x k
( ) 1 e k +
Planta
Red
Neuronal
( ) u k
+
1
z
1
z

-
( ) 1 x k + ( ) x k
( ) 1 e k +
Figura 3.2: Esquema de identicacin.
3.2. Identicacin mediante redes neuronales CMAC
Las redes neuronales hacia delante han demostrado que presentan resultados aceptables
en la identicacin y control de sistemas, en donde hay un desconocimiento parcial total de
la planta y nicamente se dispone de los datos de entrada y salida, esta topologa de red en
particular realiza un mapeo esttico de entrada-salida aproximando funciones continas no
lineales. Sin embargo una desventaja que presentan estas redes es que su aplicacin estn lim-
itados a problemas estticos por la misma estructura de la red hacia adelante (feedforward).
Para sistemas dinmicos las redes con estructura hacia adelante no son adecuados. Las redes
neuronales recurrentes no presentan las desventajas de las redes estticas y se ha demostrado
que son buenos aproximadores de sistemas dinmicos contnuos. Es tambin conocido, que
los sistemas difusos y las redes neuronales estn dirigidos a procesar el conocimiento humano,
la combinacin de ambas tcnicas ha presentado una gran diversidad de aplicaciones. En la
siguiente seccin se disea una topologa de red con recurrencia local y recurrencia global
neuro-difusa CMAC analizando las nuevas ventajas que presenta.
3.2 Identicacin mediante redes neuronales CMAC 57
3.2.1. Red FCMAC con recurrencia local
La red FCMAC con recurrencia local se presenta en la gura 3.3, est compuesta de
ci:co capas: capa de entrada, capa de fuzzicacin, capa de asociacin difusa, capa de post-
asociacin difusa y la capa de salida [8].
1
s
Z
1
N
1
P
1
Z
2
N
2
P
2
M
M
M
n
s
SI
SI
Entonces
Entonces
M
M

( ) y x
N s
ik
Unidad de recurrencia
1
s
Z
1
N
1
P
1
Z
2
N
2
P
2
M
M
M
n
s
SI
SI
Entonces
Entonces
M
M

( ) y x
N s
ik
Unidad de recurrencia
Figura 3.3: Red recurrente local FCMAC
1. La capa de entrada :
i
est dada por : = [:
1
. :
2
. . . . . :
a
]
T
. : 1
a
.
2. La capa dos presenta una recurrencia local en cada una de las neuronas, donde la
funcin de pertenencia es gaussiana y se representa por:
:,
i
(/) = :
i
(/) + j

i
j
(/ 1) o
i,)
(3.6)
donde o
i,)
denota los pesos de cada nodo retroalimentado, j

i;j
(/) es el trmino memo-
ria, el cul almacena informacin pasada de la red y se encuentra denido como:
j

i
j
(/) = exp
_

(:,
i
(/ 1) c
i,)
)
2
o
2
i,)
_
(3.7)
58 Identicacin mediante redes FCMAC
La expresin 3.6, es la principal diferencia entre la red FCMAC dada por 2.21, y la red
con recurrencia local FCMAC (RFCMAC) donde se incluye el elemento de recurrencia.
Cada nodo en esta capa presenta tres parmetros a ser ajustados o
i,)
. c
i,)
. o
i,)
.
3. La capa tres realiza el clculo de la parte antecedente de la regla difusa. Cada nodo
en esta capa realiza la operacin de implicacin, se utiliza en este trabajo el producto,
por lo que se escribe como:
c
j
=
a

i=1
`
j
_
j

i
j
(:,
i
)
_
. j = 1 |. , = 1 : (3.8)
Donde j son las veces de asociacin, | es el nmero de asociacin y ` es el vector de
seleccin de la memoria de asociacin, el cul se dene como:
`
j
_
j

i
j
(:,
i
)
_
= j

i
j;p
(:,
i
) = [0. 0 1. 0 ]
_

_
j

i
1
,
.
.
.
j

i
m
_

_
(3.9)
4. La capa cuatro, tambien conocido como espacio de la memoria de pesos, clcula la
normalizacin y est dado por:
,
j
=
c
j
|

j=1
c
j
=
_

a
i=1
`
j
_
j

i
j
(:,
i
)
__
_
|

I=1

a
i=1
`
j
_
j

i
j
(:,
i
)
_
_ (3.10)
5. En la capa de salida se emplea la inferencia difusa Takagi, la salida de la red recurrente
FCMAC se expresa como:
^ =
|

j=1
n
j
,
j
(3.11)
Se considera la salida de la red neuronal FCMAC en notacin vectorial:
^ = \
T
(/) ,[: (/)] (3.12)
3.2 Identicacin mediante redes neuronales CMAC 59
Algoritmo de aprendizaje estable
Se considera una red CMAC, la cul esta representada por (3.12). El sistema no lineal a
ser identicado est representado como (3.1). como se menciono anteriormente, la estabilidad
entrada-estado es una extensin de la estabilidad asinttica global para sistemas no lineales,
en donde n(/) son entradas de control perturbaciones y las salidas son los estados (/) =
r (/ + 1). i.e.,
(/) = q [r (/)] (3.13)
Se disea un algoritmo de aprendizaje estable tal que la salida (/) con retroalimentacin
local de la red FCMAC (3.12) pueda aproximar la salida (/) de una planta no lineal (3.1).
Se dene el error de identicacin c (/) como:
c (/) = (/) (/) (3.14)
y de acuerdo a la teora de aproximacin de funciones de lgica difusa [27], la identicacin
no lineal de un sistema (3.1) se puede representar como:
(/) = \
+
(/) ,[:,
i
(/)] (/) (3.15)
donde \
+
(/) son los pesos desconocidos del algoritmo de aprendizaje de la red FCMAC que
pueden minimizar el error de modelado (/) . De 3.15 y 3.12 se obtiene:
c (/) = \
T
(/) ,[:,
i
(/)] [\
+
(/) ,[:,
i
(/)] (/)] (3.16)
c (/) =
_
\
T
(/) \
+
(/)

,[:,
i
(/)] + (/)
c (/) =

\ (/) ,[:,
i
(/)] + (/)
donde

\ (/) = \ (/)\
+
(/) . La planta con la estructura (3.1) es 111C estable (entradas
acotadas-salidas acotadas), i.e., (/) y n(/) en (3.1) son acotados. Las funciones ,. (/)
en (3.15) son acotados. El siguiente teorema desarrollado en el trabajo de tesis presenta
el algoritmo del gradiente descendente estable para la identicacin no lineal de sistemas
mediante redes recurrentes locales FCMAC.
60 Identicacin mediante redes FCMAC
Teorema 3.1 Se utiliza una red neuronal recurrente FCMAC como el de la gura 3.3 para
identicar una planta no lineal (3.1), el algoritmo del gradiente descendente (3.17) presenta
una tasa de aprendizaje variante en el tiempo, esto puede hacer el error de identicacin
c (/) acotado.
\ (/ + 1) = \ (/) j (/) c (/) ,
T
_
:
i
(/) + j

i
j
(/ 1) o
i,)
_
(3.17)
donde la tasa de aprendizaje j (/) est dado por:
j (/) =
j
1 +
_
_
_,
_
:
i
(/) + j

i
j
(/ 1) o
i,)
__
_
_
2
; 0 < j _ 1 (3.18)
el error de identicacin normalizado se dene como:
c
.
(/) =
c (/)
1 + max
I
_
_
_
_,
_
:
i
(/) + j

i
j
(/ 1) o
i,)
__
_
_
2
_ (3.19)
donde (3.19) satisface el siguiente criterio de desempeo:
lmsup
1o
1
1
1

I=1
|c
.
(/)|
2
_ (3.20)
donde est denido por = max
I
_
| (/)|
2

.
Demostracin. Se selecciona un escalar denido positivo 1(/) como:
1(/) =
_
_
_

\ (/)
_
_
_
2
Por lo que 1(/ + 1) =
_
_
_

\ (/ + 1)
_
_
_
2
. mediante la ley de actualizacin (3.17), se tiene:

\ (/ + 1) =

\ (/) j (/) c (/) ,
T
_
:
i
(/) + j

i
j
(/ 1) o
i,)
_
3.2 Identicacin mediante redes neuronales CMAC 61
Utilizando las desigualdades |c /| _ |c| |/| . 2 |c/| _ c
2
+/
2
. para cualquier c y /. Al
utilizar 0 _ j (/) _ j _ 1. se obtiene:
1(/) = 1(/ + 1) 1(/)
1(/) =
_
_
_

\ (/) j (/) c (/) ,


T
_
:
i
(/) + j

i
j
(/ 1) o
i,)
__
_
_
2

_
_
_

\ (/)
_
_
_
2
=
_
_
_

\ (/)
_
_
_
2
2j (/)
_
_
_c (/)

\ (/) ,
T
_
:
i
(/) + j

i
j
(/ 1) o
i,)
__
_
_
+j
2
(/)
_
_
_c (/) ,
T
_
:
i
(/) + j

i
j
(/ 1) o
i,)
__
_
_
2

_
_
_

\ (/)
_
_
_
2
= j
2
(/)
_
_
_c (/) ,
T
_
:
i
(/) + j

i
j
(/ 1) o
i,)
__
_
_
2
2j$ (/)
_
_
_c (/)

\ (/) ,
T
_
:
i
(/) + j

i
j
(/ 1) o
i,)
__
_
_
= j
2
(/)
_
_
_c (/) ,
T
_
:
i
(/) + j

i
j
(/ 1) o
i,)
__
_
_
2
2j (/) |c (/)|
_
_
_

\ (/)
_
_
_
_
_
_,
T
_
:
i
(/) + j

i
j
(/ 1) o
i,)
__
_
_
(3.21)
de la ecuacin (3.16) se tiene:
c (/) (/) =

\ (/) ,[:,
i
(/)]
y del segundo trmino de la ecuacin (3.21), empleando la desigualdad|c /| _ |c| |/|
se tiene:
2j (/) |c (/)|
_
_
_

\ (/)
_
_
_
_
_
_,
T
_
:
i
(/) + j

i
j
(/ 1) .o
i,)
__
_
_ = 2j (/) |c (/)| |c (/) (/)|
2j (/)
_
_
c
2
(/) c (/) (/)
_
_
_ 2j (/) |c (/)|
2
+ 2j (/) |c (/)| | (/)|
2j (/) |c (/)|
_
_
_

\ (/)
_
_
_
_
_
_,
T
_
:
i
(/) + j

i
j
(/ 1) o
i,)
__
_
_ _ 2j (/) |c (/)|
2
+ 2j (/) |c (/)| | (/)|
Por la desigualdad 2 |c/| _ c
2
+/
2
. se tiene 2j (/) |c (/) (/)| _ j (/) |c (/)|
2
+j (/) | (/)|
2
.
por lo que:
1(/) = 1(/ + 1) 1(/)
_ j
2
(/) |c (/)|
2
_
_
_,
_
:
i
(/) + j

i
j
(/ 1) o
i,)
__
_
_
2
j (/) |c (/)|
2
+ j (/) | (/)|
2
_ j (/) |c (/)|
2
+ j
2
(/) |c (/)|
2
_
_
_,
T
_
:
i
(/) + j

i
j
(/ 1) o
i,)
__
_
_
2
+ j (/) | (/)|
2
_ j (/) |c (/)|
2
_
1 j
I
_
_
_,
T
_
:
i
(/) + j

i
j
(/ 1) o
i,)
__
_
_
2
_
+ j (/) | (/)|
2
(3.22)
62 Identicacin mediante redes FCMAC
recordando que j (/) =
j
1 +
_
_
_,
_
:
i
(/) + j

i
j
(/ 1) o
i,)
__
_
_
2
. la ec. (3.22) se puede escribir
como:
1(/) _ j (/) |c (/)|
2
_
_
_
_
_
_
1
_
_
_
j
1 +
_
_
_,
_
:
i
(/) + j

i
j
(/ 1) o
i,)
__
_
_
2
_
_
_
_
_
_,
T
_
:
i
(/) + j

i
j
(/ 1) o
i,)
__
_
_
2
_
_
_
_
_
_
+ j (/) | (/)|
2
1(/) _ j (/) |c (/)|
2
_
_
_
1
_
_
_
j
_
_
_,
T
_
:
i
(/) + j

i
j
(/ 1) o
i,)
__
_
_
2
1 +
_
_
_,
_
:
i
(/) + j

i
j
(/ 1) o
i,)
__
_
_
2
_
_
_
_
_
_
+ j (/) | (/)|
2
sustituyendo el valor de j (/) en la ecuacin anterior:
1(/) _ |c (/)|
2
_
_
_
j
1 +
_
_
_,
_
:
i
(/) + j

i
j
(/ 1) o
i,)
__
_
_
2
_
_
_
_
_
_
1
_
_
_
j
_
_
_,
T
_
:
i
(/) + j

i
j
(/ 1) o
i,)
__
_
_
2
1 +
_
_
_,
_
:
i
(/) + j

i
j
(/ 1) o
i,)
__
_
_
2
_
_
_
_
_
_
+ j (/) | (/)|
2
3.2 Identicacin mediante redes neuronales CMAC 63
1(/) _ |c (/)|
2
_
_
_
_
_
_
_
_
_
_
_
_
_
j
1 +
_
_
_,
_
:
i
(/) + j

i
j
(/ 1) o
i,)
__
_
_
2

j
1 +
_
_
_,
_
:
i
(/) + j

i
j
(/ 1) o
i,)
__
_
_
2
+
_
_
_
j
_
_
_,
T
_
:
i
(/) + j

i
j
(/ 1) o
i,)
__
_
_
2
1 +
_
_
_,
_
:
i
(/) + j

i
j
(/ 1) o
i,)
__
_
_
2
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
+ j (/) | (/)|
2
1(/) _ |c (/)|
2
_

_
j
1 +
_
_
_,
_
:
i
(/) + j

i
j
(/ 1) o
i,)
__
_
_
2

_
_
_
_
_
j
2
_
_
_,
T
_
:
i
(/) + j

i
j
(/ 1) o
i,)
__
_
_
2
_
1 +
_
_
_,
_
:
i
(/) + j

i
j
(/ 1) o
i,)
__
_
_
2
_
2
_
_
_
_
_
_

_
+ j (/) | (/)|
2
1(/) _ |c (/)|
2
_

_
_
_
_
_
_
j j
2
_
_
_,
T
_
:
i
(/) + j

i
j
(/ 1) o
i,)
__
_
_
2
_
1 +
_
_
_,
_
:
i
(/) + j

i
j
(/ 1) o
i,)
__
_
_
2
_
2
_
_
_
_
_
_

_
+ j (/) | (/)|
2
1(/) _ |c (/)|
2
_

_
_
_
_
_
_
j
_
1 j
_
_
_,
T
_
:
i
(/) + j

i
j
(/ 1) o
i,)
__
_
_
2
_
_
1 +
_
_
_,
_
:
i
(/) + j

i
j
(/ 1) o
i,)
__
_
_
2
_
2
_
_
_
_
_
_

_
+ j (/) | (/)|
2
(3.23)
se dene : (/) como:
: (/) =
_
_
_
_
_
j
_
1 j
_
_
_,
_
:
i
(/) + j

i
j
(/ 1) o
i,)
__
_
_
2
_
_
1 +
_
_
_,
_
:
i
(/) + j

i
j
(/ 1) o
i,)
__
_
_
2
_
2
_
_
_
_
_
(3.24)
por lo que la ec. (3.23) se escribe en forma simplicada:
1(/) _ : (/) |c (/)|
2
+ j (/) | (/)|
2
(3.25)
64 Identicacin mediante redes FCMAC
se conoce que 0 _
_
_
_,
_
:
i
(/) + j

i
j
(/ 1) o
i,)
__
_
_
2
_ max
_
_
_
_,
_
:
i
(/) + j

i
j
(/ 1) o
i,)
__
_
_
2
_
.
y adems j (/) _ j. se tiene:
j (/)
_
1 j
_
_
_,
_
:
i
(/) + j

i
j
(/ 1) o
i,)
__
_
_
2
_
_
j
_
1 + max
_
_
_
_,
_
:
i
(/) + j

i
j
(/ 1) o
i,)
__
_
_
2
__
2
la ecuacin (3.25) se reescribe como:
1(/) _ : |c (/)|
2
+ j | (/)|
2
(3.26)
donde : est denido como:
: =
j
_
1 + max
_
_
_
_,
_
:
i
(/) + j

i
j
(/ 1) o
i,)
__
_
_
2
__
2
Porque :mn
_

\
2
i
_
_ 1(/) _ :max
_

\
2
i
_
. donde :mn
_

\
2
i
_
y :max
_

\
2
i
_
son fun-
ciones clase /
o
, y : |c (/)|
2
es una funcin clase /
o
, j | (/)|
2
es una funcin clase /. 1(/)
admite una funcin de Lyapunov ISS. La dinmica del error de identicacin es entrada-
estado estable. Se conoce que 1(/) est en funcin de c (/) y (/) . Las entradas corresponden
al segundo trmino de (3.26), i.e., el error de modelado (/). Los estados corresponde al
primer trmino de (3.22), i.e.., el error de identicacin c (/) . Por que la entrada (/) es
acotada y la dinmica es ISS, El estado c (/) es acotado. (3.22) se puede reescribir como:
1(/) _ j
|c (/)|
2
_
1 + max
I
_
|,[:, (t)]|
2
_
_
2
+ j
por lo que:
1(/) _ :c
2
(/) + j
2
I
_ :c
2
(/) + (3.27)
Resumiendo (3.27) de 1 hasta 1, y al utilizar 1(/) 0 y 1
1
es una constante. Se obtiene:
1
1
1
1
_ j
1

I=1
|c
.
(/)|
2
+ 1j
por lo que (3.20) es acotado.
3.2 Identicacin mediante redes neuronales CMAC 65
3.2.2. Red FCMAC con recurrencia global
La arquitectura de la red neuronal con recurrencia global FCMAC se muestra en la gura
3.4, el trmino .
1
indica un retardo en el tiempo, esta topologa es un modelo modicado
de la red esttica FCMAC. A continuacin se explica su funcionamiento:
( 1) ns k +
1( 1) s k +
) (
i i
f
1

A
N

1
mf
N
mf

1
z

1
u
2
u
n
u
1
L
2
L
3
L
4
L
5
L
1( ) s k
( ) ns k
1( ) s k
( ) ns k
1

A
N

( 1) ns k +
1( 1) s k +
) (
i i
f
1

A
N

1
mf
N
mf

1
z

1
u
2
u
n
u
1
L
2
L
3
L
4
L
5
L
1( ) s k
( ) ns k
1( ) s k
( ) ns k
1

A
N

Figura 3.4: Red recurrente global FCMAC.


1. La capa de entrada est dado por :
v
= [:
v
1
. :
v
2
. .... :
vn
]
T
1
a
. donde cada :
v
i
=
:
i
+ n
i,)
^ (/ 1).
2. La capa dos presenta la funcin de pertenencia gaussiana dada por:
j

i
j
(:
v
i
) = exp
_

(:
v
i
(/) c
i,)
)
2
o
2
i,)
_
donde los parmetros a ser ajustados en esta capa son c
i,)
. o
i,)
.
66 Identicacin mediante redes FCMAC
3. La capa tres est dado por:
c
j
=
a

i=1
`
j
_
j

i
j
(:
v
i
)
_
. j = 1 |. , = 1 : (3.28)
Donde j son las veces de asociacin, | es el nmero de asociacin y ` es el vector de
seleccin de la memoria de asociacin, el cul se dene como:
`
j
_
j

i
j
(:
v
i
)
_
= j

i
j;p
(:
v
i
) = [0. 0 1. 0 ]
_

_
j

i
1
,
.
.
.
j

i
m
_

_
(3.29)
4. La capa cuatro clcula la normalizacin y est dado por:
,
j
=
c
j
|

j=1
c
j
=
_

a
i=1
`
j
_
j

i
j
(:
v
i
)
__
_
|

j=1

a
i=1
`
j
_
j

i
j
(:
v
i
)
_
_ (3.30)
5. En la capa de salida se emplea la inferencia difusa, por lo que la parte consecuente de
las reglas difusas se denen en funcin de las variables de entrada y la seal de control.
Se escribe la estructura de las reglas:
1
)
: si :
1
es j

1
j
y :
a
es j

n
j
entonces ,:
1
(/ + 1) es ,
1
(:) :
1
(/ + 1) es ,
2
(:) n
(3.31)
Por lo que la salida de la red recurrente global FCMAC se expresa en notacin vectorial
como:
,: (/ + 1) = \
T
1
,
1
[:
v
(/)] + \
T
2
,
2
[:
v
(/)] n(/) (3.32)
Algoritmo de aprendizaje de la red recurrente global FCMAC
Se disea un algoritmo de aprendizaje estable para que la salida de la red recurrente
global FCMAC (/) siga la salida (/) de la planta (3.1). El error de identicacin se
3.2 Identicacin mediante redes neuronales CMAC 67
dene como en (3.14). La teora de aproximacin de sistemas difusos y redes neuronales [27],
menciona que el proceso no lineal a ser identicado (3.1) se puede representar como:
,:(/ + 1) = \
+T
1
,
1
[:
v
(/)] + \
+T
2
,
2
[:
v
(/)] n(/) + i (/)
(/) = r (/ + 1)
(3.33)
donde \
+
1
y \
+
2
son los pesos desconocidos que pueden reducir la dinmica no modelada
i (/). El error de identicacin c (/) = (/) (/) puede ser representado por (3.32) y
(3.33), se obtiene la expresin:
c (/) = (/) (/) (3.34)
c (/) = \
T
1
,
1
[:
v
(/)] + \
T
2
,
2
[:
v
(/)] n(/)
\
+T
1
,
1
[:
v
(/)] \
+T
2
,
2
[:
v
(/)] n(/) i (/) (3.35)
c (/) =
_
\
T
1
\
+T
1
_
,
1
[:
v
(/)] +
_
\
T
2
\
+T
2
_
,
2
[:
v
(/)] n(/) i (/)
,c (/ + 1) =
~
\
T
1
,
1
[:
v
(/)] +
~
\
T
2
,
2
[:
v
(/)] n(/) i (/)
donde

\
1
(/) = \
1
(/) \
+
1
.

\
2
(/) = \
2
(/) \
+
2
. Se asume que la planta (3.1) es BIBO
estable. ,
I
. i (/) en (3.33) es acotado. El siguiente teorema es una aportacin del trabajo
de tesis. Se demuestra el algoritmo del gradiente descendente estable para la red recurrente
global FCMAC.
Teorema 3.2 Si la red recurrente FCMAC (3.32) es usado para identicar la planta no
lineal (3.1), y los eigenvalores de se seleccionan como 1 < `() < 0, la siguiente ley de
actualizacin de los pesos hace el error de identicacin c (/) acotado (estable en el sentido
1
o
).
\
1
(/ + 1) = \
1
(/) j (/) ,
1
[:
v
(/)] c
T
(/)
\
2
(/ + 1) = \
2
(/) j (/) ,
2
[:
v
(/)] n(/) c
T
(/)
(3.36)
donde la tasa de aprendizaje se dene como:
j (/) =
_
_
_
j
1 +|,
1
|
2
+|,
2
n|
2
if , |c (/ + 1)| _ |c (/)|
0 if , |c (/ + 1)| < |c (/)|
; 0 < j _ 1 (3.37)
68 Identicacin mediante redes FCMAC
Demostracin. Se selecciona una funcin de Lyapunov:
\ (/) =
_
_
_

\
1
(/)
_
_
_
2
+
_
_
_

\
2
(/)
_
_
_
2
(3.38)
donde
_
_
_

\
1
(/)
_
_
_
2
=

a
i=1
n
1
(/)
2
= t:
_

\
T
1
(/)

\
1
(/)
_
. Del algoritmo de actualizacin
(3.36) se tiene:

\
1
(/ + 1) =

\
1
(/) j (/) ,
1
[:
v
(/)] c
T
(/) (3.39)

\
2
(/ + 1) =

\
2
(/) j (/) ,
2
[:
v
(/)] c
T
(/)
por lo que:
\ (/) = \ (/ + 1) \ (/)
=
_
_
_

\
1
(/) j (/) ,
1
[:
v
(/)] c (/)
T
_
_
_
2

_
_
_

\
1
(/)
_
_
_
2
+
_
_
_

\
2
(/) j (/) ,
2
[:
v
(/)] n(/) c
T
(/)
_
_
_
2

_
_
_

\
2
(/)
_
_
_
2
=
_
_
_

\
1
(/)
_
_
_
2
2j (/)
_
_
_,
1
[:
v
(/)]

\
1
(/) c (/)
T
_
_
_ + j
2
(/)
_
_
_,
1
[:
v
(/)] c (/)
T
_
_
_
2

_
_
_

\
1
(/)
_
_
_
2
+
_
_
_

\
2
(/)
_
_
_
2
2j (/)
_
_
_,
2
[:
v
(/)] n(/)

\
2
(/) c (/)
T
_
_
_ + j
2
(/)
_
_
_,
2
[:
v
(/)] c (/)
T
n(/)
_
_
_
2

_
_
_

\
2
(/)
_
_
_
2
= j
2
(/) |c (/)|
2
|,
1
[:
v
(/)]|
2
2j (/)
_
_
_,
1

\
1
(/) c
T
(/)
_
_
_
+j
2
(/) |c (/)|
2
|,
2
[:
v
(/)] n(/)|
2
2j (/)
_
_
_,
2
[:
v
(/)] n(/)

\
2
(/) c
T
(/)
_
_
_
= j
2
(/) |c (/)|
2
|,
1
[:
v
(/)]|
2
+ j
2
(/) |c (/)|
2
|,
2
[:
v
(/)] n(/)|
2
2j (/)
_
_
_,
1

\
1
(/) c
T
(/)
_
_
_ 2j (/)
_
_
_,
2
[:
v
(/)] n(/)

\
2
(/) c
T
(/)
_
_
_
(3.40)
existe una constante , 0, tal que si |,c (/ + 1)| _ |c (/)| . utilizando (3.34):
,c (/ + 1) c (/) + i (/) =
~
\
T
1
,
1
[:
v
(/)] +
~
\
T
2
,
2
[:
v
(/)] n(/)
3.2 Identicacin mediante redes neuronales CMAC 69
y 0 _ j(/). de los trminos negativos de (3.40) se tiene:
2j (/)
_
_
_

\
T
1
(/) ,
1
c
T
(/)
_
_
_ 2j (/)
_
_
_

\
T
2
(/) ,
2
[:
v
(/)] n(/) c
T
(/)
_
_
_
= 2j (/) c
T
(/)
__
_
_
_

\
T
1
(/) ,
1
__
_
_
_
_
_
_

\
T
2
(/) ,
2
[:
v
(/)] n(/)
__
_
_
_
= 2j (/) c
T
(/) [|,c (/ + 1) c (/) + i (/)|]
_ 2j (/)
_
_
c
T
(/)
_
_
|,c (/ + 1) c (/) i (/)|
= 2j (/)
_
_
c
T
(/) ,c (/ + 1) c
T
(/) c (/) c
T
(/) i (/)
_
_
_ 2j (/)
_
_
c
T
(/) ,c (/ + 1)
_
_
+ 2j (/) c
T
(/) c (/) + 2j (/)
_
_
c
T
(/) i (/)
_
_
(3.41)
de la desigualdad 2 |c/| _ c
2
+ /
2
. se tiene c = c
T
(/) . / = i (/):
_ 2j (/) |c (/)|
2
+ 2j (/) `
max
() |c (/)|
2
+ j (/) |c (/)|
2
+ j (/) |i (/)|
2
_ j (/) |c (/)|
2
+ 2j (/) `
max
() |c (/)|
2
+ j (/) |i (/)|
2
de los trminos positivos de (3.40) y de 0 < j _ 1:
\ (/) _ j
2
(/) |c (/)|
2
|,
1
|
2
+ j
2
(/) |c (/)|
2
|,
2
n(/)|
2
j (/) |c (/)|
2
+ 2j (/) `
max
() |c (/)|
2
+ j (/) |i (/)|
2
= j (/)
_
(1 2`
max
()) j
|,
1
|
2
+|,
2
n(/)|
2
1 +|,
1
|
2
+|,
2
n(/)|
2
_
c
2
(/)
+j (/)
2
i
2
(/) _ :c
2
(/) + ji
2
(/)
(3.42)
donde : =
j
1 +i
_
1 2`
max
()
i
1 +i
_
. i = max
I
_
|,
1
|
2
+|,
2
n(/)|
2
_
. Se observa que
1 < `() < 0. : 0
:mn
_

\
2
i
_
_ \ (/) _ :max
_

\
2
i
_
donde : mn
_

\
2
i
_
y : max
_

\
2
i
_
son funciones de clase /
o
, y :c
2
(/) es una fun-
cin de clase /
o
, ji
2
(/) es una funcion de clase /. \ (/) admite una funcin suave de
Lyapunov-ISS, la dinmica del error de identicacin es entrada-estado estable. La entra-
da corresponde al segundo trmino de la ltima linea en (3.40), i.e., el error de modelado
i (/) . el estado corresponde al primer termino de la ltima linea en (3.40), i.e., el error
70 Identicacin mediante redes FCMAC
de identicacin c (/) . Por que la entrada i (/) es acotada y la dinmica es ISS, el estado
c (/) es acotado.
Si , |c (/ + 1)| < |c (/)| . \ (/) = 0. \ (/) es constante, \
1
(/) es constante. De aqui
|c (/ + 1)| <
1
o
|c (/)| .
1
o
< 1. c (/) es acotado.
Comentario 3.1 La condicin "j (/) = 0 if , |c (/ + 1)| < |c (/)| " es la zona muerta. Si
, se selecciona muy grande, la zona muerta es pequea.
3.2.3. Red FCMAC con recurrencia global-local
Una nueva topologa es la red recurrente FCMAC formada por dos retroalimentaciones;
una retroalimentacin global de la salida con respecto a la entrada y una recurrencia local
presente en cada una de las neuronas que conforman la capa do: de la red, como se observa
en la gura 3.5.
G
G
G
G
( 1) ns k +
1( 1) s k +
) (
i i
f
1

A
N

1
mf
N
mf

1
z
G
G
G
G

1
u
2
u
n
u
1
L
2
L
3
L
4
L
5
L
1( ) s k
( ) ns k
1( ) s k
( ) ns k
1

A
N

1
z

G
1
z

G
i
j

G
G
G
G
( 1) ns k +
1( 1) s k +
) (
i i
f
1

A
N

1
mf
N
mf

1
z
G
G
G
G

1
u
2
u
n
u
1
L
2
L
3
L
4
L
5
L
1( ) s k
( ) ns k
1( ) s k
( ) ns k
1

A
N

1
z

G
1
z

G
i
j

Figura 3.5: Recurrencia Global mas local FCMAC.


3.2 Identicacin mediante redes neuronales CMAC 71
La salida en la capa dos de la red recurrente global-local CMAC difusa, est dada por la
siguiente expresin:
:,
i
(/) = ,:
i
(/ + 1) + j

i
j
(/ 1) o
i,)
(3.43)
donde o
i,)
son los pesos de la neurona con recurrencia y ,:
i
(/ + 1) es la salida de la red
recurrente FCMAC. La salida de la red puede ser expresada como:
,: (/ + 1) =
|

i=1
n
1,i
,
1,i
[:,
i
(/)] +
|

i=1
n
2,i
,
2,i
[:,
i
(/)] n(/) (3.44)
o ,: (/ + 1) = \
T
1
,
1
[:, (/)] + \
T
2
,
2
[:, (/)] n(/)
\
)
(, = 1. 2) denota los pesos entrenables de la red, ,
)
(r) es la funcin denida como:
,
j
=

a
i=1
`
j
_
:,
i
)
_
|

j=1

a
i=1
`
j
_
:,
i
)
_
(3.45)
donde |(j = 1. .... |) es el nmero de asociacin. La funcin ,
j
de la retroalimentacin
global FCMAC (3.43) es conocida, solo los pesos necesitan ser actualizados para la identi-
cacin de sistemas. Se disea un algoritmo de aprendizaje estable, tal que la salida : (/) de la
red neuronal recurrente CMAC difusa (3.44) pueda aproximar la salida (/) de una planta
no lineal (3.1). Se dene el vector del error de identicacin c (/) como c (/) = : (/) (/) .
De acuerdo a la teora de aproximacin de funciones de lgica difusa y redes neuronales [27],
el proceso no lineal a ser identicado (3.1) se puede representar como:
,:(/ + 1) = : (/) + \
+T
1
,
1
[: (/)] + \
+T
2
,
2
[: (/)] n(/) + i (/) (3.46)
donde \
+
1
y \
+
2
son los pesos desconocidos, los cules pueden minimizar la dinmica no
modelada i (/). El error de identicacin se puede representar por (3.73) y (3.46),
,c
j
(/ + 1) = c
j
(/) +

\
1
(/) ,
1
[: (/)] +

\
T
2
,
2
[: (/)] n(/) i (/) (3.47)
72 Identicacin mediante redes FCMAC
donde

\
1
(/) = \
1
(/) \
+
1
.

\
2
(/) = \
2
(/) \
+
2
. En este trabajo solo se aborda el
problema de la identicacin en lazo abierto, se asume que la planta (3.1) presenta entradas
acotadas, salidas acotadas, es (BIBO) estable, i.e., (/) y n(/) en (3.1) son acotados. Por
las cotas de las funciones ,
j
. i (/) en (3.46) es acotado. El siguiente teorema desarrollado
en el trabajo de tesis muestra el algoritmo del gradiente descendente estable.
Teorema 3.3 Si la red neuronal con recurrencia global CMAC difusa (3.44) es utilizada
para identicar una planta no lineal (3.1) y los eigenvalores de se selecionan como 1 <
`() < 0. La siguiente ley de adaptacin del gradiente, puede hacer el error de identicacin
c (/) acotado (estable en un sentido 1
o
).
\
1
(/ + 1) = \
1
(/) j (/) ,
1
[r (/)] c
T
(/)
\
2
(/ + 1) = \
2
(/) j (/) ,
2
[r (/)] n(/) c
T
(/)
(3.48)
donde j (/) satisface
j (/) =
_
_
_
j
1 +|,
1
|
2
+|,
2
n|
2
si , |c (/ + 1)| _ |c (/)|
0 si , |c (/ + 1)| < |c (/)|
0 < j _ 1.
Demostracin. Se seleciona una funcin de Lyapunov como:
\ (/) =
_
_
_

\
1
(/)
_
_
_
2
+
_
_
_

\
2
(/)
_
_
_
2
donde
_
_
_

\
1
(/)
_
_
_
2
=

a
i=1
n
1
(/)
2
= t:
_

\
T
1
(/)

\
1
(/)
_
. De la ley de actualizacin (3.48)

\
1
(/ + 1) =

\
1
(/) j (/) ,
1
[r (/)] c
T
(/)
Por lo que:
\ (/) = \ (/ + 1) \ (/)
=
_
_
_

\
1
(/) j (/) ,
1
c (/)
T
_
_
_
2

_
_
_

\
1
(/)
_
_
_
2
+
_
_
_

\
2
(/) j (/) ,
2
n(/) c
T
(/)
_
_
_
2

_
_
_

\
2
(/)
_
_
_
2
= j
2
(/) |c (/)|
2
|,
1
|
2
2j (/)
_
_
_,
1

\
1
(/) c
T
(/)
_
_
_
+j
2
(/) |c (/)|
2
|,
2
n(/)|
2
2j (/)
_
_
_,
2
n(/)

\
2
(/) c
T
(/)
_
_
_
(3.49)
3.2 Identicacin mediante redes neuronales CMAC 73
Existe una constante , 0. tal que:
Si |,c (/ + 1)| _ |c (/)| . utilizando (3.47) y j(/) _ 0.
2j (/)
_
_
_,
1

\
1
(/) c
T
(/)
_
_
_ 2j (/)
_
_
_,
2
n(/)

\
2
(/) c
T
(/)
_
_
_
_ 2j (/)
_
_
c
T
(/)
_
_
|,c (/ + 1) c (/) i (/)|
= 2j (/)
_
_
_
_
_
c
T
(/) ,c (/ + 1)
c
T
(/) c (/) c
T
(/) i (/)
_
_
_
_
_
_ 2j (/)
_
_
c
T
(/) ,c (/ + 1)
_
_
+ 2j (/) c
T
(/) c (/) + 2j (/)
_
_
c
T
(/) i (/)
_
_
_ 2j (/) |c (/)|
2
+ 2j (/) `
max
() |c (/)|
2
+ j (/) |c (/)|
2
+ j (/) |i (/)|
2
(3.50)
De aqu 0 < j _ 1
\ (/) _ j
2
(/) |c (/)|
2
|,
1
|
2
+ j
2
(/) |c (/)|
2
|,
2
n(/)|
2
j (/) |c (/)|
2
+ 2j (/) `
max
() |c (/)|
2
+ j (/) |i (/)|
2
= j (/)
_

_
(1 2`
max
())
j
|,
1
|
2
+|,
2
n(/)|
2
1 +|,
1
|
2
+|,
2
n(/)|
2
_

_
c
2
(/) + j
2
(/) i
2
(/) _ :c
2
(/) + ji
2
(/)
(3.51)
donde : =
j
1 +i
_
1 2`
max
()
i
1 +i
_
. i = max
I
_
|,
1
|
2
+|,
2
n(/)|
2
_
. De aqu 1 <
`() < 0. : 0
:mn
_
n
2
i
_
_ \ (/) _ :max
_
n
2
i
_
donde :mn ( n
2
i
) y :max ( n
2
i
) son funciones de clase /
o
, y :c
2
(/) es una funcin clase
/
o
, ji
2
(/) es una funcin clase /, tal que \ (/) admite una funcin suave de Lyapunov,
La dinmica del error de identicacin es entrada-estado estable. La entrada corresponde al
segundo trmino de la ltima linea en (3.51), i.e., el error de modelado i (/) . Los estados
corresponden al primer trmino en la ltima linea de (3.51), i.e., el error de identicacin
c (/) . Por que la entrada i (/) es acotado y la dinmica es ISS, el estado c (/) es acotado.
Si , |c (/ + 1)| < |c (/)| . \ (/) = 0. \ (/) es constante, \
1
(/) es constante. De aqu
|c (/ + 1)| <
1
o
|c (/)| .
1
o
< 1. c (/) es acotado.
Comentario 3.2 La condicin "j (/) = 0 si , |c (/ + 1)| < |c (/)| " es la zona muerta. Si
, es seleccionada con un valor muy grande, la zona muerta ser muy pequea.
74 Identicacin mediante redes FCMAC
3.3. Redes jerrquicas FCMAC
3.3.1. Representacin de una funcin con estructura jerrquica
Se introduce primero el concepto de la estructura jerrquica natural para funciones contin-
uas. Un sistema con una estructura jerrquica de dos niveles se muestra en la gura 3.6, para
este sistema la representacin matemtica general est dado por: = G(:
1
. :
2
. :
3
. :
4
. :
5
) .
Sin embargo la estructura jerrquica de la gura 3.6, puede tambin ser representado por:
= q
1
(
1
.
2
. :
5
) .
1
= q
21
(:
1
. :
2
) .
2
= q
22
(:
3
. :
4
) (3.52)
de otra manera
G(:
1
. :
2
. :
3
. :
4
. :
5
) = q
1
[q
21
(:
1
. :
2
) . q
22
(:
3
. :
4
) . :
5
] (3.53)
Entonces para una funcin dada = G(:
1
. :
2
. :
3
. :
4
. :
5
) . existen funciones q
1
. q
21
. q
22
tales
que G(:
1
. :
2
. :
3
. :
4
. :
5
) = q
1
[q
21
(:
1
. :
2
) . q
22
(:
3
. :
4
) . :
5
] . esta funcin puede ser representada
por una estructura jerrquica como se muestra en la gura (3.6), en esta representacin
1
.
2
ya no poseen un signicado fsico, en algunos casos pueden ser considerados como variables
de estado.
1
s
2
s
3
s
4
s
g
21
g
22
g
1
1
y
2
y
y
5
s
Nivel 1 Nivel 2 G
1
s
2
s
3
s
4
s
g
21
g
22
g
1
1
y
2
y
y
5
s
Nivel 1 Nivel 2 G
Figura 3.6: Estructura jerrquica con 2 niveles.
3.3 Redes jerrquicas FCMAC 75
Para el caso mencionado anteriormente cualquier estructura fsica permite a un sistema
dado ser representado como una estructura jerrquica la estructura matemtica de una
funcin puede ser descompuesta como una estructura jerrquica, se puede decir que la funcin
presenta una estructura jerrquica natural [29].
3.3.2. Construccin de la red jerrquica FCMAC
En los esquemas de aproximacin neuro-difuso estndar, el nmero de reglas difusas crece
exponencialmente con el nmero de variables de entrada, especcamente un sistema de
lgica difusa con una sola salida , con : variables de entrada y : funciones de pertenencia,
denidas para cada variable de entrada requiere :
a
nmero de reglas difusas [12], esto
es, si se tiene 4 variables de entrada con sus respectivas funciones de pertenencia, en este
caso 5, entonces necesita 5
4
= 625 nmero de reglas difusas, el nmero de reglas crece
exponencialmente. En general los sistemas neuro-difusos estndar presentan el problema de
la dimensionalidad, el cul puede ser vista desde diferentes perspectivas:
La primera se reere a la dimensionalidad de las reglas: El nmero total de reglas
difusas se incrementa exponencialmente con el nmero de variables de entrada.
La segunda es la dimensionalidad de los parmetros: El nmero total de parmetros
en las frmulas matemticas de los sistemas difusos se incrementa exponencialmente
con el nmero de variables de entrada.
La tercera es la dimensionalidad de los datos informacin: El nmero de datos
conjunto de conocimientos requeridos para la identicacin de sistemas difusos se in-
crementa exponencialmente con el nmero de las variables de entrada [23].
Para reducir el nmero de reglas involucradas surge la idea de sistemas con estructura
jerrquica HFS (Hierarchical Fuzzy Systems), el cul fue desarrollado principalmente para
sistema difusos como se muestra en la gura 3.8. Se pueden observar las diferencias entre
las guras 3.7 y 3.8. La HFS reduce signicativamente el nmero total de reglas difusas in-
volucradas. En los sistemas difusos jerrquicos, las salidas de cada unidad FLU (Fuzzy Logic
76 Identicacin mediante redes FCMAC
FLUs
( ) y s
1
s
2
s
3
s
4
s
FLUs
( ) y s
1
s
2
s
3
s
4
s
Figura 3.7: Sistema difuso convencional con una sola capa.
Unit) en la capa previa son usados como variables lingisticas de entrada a la siguiente capa.
Las salidas intermedias, sin embargo son de naturaleza articial y en muchos casos no poseen
signicado fsico. Si se utilizan como las variables de la entrada de la capa siguiente, entonces
las reglas difusas involucradas en la mitad de la estructura jerrquica tienen poco signica-
do fsico y consecuentemente son difciles de disear. Este fenmeno llega a ser importante
cuando el nmero de capas crece signicativamente [27].
Se considera un sistema jerrquico FCMAC (HFCMAC), como se muestra en la gura
3.8, donde la salida de cada bloque 1C`C
i
en el nivel do:, est dado por:
^
i
= \
T
i
,
)
i
_
:
)
i
_
(3.54)
donde el subndice i indica el nmero de salida de las redes FCMAC de dimension dos
ubicados en el segundo nivel. El superndice , indica el nmero de nivel en el que se encuentra
cada bloque, todos los bloques de redes FCMAC presentan do: entradas. La salida de la red
FCMAC en el nivel n:o est dado por:
^ = \
T
i
,
)
i
_

)
i
_
(3.55)
Considere el siguiente sistema no lineal en tiempo discreto a ser identicado
(/) = /[r (/)]
= /[ (/ 1) . (/ 2) . n(/ 1) . n(/ 2) . ]
(3.56)
3.3 Redes jerrquicas FCMAC 77
FCMAC
1
FCMAC
2
FCMAC
3
1y
( ) y s
Capa
oculta
Capa de
salida
1N
3N
2y
2N
FCMAC
1
FCMAC
2
FCMAC
3
1y
2y
( ) y s
1s
2s
3s
4s
1s
2s
3s
4s
Capa de
entrada
Capa de
salida
1N 2N
Capa de
entrada
Figura 3.8: Sistema difuso con estructura jerrquica.
donde
r (/) = [ (/ 1) . (/ 2) . n(/) . n(/ 1) . ]
T
(3.57)
Una red FCMAC puede ser representado como (3.55), el cul fue explicado a detalle en
la seccin anterior. Para la red FCMAC el espacio de memoria se incrementa exponencial-
mente al aumentar el nmero de variables de entrada, este es un problema serio al utilizar
redes FCMAC convencionales, el tamao de la memoria se dispara exponencialmente. Un
mtodo alternativo para minimizar esta dicultad es utilizar redes HFCMAC, la cul tiene
la caracterstica que el espacio de memoria se incrementa linealmente al aumentar el nmero
de variables de entrada.
78 Identicacin mediante redes FCMAC
FCMAC
1
FCMAC
2
FCMAC
3
1
y
2
y
( ) y s
1
s
2
s
3
s
4
s
Nivel
2 1
FCMAC
1
FCMAC
2
FCMAC
3
1
y
2
y
( ) y s
1
s
2
s
3
s
4
s
Nivel
2 1
Figura 3.9: Sistema Jerrquico FCMAC.
Se utiliza el siguiente ejemplo para explicar como se aplica la tcnica de retropropagacin
del error para redes HFCMAC. La salida de cada bloque en la red HFCMAC est dado por:
^
v
=
|

I=1
\
v,j
,
v,I
. : = 1. 2. 3 (3.58)
Las salidas de cada bloque de la red HFCMAC en la capa previa es usada como vari-
ables de entrada (variables intermedias) a la siguiente capa. Las salidas intermedias son de
naturaleza articial y en la mayora de los casos no posee signicado fsico, lo cul involucra
reglas difusas intermedias en la estructura jerrquica con poco signicado fsico y conse-
cuentemente difciles de disear, este fenmeno llega a ser importante cuando el nmero de
niveles jerrquicos crece, esto es una de las principales desventajas de esta representacin.
A continuacin se explica el entrenamiento de cada bloque de la red, se dene el ndice
de desempeo como:
J =
1
2
c
2
3
. c
3
= ^
3
(3.59)
De la gura 3.9, el algoritmo de aprendizaje para el bloque 1C`C
3
es:
\
3,I
(/ + 1) = \
3,I
(/) j,
3,I
(/) c
3
(/) (3.60)
3.3 Redes jerrquicas FCMAC 79
Donde j 0 es la tasa de aprendizaje, para el subsistema 1C`C
2
se requiere actualizar
n
2,I
(/) se puede calcular:
JJ
J\
2,I
=
JJ
J^
3
J^
3
J^
2
J^
2
J\
2,I
(3.61)
De la gura 3.9, se conoce
0^ j
3
0^ j
2
que corresponde a :
3,2
(/) . tal que:
JJ
J^
3
= ^
3
= c
3
(/)
J^
3
J^
2
=
J^
3
J.
3,I
J.
3,I
J^
2
=
_
c
3
/
2
3

\
3,I
/
3
_
.
3,I
_
2
^
2
c
i
3,2
_
o
i
3,2
_
_
J^
2
J\
2,I
= ,
2,I
=
.
3,I
/
2
Donde .
3,I
=
a

i=1
`
I
_
j

i
j
_
. c
3
=
|

I=1
n
3,I
.
3,I
. /
3
=
|

I=1
.
3,I
. el algoritmo de apren-
dizaje del gradiente para n
2,j
es:
\
2,I
(/ + 1) = \
2,I
(/) j,
2,I
(/)
.
2,I
/
2
2
^
3
n
3,I
(/
3
)
.
3,I
^
2
c
i
3,2
_
o
i
3,2
_ c
3
(/)
= \
2,I
(/) j,
2,I
(/) c
2
(/)
donde:
c
2
(/) = 2
^
3
n
3,I
(/
3
)
.
3,I
^
2
c
i
3,2
_
o
i
3,2
_
2
c
3
(/) =
J^
3
J^
2
c
3
(/)
de manera similar se obtiene para
c
1
(/) =
J^
3
J^
1
c
3
(/) .
J^
3
J^
1
= 2
^
3
n
i
3
/
3
.
3,I

2
c
i
3,1
_
o
i
3,1
_
2
\
1,I
(/ + 1) = \
1,I
(/) j,
1,I
(/) c
1
(/)
Para el caso general el entrenamiento es como sigue:
80 Identicacin mediante redes FCMAC
De acuerdo a la estructura de la red neuronal HFCMAC, se calcula la salida de cada
sub-bloque de la red dado por (3.54). Se calcula el error para cada bloque, se inicia con el
ltimo bloque, el error de identicacin es:
c
c
(/) = ^
c
(/) (/) (3.62)
Donde c
c
(/) es el error de identicacin, ^
c
(/) es la salida del ltimo bloque de la red
jerrquica FCMAC, (/) es la salida de la planta, se retropropaga el error y se calcula el
error para el bloque j, (denido como c
j
) para formar el bloque (denido como c
q
). Se
emplea la regla de la cadena:
c
j
(/) = 2
^
q
n
i
q
/
q
.
q,I
^
j
c
i
q,j
_
o
i
q,j
_
2
c
q
(/) (3.63)
El entrenamiento de la funcin gaussiana (funciones de membresia en la premisa y en
la parte consecuente), para cada bloque independientemente, para el j c:i:o bloque el
algoritmo de retropropagacin es:
\
j,I
(/ + 1) = \
j,I
(/) j,
j,I
(/) c
j
(/) (3.64)
Algoritmo de aprendizaje estable
Se asume que la funcin ,
v,I
de la red HFCMAC para cada bloque es conocida, solo se
necesitan actualizar los pesos para identicar el sistema, se disea el algoritmo de aprendizaje
estable tal que la salida ^ (/) de la red CMAC difusa, pueda seguir la salida de la planta no
lineal (/) . se dene el vector de error de identicacin c (/) como:
c (/) = ^ (/) (/) (3.65)
De la ec. 3.63 la seal c (/) puede ser propagada para cada sub-bloque, llamado c
j
(/) .
existe una salida virtual de la planta
j
(/) la cul corresponde a la salida del sub bloque
^
j
(/) . as que:
3.3 Redes jerrquicas FCMAC 81
c
j
(/) = ^
j
(/)
j
(/)
para el j c:i:o bloque, se asume que la planta no lineal puede ser expresado por
alguna funcin. De acuerdo a las teoras de aproximacin de lgica difusa y redes neuronales,
el proceso no lineal a identicar puede ser representado como:

j
(/) = \
+
(/) ,[: (/)] (/) (3.66)
Donde \
+
(/) son los pesos desconocidos los cules minimizan las dinmicas no mode-
ladas (t) . El error de identicacin puede ser representado por (3.65) y (3.66):
c
j
(/) =
~
\ (/) ,[: (/)] + (/) (3.67)
Donde
~
\ (/) = \ (/) \
+
(/) . Para la identicacin de la planta se realizar en lazo
abierto, se asume que la planta (3.56) presenta las entradas y salidas acotadas estables (BI-
BO), i.c., (/) y n(/) en (3.56) son acotados. Las funcines ,. (/) en (3.66) son acotadas,
el siguiente teorema desarrollado en el trabajo de tesis establece el algoritmo de aprendizaje
del gradiente descendente estable para el modelado con sistemas neuro-difusos.
Teorema 3.4 Si se utiliza una red neuronal jerrquica CMAC difusa para identicar una
planta no lineal (3.56), el algoritmo del gradiente descendente (3.64) con una tasa de apren-
dizaje con tiempo variable se presenta a continuacin y puede hacer el error de identicacin
c (/) acotado.
\ (/ + 1) = \ (/) j (/) c
j
(/) ,
T
[: (/)] (3.68)
donde el escalar j (/) =
j
1+|,[c(I)]|
2
. 0 _ j _ 1. El error de identicacin normalizado
est dado por
c
.
(/) =
c (/)
1 + max
I
|,[: (/)]|
2
satisface el siguiente comportamiento promedio
82 Identicacin mediante redes FCMAC
lm
To
sup
1
1
T

I=1
|c
.
(/)|
2
_ (3.69)
donde = max
I
| (/)|
2
Demostracin. Se selecciona un escalar denido positivo 1(/) como:
1(/) =
_
_
_
~
\ (/)
_
_
_
2
por la actualizacin de los pesos (3.68) se tiene:
~
\ (/ + 1) =
~
\ (/) j (/) c (/) ,
T
[: (/)]
utilizando la desigualdad:
|c /| _ |c| |/| . 2 |c/| _ c
2
+ /
2
para cualquier c. /. Al utilizar (3.67) y 0 _ j (/) _ j _ 1. se tiene:
1(/) = 1(/ + 1) 1(/) =
_
_
_
~
\ (/) j (/) c (/) ,
T
[:]
_
_
_
2

_
_
_
~
\ (/)
_
_
_
2
(3.70)
=
_
_
_
~
\ (/)
_
_
_
2
2j (/)
_
_
_c (/) ,
T
(:)
~
\ (/)
_
_
_ + j
2
(/) |c (/) ,[: (/)]|
2

_
_
_
~
\ (/)
_
_
_
2
= j
2
(/) |c (/)|
2
|,[: (/)]|
2
2j (/) |c (/) [c (/) (/)]|
_ j
2
(/) |c (/)|
2
|,[: (/)]|
2
2j (/) |c (/)|
2
+ 2j (/) |c (/) (/)|
_ j
2
(/) |c (/)|
2
|,[: (/)]|
2
2j (/) |c (/)|
2
+ j (/) |c (/)|
2
+ j (/) | (/)|
2
= j (/) |c (/)|
2
_
1 j
I
_
_
,
T
[:]
_
_
2
_
+ j (/) | (/)|
2
de aqui j (/) =
j
1+|,[c(I)]|
2
. j (/)
_
1 j (/) |,[: (/)]|
2
_
= j (/)
_
1
j
1+|,[c(I)]|
2
|,[: (/)]|
2
_
_ j (/)
_
1 j
max
k
(|,[c(I)]|
2
)
1+max
k
(|,[c(I)]|
2
)
_
_ j (/)
_
1
max
k
(|,[c(I)]|
2
)
1+max
k
(|,[c(I)]|
2
)
_
=
j(I)
1+max
k
(|,[c(I)]|
2
)
_
j

1+max
k
(|,[c(I)]|
2
)

2
as
1(/) _ : |c (/)|
2
+ j | (/)|
2
(3.71)
3.3 Redes jerrquicas FCMAC 83
donde : est denido como : =
j

1+max
k
(|,[c(I)]|
2
)

2
. porque :mn ( ~ n
2
i
) _ 1(/) _ :max ( ~ n
2
i
)
Donde :mn ( ~ n
2
i
) y :max ( ~ n
2
i
) son funciones i
o
y : |c (/)|
2
es una funcin i
o
. j | (/)|
2
es una funcin i. As que 1(/) admite una funcin ISS-lyapunov como en la denicin 2.
Por el teorema 1, la dinmica del error de identicacin es estable para entradas estables.
Se conoce 1(/) como funcin de c (/) y (/) . La entrada corresponde al segundo trmino
de (3.71), es decir, al error de modelado (/) . Los estados corresponden al primer trmino
de (3.70), es decir, el error de identicacin c (/) . Porque las entradas (/) son acotadas y
la dinmica es ISS, los estados c (/) son acotados. (3.70) puede ser reescrito como
1(/) = j
|c (/)|
2
_
1 + max
I
_
|,[: (/)]|
2
_
_
2
+ j | (/)|
2
_ j
|c (/)|
2
_
1 + max
I
_
|,[: (/)]|
2
_
_
2
+ j
As
1(/) _ :c
2
I
+ j
2
I
_ :c
2
I
+ (3.72)
Sumando (3.72) de 1 hasta 1, y utilizando 1
I
0 y 1
1
es una constante, se obtiene
1
T
1
1
_ j
T

I=1
|c
.
(/)|
2
+ 1j
j
T

I=1
|c
.
(/)|
2
_ 1
1
1
T
+ 1j j _ 1
1
+ 1j
por lo que (3.69) es estable.
3.3.3. Redes jerrquicas recurrentes FCMAC
Para la identicacin de sistemas no lineales mediante redes jerrquicas recurrenntes,
solo se empleo la recurrencia global. La salida de una red recurrente CMAC difusa puede ser
expresada en notacin vectorial como:
84 Identicacin mediante redes FCMAC
,^ r (/ + 1) =
|

i=1
n
1,i
,
1,i
[: (/)] +
|

i=1
n
2,i
,
2,i
[: (/)] n(/)
o ,^ r (/ + 1) = \
T
1
,
1
[: (/)] + \
T
2
,
2
[: (/)] n(/)
(/) = ^ r (/ + 1)
(3.73)
Donde n
I
desempea el papel en la conectividad de los pesos de la red, \
)
(, = 1. 2) son
los valores de los pesos ajustables en forma matricial, ,
)
(:) es la funcin base denida como
,
j
=

a
i=1
`
j
_
j

i
j
,
_
,
|

j=1

a
i=1
`
j
_
j

i
j
,
_
. Se realiza | (j = 1 |) veces la asociacin del
vector de entrada ^ r = [^ r
1
. . ^ r
a
] +
a
a una salida lingistica . Cada variable de entrada
:
i
(i = 1 . . . :) presenta : quantizaciones, el espacio de memoria requerido es de | :
a
. La
cantidad de memoria se incrementa exponencialmente al aumentar el nmero de variables de
entrada, el cul representa un serio problema en aplicaciones de redes CMAC difusas donde
existe el problema de usar enormes cantidades de memoria y es indispensable optimizar su
uso. Un mtodo para superar esta dicultad es utilizar una estructura jerrquica con una
red recurrente CMAC difusa, este tipo de sistema presenta una propiedad interesante, ya
que el nmero de memoria requerido para construir el sistema jerrquico se incrementa slo
linealmente con el nmero de variables de entrada. Por ejemplo cada sub-bloque tiene dos
entradas, el espacio de memoria es | :
2
/. donde / es el nmero del sub-bloque, una red
jerrquica recurrente CMAC difusa (HRFCMAC) con tres bloques (RFCMAC
1
, RFCMAC
2
,
RFCMAC
3
), se presenta en la gura Fig.3.10, donde n
3,1
= ^
1
. n
3,2
= ^
2
. Para RFCMAC
3
se tiene:
,^ r
3
(/ + 1) =
|

i=1
n
3,1,i
,
3,1,i
[^ r
3
(/)]
+
|

i=1
n
3,2,i
,
3,2,i
[^ r
3
(/)] n
3,i
(/)
3.3 Redes jerrquicas FCMAC 85
RFCMAC
1
3
e
1 , 3
u
2 , 3
u
n
u
, 3
1 , 1
u
n
u
, 1
1 , 2
u
n
u
, 2
3
y
1
e
2
e
( ) 1
1 1
+ = k x y
RFCMAC
2
RFCMAC
3
( ) 1
2 2
+ = k x y
plant
y
+
-
RFCMAC
1
3
e
1 , 3
u
2 , 3
u
n
u
, 3
1 , 1
u
n
u
, 1
1 , 2
u
n
u
, 2
3
y
1
e
2
e
( ) 1
1 1
+ = k x y
RFCMAC
2
RFCMAC
3
( ) 1
2 2
+ = k x y
plant
y
+
-
Figura 3.10: Red jerrquica recurrente FCMAC.
Identicacin de sistemas via HRFCMAC
Se realiza el siguiente ejemplo para explicar como utilizar la tcnica de retro-propagacin
(backpropagation) para las redes neuronales jerrquicas recurrentes CMAC difusas. La salida
de cada bloque jerrquico de la CMAC difusa est dado por:
r
v
(/ + 1) = ^
v
=
|

i=1
n
v,1,i
,
v,1,i
[r
v
(/)] +
|

i=1
n
v,2,i
,
v,2,i
[r
v
(/)] n(/) ; : = 1. 2. 3 (3.74)
La salida de cada bloque jerrquico es utilizado en el siguiente nivel jerrquico como variables
lingisticas de entrada. Sin embargo, las salidas de los bloques en las capas intermedias de
una estructura jerrquica en la mayora de los casos, es de naturaleza articial, es decir, no
posee ningn sentido fsico. Si estas salidas intermedias son usadas como variables de entrada
a la siguiente capa, entonces la reglas difusas involucradas en los bloques intermedios de la
estructura jerrquica no poseen signicado fsico por lo que resultan ms difciles de disear.
El ndice de rendimiento se dene como: J =
1
2
c
2
3
. c
3
=
3
. Para RFCMAC
3
, El algoritmo
de aprendizaje es:
n
3,1,i
(/ + 1) = n
3,1,i
(/) j,
3,1,i
(/) c
3
(/)
n
3,2,i
(/ + 1) = n
3,2,i
(/) j,
3,2,i
(/) c
3
(/) n(/)
(3.75)
Donde j 0 es la taza de aprendizaje. Para el subsistema RFCMAC
2
, si se desea actualizar
n
2
2,i
. Se calcula
0J
0&
3;2;i
=
0J
0b j
3
0b j
3
0b j
2
0b j
2
0&
2;2;i
. De la gura 3.10 se conoce
0b j
3
0b j
2
que corresponde a
86 Identicacin mediante redes FCMAC
r
2,1,2
(/) . as que:
0J
0b j
3
=
3
= c
3
(/)
0b j
3
0b j
2
=
0b j
3
0:
3;1;i
0:
3;1;i
0b j
2
=
_
o
3
b
2
3

&
3;1;i
b
3
_
.
3,I
_
2
b j
2
c
i
3;2
(o
i
3;2
)
2
_
0b j
2
0&
2;1;i
= ,
2,1,i
=
:
2;1;i
b
2
(3.76)
Donde .
3,1,i
= c
I
=

a
|=1
`
i
_
j

l
j
_
. c
3,1
=
|

I=1
n
3,1,i
.
3,1,i
. /
3
=
|

I=1
.
3,1,i
. El mtodo de
aprendizaje del gradiente para n
2,1,i
es
n
2,1,i
(/ + 1) = n
2,1,i
(/)
j,
2,1,i
(/)
:
2;1;i
b
2
2
b j
3
&
3;1;i
b
3
.
3,1,i
b j
2
c
i
3;2
(o
i
3;2
)
2
c
3
(/)
= n
2,1,i
(/) j,
2,1,i
(/) c
2
(/)
(3.77)
Donde
c
2
(/) = 2
b j
3
&
3;1;i
b
3
.
3,1,i
b j
2
c
i
3;2
(o
i
3;2
)
2
c
3
(/)
=
0b j
3
0b j
2
c
3
(/)
Por lo que (3.77) presenta la misma forma como (3.75). De manera similar se puede obtener
con
c
1
(/) =
0b j
3
0b j
1
c
3
(/) .
0b j
3
0b j
1
= 2
b j
3
&
3;1;i
b
3
.
3,1,i
j
2
c
i
3;1
(o
i
3;1
)
2
n
1,1,i
(/ + 1) = n
1,1,i
(/) j,
1,1,i
(/) c
1
(/)
Para el caso general, como se muestra en la Fig. 3.11. El procedimiento de entrenamiento se
explica a continuacin:
1) De acuerdo a la estructura de la red HRFCMAC, se calcula la salida de cada bloque
de la red neuronal RFCMAC mediante (3.73). Algunas de las salidas de los bloques de la
red neuronal jerrquica recurrente CMAC difusa pueden ser las entradas a los bloques del
siguiente nivel.
2) Se calcula el error para cada bloque. Se inicia con el ltimo bloque, el error de identi-
cacin es c
c
(t) =
c
(t) (t) . donde c
c
(/) es el error de identicacin,
c
(/) es la salida del
3.3 Redes jerrquicas FCMAC 87
p
y
1 , p
x
p
n p
x
,
p
q
y
k q
x
,
q
1 , q
x
q
n q
x
,
q
y
p
e
q
e
Figura 3.11: Red HRFCMAC.
sistema jerrquico recurrente CMAC difuso, (/) es la salida de la planta. Entonces se utiliza
la retro-propagacin para minimizar el error en cada bloque de la estructura jerrquica de
la red CMAC, ver la gura 3.11. Se calcula el error para el bloque j (denido como c
j
), de
la misma forma hasta el bloque (denido como c
q
). Por la regla de la cadena discutida
anteriormente:
c
j
(/) = 2

q
n
i,q
/
q
.
q,I

j
c
i,q,j
_
o
i
q,j
_
2
c
q
(/) (3.78)
3) Entrenamiento de la funcin Gaussiana (funcin de membresia en la premisa y en la parte
consecuente) para cada bloque independientemente, para el j c:i:o bloque el algoritmo
de retro-propagacin (backpropagation) esta dado por:
n
j,I
(/ + 1) = n
j,I
(/) j,
j,I
(t) c
j
(/) (3.79)
Aprendizaje estable para cada bloque
Se asume que la funcin base ,
v,I
de la red CMAC para cada bloque es conocido, so-
lamente los pesos necesitan ser actualizados para la identicacin de sistemas. Se disea
un algoritmo de aprendizaje estable tal que la salida (/) de la red FCMAC (3.73) pueda
identicar la salida (/) de la planta no lineal (3.1). Se dene el error de identicacin c (/)
como:
88 Identicacin mediante redes FCMAC
c (/) = (/) (/) (3.80)
Por (3.78), c (/) puede ser propagado para cada sub-bloque c
j
(/). Se dene una salida
virtual de la planta como
j
(/), el cul corresponde a la salida del sub-bloque
j
(/), tal que
c
j
(/) =
j
(/)
j
(/) . expresa el error para el j c:i:o bloque de la planta no lineal. De
acuerdo a la teora de aproximacin de lgica difusa y redes neuronales [27], el proceso no
lineal a ser identicado (3.4), puede ser representado como:
,^ r(/ + 1) = ^ r (/) + \
+T
1
,
1
[^ r (/)]
+\
+T
2
,
2
[^ r (/)] l (/) + i (/)
(/) = ^ r (/ + 1)
(3.81)
Donde \
+
1
y \
+
2
son los pesos desconocidos los cules pueden minimizar las dinmicas
no modeladas i (/). El error de identicacin puede ser representado por (3.73) y (3.81),
,c
j
(/ + 1) = c
j
(/) +

\
1
(/) ,
1
[^ r (/)]
+

\
T
2
,
2
[^ r (/)] n(/) i (/)
(3.82)
Donde

\
1
(/) = \
1
(/)\
+
1
.

\
2
(/) = \
2
(/)\
+
2
. En este trabajo solo estamos interesados
en la identicacin en lazo abierto, Se asume que la planta (3.1) presenta entradas acotadas -
salidas acotadas (BIBO estable), i.e., n(/) y (/) son acotadas. Por los lmites de la funcin
base ,. i (/) en (3.81) es acotado. El siguiente teorema presenta el algoritmo estable del
gradiente descendente para modelado neuro-difuso, el cul es una aportacin del trabajo de
tesis.
Teorema 3.5 Si la red neuronal recurrente CMAC difusa (3.73) es usado para identicar
una planta no lineal (3.1) y los eigenvalores de se seleccionan como 1 < `() < 0, La
siguiente ley de actualizacin del gradiente sin modicacin robusta puede hacer el error de
identicacin c (/) acotado (estable en el sentido 1
o
).
\
1
(/ + 1) = \
1
(/) j (/) ,
1
[r (/)] c
T
(/)
\
2
(/ + 1) = \
2
(/) j (/) ,
2
[r (/)] n(/) c
T
(/)
(3.83)
3.3 Redes jerrquicas FCMAC 89
Donde j (/) satisface
j (/) =
_
_
_
j
1 +|,
1
|
2
+|,
2
n|
2
si , |c (/ + 1)| _ |c (/)|
0 si , |c (/ + 1)| < |c (/)|
0 < j _ 1.
Demostracin. Se seleciona una funcin candidata de Lyapunov como:
\ (/) =
_
_
_

\
1
(/)
_
_
_
2
+
_
_
_

\
2
(/)
_
_
_
2
donde
_
_
_

\
1
(/)
_
_
_
2
=

a
i=1
n
1
(/)
2
= t:
_

\
T
1
(/)

\
1
(/)
_
. De la ley de actualizacin (3.83) se
tiene:

\
1
(/ + 1) =

\
1
(/) j (/) ,
1
[r (/)] c
T
(/)
So
\ (/) = \ (/ + 1) \ (/)
=
_
_
_

\
1
(/) j (/) ,
1
c (/)
T
_
_
_
2

_
_
_

\
1
(/)
_
_
_
2
+
_
_
_

\
2
(/) j (/) ,
2
n(/) c
T
(/)
_
_
_
2

_
_
_

\
2
(/)
_
_
_
2
= j
2
(/) |c (/)|
2
|,
1
|
2
2j (/)
_
_
_,
1

\
1
(/) c
T
(/)
_
_
_
+j
2
(/) |c (/)|
2
|,
2
n(/)|
2
2j (/)
_
_
_,
2
n(/)

\
2
(/) c
T
(/)
_
_
_
Existe una constante , 0. tal que si:
|,c (/ + 1)| _ |c (/)|
utilizando (3.82) y j(/) _ 0
2j (/)
_
_
_,
1

\
1
(/) c
T
(/)
_
_
_ 2j (/)
_
_
_,
2
n(/)

\
2
(/) c
T
(/)
_
_
_
_ 2j (/)
_
_
c
T
(/)
_
_
|,c (/ + 1) c (/) i (/)|
= 2j (/)
_
_
_
_
_
c
T
(/) ,c (/ + 1)
c
T
(/) c (/) c
T
(/) i (/)
_
_
_
_
_
_ 2j (/)
_
_
c
T
(/) ,c (/ + 1)
_
_
+2j (/) c
T
(/) c (/) + 2j (/)
_
_
c
T
(/) i (/)
_
_
_ 2j (/) |c (/)|
2
+ 2j (/) `
max
() |c (/)|
2
+j (/) |c (/)|
2
+ j (/) |i (/)|
2
90 Identicacin mediante redes FCMAC
donde 0 < j _ 1
\ (/) _ j
2
(/) |c (/)|
2
|,
1
|
2
+ j
2
(/) |c (/)|
2
|,
2
n(/)|
2
j (/) |c (/)|
2
+ 2j (/) `
max
() |c (/)|
2
+ j (/) |i (/)|
2
= j (/)
_

_
(1 2`
max
())
j
|,
1
|
2
+|,
2
n(/)|
2
1 +|,
1
|
2
+|,
2
n(/)|
2
_

_
c
2
(/)
+j
2
I
i
2
(/) _ :c
2
(/) + ji
2
(/)
(3.84)
donde:
: =
j
1 +i
_
1 2`
max
()
i
1 +i
_
y i = max
I
_
|,
1
|
2
+|,
2
n(/)|
2
_
. Por lo que 1 < `() < 0. : 0
:mn
_
n
2
i
_
_ \ (/) _ :max
_
n
2
i
_
donde :mn ( n
2
i
) y :max ( n
2
i
) son funciones de clase /
o
, y :c
2
(/) es una funcin clase
/
o
, ji
2
(/) es una funcin de clase /, tal que \ (/) admite una funcin suave de Lyapunov
como en la denicin 2. Del Teorema 1, la dinmica del error de identicacin es entrada-
estado estable. La entrada corresponde al segundo trmino de la ltima linea de(3.84), i.e.,
el error de modelado i (/) . los estados corresponden al primer trmino de la ltima linea de
(3.84), i.e., el error de identicacin c (/) . Por que la entrada i (/) es acotada y la dinamica
es ISS, los estados c (/) son acotados.
Comentario 3.3 La condicion "j (/) = 0 si , |c (/ + 1)| < |c (/)| " es la zona muerta. si
, se elije con un valor muy grande, la zona muerta llega a ser pequea.
3.4. Simulaciones
Para poder realizar un anlisis comparativo entre las redes FCMAC con recurrencia local,
global y la combinacin de ambas, se considera el siguiente sistema no lineal propuesto por
[16] y [26], para ilustrar los resultados de la identicacin.
3.4 Simulaciones 91
r
1
(/ + 1) = r
2
(/) .
r
2
(/ + 1) = r
3
(/)
r
3
(/ + 1) =
a
1
(I)a
2
(I)a
3
(I)&(I)[a
3
(I)1]+&(I)
1+a
2
(I)
2
+a
3
(I)
2
(3.85)
Se dene el vector de estados como (/) = [r
1
(/) . r
2
(/) . r
3
(/)]
T
. la seal de entrada se
selecciona como en [16] y [26].
n(/) =
_

_
sin(

25
/) 0 < / < 250
1.0 250 _ / < 500
1.0 500 _ / < 750
0.3 sin(

25
/) + 0.1 sin(

32
/) + 0.6 sin(

10
/) 750 _ / < 1000
(3.86)
A la red neuronal con recurrencia local la denotamos como LRFCMAC, con recurrencia
global la denotamos como GRFCMAC y a la red que presenta la combinacin de ambas
recurrencias local y global la denotamos como GLRFCMAC. En la gura 3.12 se comparan
los resultados de la identicacin de las diferentes topologas de redes FCMAC desarrollados
en la tesis con el trabajo de redes neuronales FCMAC convencionales presentados por [7]. Se
realiza la simulacin con los siguientes datos / = 5 (nmero de hipercubos), :
o
= 4 (numero
de unidades de asociacin), la entrada : = 3. la salida = 1. | = 8. La siguiente tabla
muestra la cantidad de operaciones realizadas por cada una de las capas de las diferentes
topologas de redes FCMAC.
Capa FCMAC LRFCMAC GRFCMAC GLRFCMAC
L1: Entrada : : : + j : + j
L2: Funciones de membresia : | : | + : | : | : | + : |
L3: Antecedente :
a
:
a
:
a
:
a
L4: Consecuente :
a
:
a
:
a
:
a
L5: Salida j j j j
Tabla 1. Nmero de operaciones realizadas en cada capa de la red neuronal.
92 Identicacin mediante redes FCMAC
Las variables de la Tabla 1 son: : es el nmero de entradas, j el nmero de salidas,
| el nmero de funciones de membresia por cada entrada y :
a
es el nmero de reglas de
inferencia. La Tabla 1 muestra que la red GLRFCMAC realiza el mayor nmero de opera-
ciones, principalmente en la capa 12, sin embargo como se observa en la gura 3.13, el error
de identicacin que presenta es menor que con las redes neuronales FCMAC, LRFCMAC,
GRFCMAC.
3.4.1. Red HFCMAC vs HRFCMAC
Uno de los problemas que presenta la red FCMAC convencional es que si las entradas son
mayores a 3, la memoria que soporta la topologa de la red se incrementa, haciendolo difcil
de implementar, este problema se conoce como el problema de la dimensionalidad. En los
sitemas difusos para resolver este problema se propuso una estructura jerrquica [23], [24],
[27], para que las reglas de inferencia creciera linealmente y no exponencialmente. Este mismo
principio se aplica a las redes FCMAC con estructura jerrquica y con estructura jerrquica
recurrente. Para realizar la identicacin de un sistema no lineal mediante redes FCMAC
con estructura jerrquica se utiliza la planta dada por (3.85). La entrada al primer bloque
es [r
1
(/) . r
2
(/)] . la entrada al segundo bloque es [r
3
(/) . n(/)],con : = 3. : = 5. :c = 10,
se utilizan 1000 datos de entrenamiento. Los resultados de la identicacin se muestra en la
gura 3.14.
Como se puede observar en las guras 3.14 y 3.15, ambas topologias FCMAC con estruc-
tura jerrquica pueden identicar un sistema no lineal, resuelven el problema del crecimiento
de la memoria y adems pueden ser utilizados en sistemas dinmicos.
3.4 Simulaciones 93
0 100 200 300 400 500 600 700 800 900 1000
-2
-1.5
-1
-0.5
0
0.5
1
1.5
2
Muestras
A
m
p
l
i
t
u
d
Error de identificacin
FCMAC RFCMAC
(local)
RFCMAC
(global)
RFCMAC
(local+global)
0 100 200 300 400 500 600 700 800 900 1000
-2
-1.5
-1
-0.5
0
0.5
1
1.5
2
Muestras
A
m
p
l
i
t
u
d
Error de identificacin
FCMAC RFCMAC
(local)
RFCMAC
(global)
RFCMAC
(local+global)
Figura 3.12: Comparacion de resultados de las redes FCMAC.
94 Identicacin mediante redes FCMAC
0 100 200 300 400 500 600 700 800 900 1000
0
0.01
0.02
0.03
0.04
0.05
0.06
0.07
muestras
A
m
p
l
i
t
u
d
Error cuadrtico
FCMAC RFCMAC
(Local)
RFCMAC
(goblal)
RFCMAC
(local+goblal)
0 100 200 300 400 500 600 700 800 900 1000
0
0.01
0.02
0.03
0.04
0.05
0.06
0.07
muestras
A
m
p
l
i
t
u
d
Error cuadrtico
FCMAC RFCMAC
(Local)
RFCMAC
(goblal)
RFCMAC
(local+goblal)
Figura 3.13: Error Cuadrtico de las redes recurrentes FCMAC
3.4 Simulaciones 95
0 100 200 300 400 500 600 700 800 900 1000
-2
-1.5
-1
-0.5
0
0.5
1
1.5
Muestras
A
m
p
l
i
t
u
d
Red HFCMAC vs HRFCMAC
HFCMAC
HRFCMAC
Referencia
0 100 200 300 400 500 600 700 800 900 1000
-2
-1.5
-1
-0.5
0
0.5
1
1.5
Muestras
A
m
p
l
i
t
u
d
Red HFCMAC vs HRFCMAC
HFCMAC
HRFCMAC
Referencia
Figura 3.14: Identicacin mediante la red HFCMAC vs HRFCMAC.
96 Identicacin mediante redes FCMAC
0 100 200 300 400 500 600 700 800 900 1000
-2
-1.5
-1
-0.5
0
0.5
1
1.5
Muestras
A
m
p
l
i
t
u
d
Error
HFCMAC
HRFCMAC
0 100 200 300 400 500 600 700 800 900 1000
-2
-1.5
-1
-0.5
0
0.5
1
1.5
Muestras
A
m
p
l
i
t
u
d
Error
HFCMAC
HRFCMAC
Figura 3.15: Error de Identicacin mediante la red HFCMAC y la HRFCMAC.
Captulo 4
Control de sistemas dinmicos
Un controlador puede ser usado en un sistema en lazo abierto en un sistema a lazo
cerrado. Los sistemas en lazo en lazo cerrado pueden rechazar las perturbaciones y realizar
un control ms exacto, una de las desventajas es que la retroalimentacin puede causar
problemas en la estabilidad del sistema, los cules no estn presentes en los sistemas a lazo
abierto.
4.1. Mtodos de Control Adaptable
Las tcnicas de control convencional que presentan retroalimentacin estn basados en
anlisis en el dominio del tiempo y en el dominio de la frecuencia, donde los procesos y
los controladores estn descritos por funciones de transferencia. Cuando un sistema ,() es
lineal y sus parmetros son conocidos, las tcnicas de diseo de controladores convencionales
pueden ser utilizados para encontrar un controlador conveniente para dicho sistema, teniendo
una relacin entrada-salida deseada, es decir, una funcin de transferencia en lazo cerrado.
El comportamiento del control en lazo cerrado est denido en el dominio de la frecuencia
por los parmetros de margen de fase, ancho de banda en el dominio del tiempo por la
respuesta transitoria, el error en el estado estacionario, etc. El proposito del diseo del
controlador es hacer el error cero en estado estacionario, una rpida respuesta la cul est
98 Control de sistemas dinmicos
relacionada con el ancho de banda y que se mantenga la estabilidad, lo cul est relacionado
con el margen de fase.
Un controlador muy usado en lazo cerrado es el control Proporcional, Integral, Derivativo
(111). La tarea de diseo se reduce a ajustar las ganancias 1
j
, 1
i
, 1
o
de los controladores
(sintonizacin Ziegler-Nichols).
Al sufrir cambios un sistema de control no lineal (tales como su punto de operacin ) sufre
variaciones en sus parmetros, estas variaciones pueden afectar severamente la estabilidad y
el comportamiento del sistema. El uso del control adaptable tiene como objetivo redisear
automticamente el controlador del sistema cuando ocurren estos cambios en los parmetros.
Existen dos esquemas de control adaptable:
Control adaptable con modelo de referencia (MRAC):
El sistema de control adaptable con modelo de referencia directo, modica los parmet-
ros del controlador directamente.
Un sistema de control adaptable con modelo de referencia indirecto, modica los parmet-
ros del modelo de referencia, y los parmetros de este modelo de referencia son utilizados
para calcular los parmetros del controlador.
Control auto-sintonizado: Un regulador auto-sintonizado identica los parmetros de
la planta cuando el sistema esta corriendo. Los parmetros identicados son utilizados
para redisear el controlador.
En un control adaptable los parmetros se encuentran disponibles y existen mecanismos
para ajustarlos en lnea, basado en las seales del sistema. Convencionalmente los contro-
ladores adaptables pueden ser clasicados de acuerdo a la manera por la cul sus parmetros
son ajustados. Los mtodos de ajuste se clasican en dos categorias: Control adaptable indi-
recto y control adaptable directo. En el control directo, los parmetros del controlador son
directamente ajustados para reducir la norma de la salida del error dado por la salida de la
planta y la trayectoria de referencia deseada. En el control indirecto, los parmetros de la
4.2 Control adaptable basado en las redes CMAC 99
planta con estimados y el controlador es diseado asumiendo que los parmetros de la planta
estimada representan los valores verdaderos de la planta original.
4.2. Control adaptable basado en las redes CMAC
Considere el siguiente sistema dinmico no lineal en tiempo contino de : c:i:o orden,
libre de perturbaciones externas:
_ r
1
(t) = r
2
(t) (4.1)
_ r
2
(t) = r
3
(t)
.
.
.
_ r
a
(t) = , (r
1
. r
2
. .... r
a
) + q (r
1
. r
2
. .... r
a
) n
= r
1
escrita en su forma equivalente:
r
a
= ,
_
r. _ r. .... r
a1
_
+ q
_
r. _ r. .... r
a1
_
n (4.2)
= r
donde , y q son funciones acotadas, r 1
a
es el vector de estados, n 1 es la entrada de
control, 1 es la salida de control del sistema. Solo se consideran los sistemas no lineales
que pueden ser representados por (4.1) (4.2). La ecuacin (4.2) puede reescribirse en su
representacin en espacio de estados como:
_ r (t) = r + 1[, (r) + q (r) n] (4.3)
= C
T
r
Se dene . 1 y C como:
100 Control de sistemas dinmicos
=
_

_
0 1 0 0 0
0 0 1 0 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 0 0 1
0 0 0 0 0
_

_
. 1 =
_

_
0
0
.
.
.
0
1
_

_
. C =
_

_
1
0
.
.
.
0
0
_

_
y r = [r
1
. r
2
. .... r
a
]
T
=
_
r. _ r. .... r
(a1)

T
1
a
. es el vector de estados, se da por hecho
que todos los estados r
i
y la salida , estn disponibles para ser medibles. Para que el sistema
(4.2) sea controlable, se requiere que q (r) ,= 0 para r en una regin de controlabilidad
l
c
1
a
. Sin perdida de generalidad, se da por hecho que 0 < q (r) < . para r l
c
.
Si , (r) y q (r) son conocidos, entonces se puede elejir una ley de control n para cancelar
las no linealidades y disear el controlador basado solamente en la teora de control lineal.
Se dene el vector de la seal de referencia como
o
. sea c =
o
r =
o
1. el error
del vector de trayectoria c se dene como:

o
=
_

o
. ....
a1
o

T
1
a
(4.4)
c =
o

c =
_
c. _ c. .... c
a1

T
= [c
1
. c
2
. .... c
a
]
T
1
a
El objetivo del control es forzar la salida del sistema . a seguir una seal de referencia
acotada
o
, bajo la condicin de que todas las seales involucradas son acotadas. Sea / =
[/
1
. .... /
a
]
T
1
a
tal que todas las races del polinomio :
a
+/
1
:
a1
+... +/
a
. se encuentren
del lado izquierdo del plano complejo. Si las funciones , (r) y q (r) son conocidos, entonces
se puede elejir una ley de control n
+
ideal como:
n
+
=
1
q (r)
_
, (r) + /
T
r +
a
o

(4.5)
Donde n = n
+
. substituyendo (4.5) en (4.1), se obtiene el sistema en lazo cerrado dado
por la expresin:
4.2 Control adaptable basado en las redes CMAC 101
c
a
+ /
a
c
a1
+ ... + /
1
c = 0
Se dene:
=
_

_
0 1 0 0 0
0 0 1 0 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 0 0 1
/
a
/
a1
/
a2
/
a3
/
1
_

_
. 1 =
_

_
0
0
.
.
.
0
1
_

_
(4.6)
El sistema en lazo cerrado se reescribe como:
_ c (t) = c (4.7)
Donde el objetivo de control implica iniciar de cualquier condicin inicial, se tiene |i:
to
c (t) =
0. tal que es estable, la salida de la planta , converge a la salida ideal
o
, asintticamente.
4.2.1. Control adaptable indirecto basado en redes CMAC
Si , (r) y q (r) son funciones desconocidas, el control ideal (4.5), no puede ser implemen-
tado, pues al no conocerse dichas funciones, no se pueden cancelar las no linealidades. En
este trabajo se proponen dos controladores HFCMAC llamados:
^
, (r [ n
)
) y ^ q (r [ n
j
) . para
aproximar las funciones desconocidas , (r) y q (r) respectivamente, esto es, un controlador
indirecto es diseado para minimizar el error del esquema de control equivalente, el cul est
dado por:
n
1
=
1
^ q (r [ n
j
)
_

^
, (r [ n
)
) + /
T
r +
a
o
_
(4.8)
donde
^
, (r [ n
)
) y ^ q (r [ n
j
) se obtienen de la salida de las redes neuronales HFCMAC,
las cules estn dadas por:
102 Control de sistemas dinmicos
^
, (r [ n
)
) = n
T
)
,
)
(r) (4.9)
^ q (r [ n
j
) = n
T
j
,
j
(r)
Donde n
)
y n
j
son los parmetros de los sistemas aproximados
^
, y ^ q. respectivamente.
Substituyendo (4.8) en (4.2) se obtiene la dinmica en lazo cerrado, del sistema de control
HFCMAC dado por:
c
(a)
= /
T
c +
_
^
, (r [ n
)
) , (r)
_
+ [^ q (r [ n
j
) q (r)] n
1
(4.10)
La ecuacin (4.10) se puede escribir en notacin vectorial de la forma:
_ c (t) = c + 1
__
^
, (r [ n
)
) , (r)
_
+ [^ q (r [ n
j
) q (r)] n
1
_
(4.11)
donde y 1 se denen como (4.6). Para el desarrollo de las leyes adaptables ms con-
venientes para ajustar los pesos de la red HFCMAC, se elijen los parmetros ptimos n
+
)
y
n
+
j
denidos por los siguientes trminos:
n
+
)
= arg mn
&
f

f
_
sup
ax

^
, (r [ n
)
) , (r)

_
(4.12)
n
+
j
= arg mn
&gj
_
sup
ax
[^ q (r [ n
j
) q (r)[
_
As
^
,
+
_
r [ n
+
)
_
y ^ q
+
_
r [ n
+
j
_
son los mejores aproximadores de , (r) y q (r) . Donde

)
= |n
)
| _ l
)
.
j
= |n
j
| _ l
j
. son conjuntos compactos acotados, los cules corre-
sponden a n
)
= n
)
1
. .... n
)n
. n
j
= n
j
1
. .... n
jn
. y l
)
. l
j
son constantes positivas especi-
cadas por el diseador. Las salidas de las redes HFCMAC con sus respectivos pesos ptimos
correspondientes
^
,
+
_
r [ n
+
)
_
y ^ q
+
_
r [ n
+
j
_
son utilizados para aproximar a las dos funciones
desconocidas , (r) y q (r) , tal que:
4.2 Control adaptable basado en las redes CMAC 103
, (r) =
^
,
+
_
r [ n
+
)
_
+ c
)
c
)
=

, (r)
^
,
+
_
r [ n
+
)
_

q (r) = ^ q
+
_
r [ n
+
j
_
+ c
j
c
j
=

q (r) ^ q
+
_
r [ n
+
j
_

donde c
)
y c
j
. son los errores de aproximacin minimos de
~
, (r) y ~ q (r) . los cules se
denen a continuacin:
~
, = , (r)
^
, (r [ n
)
) (4.13)
=
^
,
+
_
r [ n
+
)
_
+ c
)

^
, (r [ n
)
)
= n
+
)
,
)
(r) + c
)
n
T
)
,
)
(r)
= ~ n
)
,
)
(r) + c
)
~ q = q (r) ^ q (r [ n
j
) (4.14)
= ^ q
+
_
r [ n
+
j
_
+ c
j
^ q (r [ n
j
)
= n
+
j
,
j
(r) + c
j
n
T
j
,
j
(r)
= ~ n
j
,
j
(r) + c
j
donde ~ n
T
i
,
i
= ~ n
+T
i
,
i
n
T
i
,
i
. i denota a las funciones , (r) y q (r). En el proceso de diseo
del controlador, el trmino de incertidumbre se aade mediante el siguiente trmino:
= c
)
+ c
j
n
1
(4.15)
=

, (r)
^
,
+
_
r [ n
+
)
_

q (r) ^ q
+
_
r [ n
+
j
_

n
1
Se realiza la consideracin que la incertidumbre est acotado por una constante positiva
pequea o. [[ _ o. Utilizando el procedimiento anterior, la ecuacin (4.11) se reescribe como:
_ c (t) = c + 1
__
^
, (r [ n
)
)
^
,
+
_
r [ n
+
)
_
_
+
_
^ q (r [ n
j
) ^ q
+
_
r [ n
+
j
_
n
1
+ 1
_
(4.16)
104 Control de sistemas dinmicos
Substituyendo (4.9), en (4.16), se obtiene la siguiente ecuacin dinmica en lazo cerrado,
la cul presenta una relacin explicita entre el error de trayectoria c y los parmetros del
controlador n
)
y n
j
:
_ c (t) = c + 1
__
n
T
)
,
)
(r) n
+T
)
,
)
(r)

+
_
n
T
j
,
j
(r) n
+T
j
,
j
(r)

n
1
+

(4.17)
_ c (t) = c + 1
__
n
T
)
n
+T
)

,
)
(r) +
_
n
T
j
n
+T
j

,
j
(r) n
1
+

_ c (t) = c + 1
_
~ n
T
)
,
)
(r) + ~ n
T
j
,
j
(r) n
1

+ 1
4.2.2. Ley de aprendizaje para las redes neuronales HFCMAC
La funcin de la ley de aprendizaje es determinar un mecanismo de ajuste para n
)
y
n
j
, tal que el error de trayectoria c. y los parmetros de error c
)
y c
j
. son minimizados. La
meta al ajustar los parmetros es hacer n
T
)
n
+T
)
. y n
T
j
n
+T
j
, y por consecuencia, hacer
^
, (r [ n
)
) . ^ q (r [ n
j
) buenos estimadores de , (r),q (r) . y n
1
n
+
.
^
, (r [ n
)
) = n
T
)n
,
)n
(r
a
) (4.18)
r
a1
= n
T
)
n1
,
)
n1
(r
a1
)
.
.
.
r
1
= n
T
)
1
,
)
1
(r
1
)
^ q (r [ n
j
) = n
T
jn
,
jn
(r
a
)
r
a1
= n
T
j
n1
,
j
n1
(r
a1
)
.
.
.
r
1
= n
T
j
1
,
j
1
(r
1
)
Sea la siguiente ley de aprendizaje:
4.2 Control adaptable basado en las redes CMAC 105
_ n
T
)n
(t) =
)
11,
)n
(r) c
a
(t)
_ n
T
)
n1
(t) =
)
11,
)
n1
(r) c
a1
(t)
.
.
.
_ n
T
)
1
(t) =
)
11,
)
1
(r) c
1
(t)
c
a
(t) = c()
c
j
(t) = 2
b jq&
i;q
bq
.
q,I
b jpc
i;q;p
(o
i
q;p)
2
c
q
(t)
_ n
T
jn
(t) =
j
11,
jn
(r) c
a
(t)
_ n
T
j
n1
(t) =
j
11,
j
n1
(r) c
a1
(t)
.
.
.
_ n
T
j
1
(t) =
j
11,
j
1
(r) c
1
(t)
c
j
(t) = 2
b jq&
i;q
bq
.
q,I
b jpc
i;q;p
(o
i
q;p)
2
c
q
(t)
(4.19)
Utilizando la ley (4.19), no se puede garantizar que los parmetros n
)
y n
j
. sean acotados.
Si n
)
diverge a innito, entonces el sistema HFCMAC
^
, (r [ n
)
) . podra incrementarse y
resultar en un control no acotado n
1
. Al desarrollar un sistema estable (donde todas las
variables estn acotadas), se puede modicar la ley de adaptacin tal que los parmetros
sean acotados. Sean los conjuntos compactos
)
y
j
para n
)
y n
j
se denen como:

)
= n
)
1
)
[ [n
)
[ _ `
)
(4.20)

j
= n
j
1
j
[ 0 < c _ [n
j
[ _ `
j

Donde c. n
)
y n
j
son constantes, se requiere que [n
j
[ sea acotado por abajo por 0 < c.
de (4.8) se pude observar que ^ q = n
T
j
,
j
(r) . es diferente de cero. Se modican las leyes de
(4.19) para garantizar que n
)

)
y n
j

j
.
Si el vector de parmetros est en el interior del conjunto compacto en los lmites,
pero movindose hacia dentro del conjunto compacto, entonces se utiliza la ley (4.19); si
el vector de parmetros est sobre el lmite del conjunto compacto, pero movindose hacia
afuera de l, entonces se emplea la proyeccin del gradiente del vector de parmetros sobre
106 Control de sistemas dinmicos
el hiperplano de soporte. Las leyes de adaptacin modicadas con proyeccin para el sistema
neuro-difuso adaptable indirecto se explica a continuacin:
Para n
)
se dene n
o
, o = 1. 2 :. usando:
_ n
o
(t) =
_

o
11,
o
(r) c
o
(t) si [n
o
[ < `
)

o
11,
o
(r) c
o
(t) si 11n
T
o
,
o
(r) c
o
(t) _ 0
1
o
(
o
11,
o
(r) c
o
(t)) si 11n
T
o
,
o
(r) c
a
(t) < 0
si [n
o
[ = `
)
(4.21)
donde el operador de proyeccin 1 se dene como:
1
o

o
11,
o
(r) c
o
(t) =
o
11,
o
(r) c
o
(t) +
o
11c
o
(t)
n
o
n
T
o
,
o
(r)
[n
o
[
2
Para n
j
_ n
o
(t) =
_

o
11,
o
(r) c
o
(t) si 11n
T
o
,
o
(r) c
o
(t) < 0
0 si 11n
T
o
,
o
(r) c
o
(t) _ 0
si n
o
= c
_ n
o
(t) =
_

o
11,
o
(r) c
o
(t) si [n
o
[ < `
)

o
11,
o
(r) c
o
(t) si 11n
T
o
,
o
(r) c
o
(t) _ 0
1
o
(
o
11,
o
(r) c
o
(t)) si 11n
T
o
,
o
(r) c
a
(t) < 0
si [n
o
[ = `
)
en otro caso
(4.22)
Donde es una constante positiva pequea.
Teorema 4.1 Sean los conjuntos compactos
)
y
j
denidos en (4.20). Si los valores
iniciales de los parmetros satisfacen n
)
(0)
)
y n
j
(0)
j
. entonces las leyes (4.21) y
(4.22) garantizan que n
)
(t)
)
y n
j
(t)
j
. para todo t _ 0.
Demostracin. Para demostrar [n
o
[ _ `
)
. se elije la siguiente funcin candidata de
Lyapunov:
\
)
=
1
2
n
T
o
n
o
(4.23)
La derivada de la funcin candidata de Lyapunov es:
_
\
)
= n
T
o
_ n
o
(4.24)
4.2 Control adaptable basado en las redes CMAC 107
Cuando [n
o
[ `
)
, se tiene [n
o
[ < `
)
. La derivada de la funcin candidata de lyapunov
es:
_
\
)
= 11n
T
o
,
o
(r) c
o
(t)
Cuando [n
o
[ = `
)
. si 11n
T
o
,
o
(r) c
o
(t) _ 0. entonces
_
\
)
_ 0. De aqui, se tiene [n
)
[ _
`
)
. Cuando [n
o
[ = `
)
. si 11n
T
o
,
o
(r) c
a
(t) < 0. entonces
_
\
)
= n
T
o
_

o
11,
o
(r) c
o
(t) +
o
11c
o
(t)
n
o
n
T
o
,
o
(r)
[n
o
[
2
_
= 0 (4.25)
por lo que [n
)
[ _ `
)
.
Utilizando un anlisis similar, se puede provar n
j
(t) que tambin es acotado para todo
t _ 0.
Si [n
j
[ = c. si 11n
T
o
,
o
(r) c
o
(t) < 0 entonces:
_
\
j
= 11n
T
o
,
o
(r) c
o
(t) 0 (4.26)
As que [n
j
[ se incremente. si 11n
T
o
,
o
(r) c
o
(t) _ 0. n
j
es jo. entonces [n
j
[ _ c.
Teorema 4.2 Se considera un sistema dinmico del tipo 4.2 y dado un control adaptable
HFCMAC como en 4.8, 4.9 con la ley adaptable 4.19, la estabilidad del sistema de control
en lazo se garantiza, i.e., el error de trayectoria c es acotado y converge a:
lmsup
To
1
1
_
T
0
[c[
2
Q
0
dt _

(4.27)
donde Q
0
= (Q) .
T
11
1
11 _

.
Demostracin. Considere la siguiente funcin candidata de Lyapunov:
\ = c
T
1c +
1
2
)
~ n
T
)
~ n
)
+
1
2
j
~ n
T
j
~ n
j
(4.28)
Es obvio que \ es una funcin denida positiva para cualquier t, \ (t) _ 0. De hecho,
\ (t) representa una medida euclidiana variante en el tiempo de la distancia de la salida
de la planta con respecto a la seal de referencia ms la distancia de los parmetros del
108 Control de sistemas dinmicos
controlador HFCMAC de sus valores ptimos. i.e. c (t) = 0. n
T
)
(t) = n
+T
)
. y n
T
j
(t) = n
+T
j
.
Los cules
)
.
j
. son constantes positivas y 1 es una matriz denida positiva que satisface la
ecuacin de Lyapunov, con la ley de aprendizaje, donde 1 = [0. 0 0. 1]
T
. 1 es la solucin
de c conocida, tal que existe una matriz simtrica 1 (1 = 1
T
) denida positiva de ::. la
cul satisface la ecuacin de Lyapunov:

T
1 + 1 = Q. Q = Q
T
0 (4.29)
Donde Q es una matriz de : : denida positiva, y est dado por (4.6). Con (4.29) la
derivada en el tiempo de \ a lo largo de la trayectoria del sistema en lazo cerrado puede ser
derivado como:
_
\ = c
T
Qc + c
T
11 +
1

)
~ n
T
)
_
_ n
T
)
+
T
)
c11,
)n
(r)

+
1

j
~ n
T
j
_
_ n
T
j
+
j
c
T
11,
jn
(r) n
1

Con (4.19) y
_
\ = c
T
Qc + c
T
11 (4.30)
Donde = c
)
+ c
j
n
1
. Utilizando la desigualdad matricial
A
T
1 +
_
A
T
1
_
T
_ A
T
A + 1
T

1
1 (4.31)
donde A. 1. +
aI
son cualquier matriz, es cualquier matriz denida positiva, se tiene:
c
T
11 _ c
T
c +
T
11
1
11 (4.32)
donde =
T
0. < Q. Porque n
1
es acotado (n
)
y n
j
son acotados )

T
11
1
11 _

El cul puede ser representado como:


_
\ _ c
T
(Q) c +

= Q
0
|c|
2
+ ,
||
|| (4.33)
4.2 Control adaptable basado en las redes CMAC 109
donde Q
0
= (Q) y , son /
o
funciones, \ es una funcin de Lyapunov ISS. Utilizando
el Teorema 4.2, la dinmica del error de identicacin c es una entrada de estado estable.
De aqu est acotado por

. la nueva entrada c es acotada.
Integrando (4.33) de 0 hasta 1 :
\
T
\
0
_
_
T
0
c
T
Q
0
cdt +

1
Por lo que:
1
1
_
T
0
c
T
Q
0
cdt _ \
0
\
T
+

1 _
\
0
1
+

(4.34)
(4.27) es estable.
4.2.3. Simulaciones
El sistema barra-esfera se muestra en la gura 4.1, consiste de una barra horizontal sobre
la cul se desplaza una esfera, el objetivo del sistema es ubicar la esfera en una posicin
dada al modicar el ngulo o. En este ejemplo se realiz un control de posicin de la esfera
sobre la barra, sin embargo con este sistema se puede atacar el problema de regulacin y el
de trayectoria.

Figura 4.1: Sistema barra-esfera


El sistema barra-esfera tiene la siguiente representacin matemtica en espacio de estados:
110 Control de sistemas dinmicos
_

_
_ r
1
_ r
2
_ r
3
_ r
4
_

_
=
_

_
r
2
c(r
1
r
2
4
, sin r
3
)
r
4
0
_

_
+
_

_
0
0
0
1
_

_
n
= r
1
Donde r = (r
1
. r
2
. r
3
. r
4
)
T
=
_
:. _ :. o.
_
o
_
T
es el vector de estados del sistema, : es la posicin
de la esfera, o es el ngulo de la barra con respecto a la horizontal y = : es la salida
del sistema. El control n es igual a la aceleracin de o. Los valores nominales del sistema
barra-esfera son: c = 0.71. , = 9.8. / = 5,7. /
j
= 75. :
c
= 3.175 10
2
:. 1 = 0.405:.
/
n
= 0.0075`:,c:j. /
c
= 0.0075o|t: :,:cd. 1
o
= 9. 1
n
= 1.6 10
3
`: :,:cd.
J: = 7.35 10
3
`::
2
,:cd. Se utiliza un control indirecto HFCMAC.
Las simulaciones del sistema de control mediante la red HFCMAC se muestran en la
gura 4.2, con este esquema de control se pueden compensar las incertidumbres tales como
la friccin y la gravedad, adems se puede ajustar la accin de control ya que presentan
una ley adaptable. En la gura 4.2 est representado el control de posicin de la esfera y
en la gura 4.3 se presenta el error instantneo. Los resultados muestran que el controlador
adaptable HFCMAC puede controlar un sistema no lineal.
4.2 Control adaptable basado en las redes CMAC 111
0 100 200 300 400 500 600 700 800 900 1000
-1
-0.8
-0.6
-0.4
-0.2
0
0.2
0.4
0.6
0.8
1
Tiempo
A
m
p
l
i
t
u
d
Control HFCMAC
Referencia
HFCMAC
0 100 200 300 400 500 600 700 800 900 1000
-1
-0.8
-0.6
-0.4
-0.2
0
0.2
0.4
0.6
0.8
1
Tiempo
A
m
p
l
i
t
u
d
Control HFCMAC
Referencia
HFCMAC
Figura 4.2: Respuesta del sistema de control.
112 Control de sistemas dinmicos
0 100 200 300 400 500 600 700 800 900 1000
-1.5
-1
-0.5
0
0.5
1
1.5
Tiempo
A
m
p
l
i
t
u
d
Error
HFCMAC
Figura 4.3: Error de control.
Captulo 5
Conclusiones
5.1. Conclusiones
Se disearon diferentes esquemas de identicacin para sistemas no lineales a partir de
la red neuronal CMAC propuesta inicialmente por los trabajos de J. Albus en [1] y [2], se
realiza una extensin combinando redes neuronales y sistemas difusos surgiendo as la red
neuronal CMAC difusa (FCMAC).
La red FCMAC combina ambas tcnicas: la capacidad de adaptacin de la red neuronal
y el conocimiento a priori de un experto en las reglas de un sistema difuso. Esta red presenta
un ajuste muy rpido de sus pesos, ya que a diferencia de la red ANFIS que retropropaga el
error a cada una de sus neuronas en las diferentes capas que lo componen para ajustar sus
pesos, la red FCMAC solo ajusta los pesos de las neuronas activadas por las entradas. La
red FCMAC presenta dos limitantes:
Est limitado a sistemas estticos ya que es una red hacia adelante.
Para sistemas que presentan entradas : di:c::io:c|c:, :
i
_ 3, se vuelven difciles
de disear e implementar pues generan muchas reglas de inferencia.
Para resolver la primer limitante, en este trabajo se propone una nueva topologia de
red recurrente FCMAC (RFCMAC). La primer topologa RFCMAC presenta una retroal-
114 Conclusiones
imentacin local en la capa dos, la segunda topologa tiene una retroalimentacin global
salida-entrada y una tercera presenta la combinacin de ambas retroalimentaciones local ms
global. El algoritmo de actualizacin de los pesos est basado en el algoritmo de retropropa-
gacin del error (backpropagation). Se realiza un anlisis va segundo mtodo de Lyapunov
para demostrar estabilidad del sistema.
Para resolver la segunda limitante, se propone una nueva topologa de red neuro-difusa
CMAC con estructura jerrquica (HFCMAC), el cul no presenta el problema del incre-
mento en las reglas difusas al aumentar el nmero de entradas en la red al aumentar las
funciones de pertenencia para cada entrada. Se disean las redes HFCMAC con entradas
de baja dimensionalidad. Sin embargo con esta nueva topologa nicamente se limita a sis-
temas estticos, para poder realizar una identicacin de sistemas dinmicos se propone
una estructura jerrquica recurrente FCMAC (HFCMAC). Ambas topologas con estructura
jerrquica presentan el algoritmo de entrenamiento de retro-propagacin, se realiza el anlisis
de estabilidad de Lyapunov para asegurar la convergencia de los pesos.
La red CMAC con sus respectivas extenciones es capaz de controlar sistemas no lineales.
Especcamente se dise un esquema de control adaptable indirecto HRFCMAC que realiza
el control de un sistema barra-esfera, se realiza tambin una prueba de estabilidad del sistema.
Algunas de las aplicaciones de la red neuronal articial CMAC incluye: Identicacin
de sistemas no lineales estticos y dinmicos; Reconocimiento de patrones; Procesamiento
digital de seales; Control de sistemas no lineales en tiempo real, entre otros.
Algunos tpicos de inters generados en este trabajo y que pueden ser estudiados ms
adelante son:
Realizar un anlisis ms profundo en las variables intermedias que se encuentran entre los
niveles de la estructura jerrquica, ya que el diseo de la misma al carecer de un signicado
fsico resulta difcil de implementar. Disear un control adaptable directo mediante redes
HFCMAC para sistemas no lineales con mltiples entradas y mltiples salidas.
Bibliografa
[1] Albus, J. S. (1975 a ), Data storage in the Cerebellar Model Articulatin Controller,
Transactions of the ASME Journal of Dynamic Systems, Measurement and Control,
Vol. 97, series G, No.3, pp. 228-233, September 1975.
[2] J. S. Albus, A New Approach to Manipulator Control: the Cerebellar Model Articu-
lation Controller (CMAC), Transactions of the ASME Journal of Dynamic Systems,
Measurement and Control, Vol. 97, series G, No.3, pp. 220-227, September 1975.
[3] A. M. Lyapunov, The General Problem of the Stability of Motion. Kharkov, Russia:
Kharkov Math. Soc., 1892.
[4] Martin Brown, Chris Harris. Neurofuzzy adaptive modelling and control. Prentice Hall
International. ISBN 0-13-134453-6. 1994.
[5] Commuri, S. and F. L. Lewis (1995a), Control of unknown nonlinear dynamical systems
using CMAC neural networks: Structure, Stability and passivity. IEEE International
symposium on Intelligent Control, San francisco, CA, pp. 123-129.
[6] Chih Min Lin and Ya Fu Peng, Adaptive CMAC based supervisory control for uncertain
nonlinear systems. IEEE Transactions on Systems, Man and Cybernetics, Vol. 34, No.
2, April 2004.
[7] C.-T. Chiang and C.-S. Lin, CMAC with general basis functions, Neural Networks, vol.
9, no. 7, pp. 11991211, 1996.
116 BIBLIOGRAFA
[8] Ching-Hung Lee and Ching-Cheng Teng, Identication and Control of Dynamic Systems
Using Recurrent Fuzzy Neural Networks, IEEE Transactions on Fuzzy Systems, Vol. 8,
No. 4, August 2000.
[9] J.-Y. Chen, P.-S. Tsai and C.-C. Wong, Adaptive design of a fuzzy cerebellar model
arithmetic controller neural network, IEE Proc.-Control Theory Appl., Vol. 152, No. 2,
Marzo 2005
[10] S. Commuri, F. L. Lewis. CMAC Neural Networks for Control of Nonlinear Dynamical
Systems: Structure, Stability and Passivity. Automtica, Vol. 33, No. 4, pp. 635-641,
1997.
[11] Francisco J. Gonzlez Serrano, Anbal R. Figueiras vidal and Antonio Arts Rodrguez.
Generalizing CMAC Architecture and Training. IEEE Transactions on Neural Networks.
Vol. 9. No. 6. pp. 1509-1514, November 1998.
[12] Ming-Ling Lee, Hung-Yuan Chung, Fang-Ming Yu. Modeling of hierarchical fuzzy sys-
tems. Fuzzy Sets and Systems 138 (2003) 343361. Department of Electrical Engineer-
ing, National Central University, Taiwan.
[13] Jen Yang chen, An Adaptive FCMAC controller, Electronic Engineering Department.
China Institute of Technology.
[14] Ken-Ichi Funahashi. On the approximate realization of continuos Mappings by Neural
Networks, Neural Networks. pp. 183-192, Vol. 2, 1989.
[15] Kevin M. Passino. Intelligent Control: A Tutorial, IEEE Joint Int. Conference on Control
Applications & Int. Symp. on Intelligent Control CCAISIC2001. Mxico, DF., Sept. 5-7,
2001.
[16] Kumpati S. Narendra, Kannan Parthasarathy, Identication and Control of Dynamical
Systems Using Neural Networks, IEEE Transactions on Neural Networks. Vol. 1. No. 1.
pp. 4-27, March 1990.
BIBLIOGRAFA 117
[17] Kurkt Hornit. Multilayer Feedforward Networks are Universal Approximators. Neural
Networks. pp. 359-366, Vol. 2, 1989.
[18] Kurkt Hornit. Approximation Capabilities of Multilayer Feedforward Networks. Neural
Networks. pp. 251-257, Vol. 4, 1991.
[19] L. Zadeh, Fuzzy sets, inform. Contr., Vol. 8, No. 3, pp. 338-353, 1965.
[20] Young H. Kim, Frank L. Lewis. Optimal Design of CMAC Neural Network Controller
for Robot Manipulators. IEEE Transactions on Systems, Man and Cybernetics. Vol. 30.
No. 1. February 2000.
[21] Filson H. Glanz, W. Thomas Miller, L. gordon Kraft. An overview of the CMAC neural
network. Robotics Laboratory, Electrical Engineering Department.
[22] Qiang Gan, Eric M. Rosales, A Comparative Study on CMAC and ANFIS for Nonlinear
System Modelling, Technical Report, Department of Computer Science, University of
Essex, 2002.
[23] G.V.S. Raju, Jun Zhou, and R. A. Kisner, Hierarchical fuzzy Control, International
Joint Control., Vol. 54, No. 5, pp. 1201 -1216 , 1991.
[24] G.V.S. Raju, Jun Zhou, Adaptive Hierarchical Fuzzy Controller, IEEE Transactions on
Systems, Man and Cybernetics, Vol. 23, No. 4, July-August 1993.
[25] Rong-Jong Wai, Chih-Min Lin, and Ya-Fu Peng, Adaptive Hybrid Control for Linear
Piezoelectric Ceramic Motor Drive Using Diagonal Recurrent CMAC Network, IEEE
Transactions on Neural Networks, vol. 15, No. 6, November 2004.
[26] P. S. Sastry, G. Santharam, and K. P. Unnikrishnan, Memory neural networks for identi-
cation and control of dynamic systems, IEEE Trans. Neural Networks, vol. 5, 306-319,
1994.
118 BIBLIOGRAFA
[27] Li-Xin Wang. Analysis and Design of Hierarchical Fuzzy Systems. IEEE Transactions
on Fuzzy Systems, vol. 7, No. 5, October 1999.
[28] C. Wei and L.X. Wang, A Note on Universal Approximation by Hierarchical Fuzzy
Systems, Information Sciences, Vol. 123, 241-248, 2000.
[29] Xiao-Jun Zeng and John A. Keane, Approximation Capabilities of Hierarchical Fuzzy
Systems, IEEE Transactions on Fuzzy Systems, Vol. 13, No. 5, October 2005.
[30] Zhong Ping Jiang, Yuan Wang, Input to state stability for discrete time nonlinear
systems, Automtica 37, 857-869, 2001.
[31] Russell L. Smith. Intelligent Motion Control with an Articial Cerebellum. Ph. D. dis-
sertation, The Department of Electrical and Electronic Engineering. University of Auck-
land, New Zealand. July 1998.
[32] Modular on line function approximation for scaling up reinforcement learning, Chen
Khong Tham, University of Cambrige, England. October 1994, Thesis doctoral.
[33] Mehrdad Hojati, Saeed Gazor, Hybrid Adaptive Fuzzy Identication and Control of
Nonlinear Systems, IEEE, Transactions on fuzzy systems, Vol. 10, No. 2 April 2002.
Captulo 6
Apndices
6.1. A. Preliminares Matemticos
6.1.1. Norma Euclideana
La norma euclideana |r| de un vector r R
a
se dene como:
|r| =

_
a

i=1
r
2
i
=
_
r
T
r
donde slo se considera la parte positiva de la raz cuadrada. Es inmediato comprobar que
la norma euclideana satisface las siguientes propiedades:
|r| = 0. si y slo si r = 0 R
a
.
|r| 0. para todo r R
a
con r ,= 0 R
a
.
|cr| = [c[ |r| . para todo c R y r R
a
.
|r| || _ |r + | _ |r| +|| . para todo r. R
a
.

r
T

_ |r| || . para todo r. R


a
(desigualdad de Schwarz).
120 Apndices
6.1.2. Matrices
Se denotar por R
an
al conjunto de matrices de dimensin :: formada por arreglos
de nmeros reales ordenados por : renglones y : columnas:
= c
i)
=
_

_
c
11
c
12
c
1n
c
21
c
22
c
2n
.
.
.
.
.
.
.
.
.
.
.
.
c
a1
c
a2
c
an
_

_
Un vector r R
a
puede ser interpretado como una matriz particular perteneciente a R
a1
=
R
a
. La matriz traspuesta
T
= c
)i
R
na
se obtiene intercambiando los renglones y
columnas de = c
i)
R
an
.
Producto de matrices
Considrense las matrices R
nj
y 1 R
ja
. El producto de las matrices y 1
denotado por C = 1 R
na
se dene como:
C = c
i)
= 1
=
_

_
c
11
c
12
c
1j
c
21
c
22
c
2j
.
.
.
.
.
.
.
.
.
.
.
.
c
n1
c
n2
c
nj
_

_
_

_
/
11
/
12
/
1a
/
21
/
22
/
2a
.
.
.
.
.
.
.
.
.
.
.
.
/
j1
/
j2
/
ja
_

_
Puede vericarse que el producto de matrices satisface las siguientes propiedades:
(1)
T
= 1
T

T
. para toda R
nj
y 1 R
ja
.
1 ,= 1. en general.
(1 + C) = 1 + C. para toda R
nj
. 1 R
ja
y C R
ja
.
6.1 A. Preliminares Matemticos 121
1C = (1C) = (1) C para toda R
nj
. 1 R
ja
y C R
av
.
De acuerdo con la denicin del producto de matrices, la expresin r
T
donde r R
a
.
R
an
y R
n
est dado por:
r
T
=
_

_
r
1
r
2
.
.
.
r
a
_

_
_

_
c
11
c
12
c
1n
c
21
c
22
c
2n
.
.
.
.
.
.
.
.
.
.
.
.
c
a1
c
a2
c
an
_

_
_

2
.
.
.

n
_

_
=
a

i=1
n

)=1
c
i)
r
i

)
Matrices especiales
Una matriz es cuadrada si : = :. Una matriz cuadrada R
aa
es simtrica si es
igual a su transpuesta =
T
. es antisimtrica si =
T
. Una propiedad de las matrices
antisimtricas es:
r
T
r = 0. \r R
a
Una matriz cuadrada = c
i)
R
aa
es diagonal si c
i)
= 0 para todo i ,= ,. Se denota
por:
dicq c
11
. c
22
. .... c
aa
=
_

_
c
11
0 0
0 c
22
0
.
.
.
.
.
.
.
.
.
.
.
.
0 0 c
aa
_

_
R
aa
Una matriz cuadrada R
aa
es singular si su determinante es nulo, i.e., si dct () = 0.
en caso contrario es no singular. Una caracterstica de una matriz singular es que sta no
tiene inversa.
Una matriz cuadrada R
aa
. sin ser necesariamente simtrica, es denida positiva si:
r
T
r 0. \r R
a
. con r ,= 0 R
a
122 Apndices
Cualquier matriz simtrica y denida positiva =
T
0 es no singular, por lo tanto
su inversa
1
existe. Una matriz cuadrada R
aa
. es semidenida positiva si:
r
T
r _ 0. \r R
a
Una matriz cuadrada R
aa
. es denida negativa si es denida positiva, mientras
que es semidenida negativa si es semidenida positiva.
6.1.3. Valores propios
Para cada matriz cuadrada R
aa
existen : valores propios (nmeros complejos
en general ), denotados por `
1
. `
2
. .... `
a
. Los valores propios de la matriz
R
aa
satisfacen:
det [`
i
1 ] = 0. i = 1. 2. .... :
donde 1 R
aa
es la matriz identidad de dimensin :. Para el caso de una matriz simtrica
=
T
R
aa
. sus valores propios son tales que:
`
1
. `
2
. .... `
a
son nmeros reales.
`
i
denota el valor propio de la matriz . `
max
denota el valor propio ms
grande de la matriz si todos los valores propios son reales. `
mn
denota el valor
propio ms pequeo de la matriz si todos los valores propios son reales. El teorema
de Rayleigh-Ritz establece que para todo r R
a
se tiene:
`
mn
|r|
2
_ r
T
r _ `
max
|r|
2
Una matriz cuadrada R
aa
. es denida positiva si y slo si los valores propios de
+
T
son positivos, i.e., `
i
_
+
T
_
0 para i = 1. 2. .... :. Ms an, una matriz simtrica
=
T
R
aa
es denida positiva si y slo si `
i
0 para i = 1. 2. .... :.
6.1 A. Preliminares Matemticos 123
6.1.4. Norma espectral
La norma espectral || de una matriz R
aa
. se dene como:
|| =
_
`
max

donde `
max
_

_
denota el valor propio mximo de la matriz simtrica
T
R
nn
. En
el caso particular de matrices simtricas =
T
R
aa
. se tiene que:
|| = max
i
[`
i
[ .
|
1
| =
1
mn
i
[A
i
[
.
En las expresiones anteriores el valor absoluto resulta rebundane si A es simtrica y
denida positiva =
T
0. La norma espectral satisface las siguientes propiedades:
|| = 0. si y slo si = 0 R
an
.
|| 0. para todo R
an
con ,= 0 R
an
.
| + 1| _ || +|1| . para todo . 1 R
an
.
|c| = [c[ || . para todo c R y R
an
.
_
_

T
1
_
_
_ || |1| . para todo . 1 R
an
.
Un resultado particular es la matriz R
an
y el vector r R
n
. La norma euclideana
del vector r satisface:
|r| _ || |r|
donde || denota la norma espectral de la matriz , mientras que |r| denota la norma
euclideana del vector r. Siendo R
a
. el valor absoluto de
T
r satisface satisface:
_
_

T
r
_
_
_ || || |r| .
124 Apndices
6.1.5. Supremo e nmo
Una de las propiedades fundamentales de los nmeros reales es la existencia del supremo
y del nmo para subconjuntos acotados.
Denicin 6.1 Sea _ R. se dice acotado superiormente si existe ` R tal que \:
se tiene : _ `. Sea un subconjunto no vaco de los reales que es acotado superiormente
de dene el supremo de (:nj) como el mnimo nmero real ` tal que : _ ` \r .en
caso de existir tal `. El conjunto se dice acotado inferiormente si existe ` R tal que
\: se tiene ` _ :. Si es un subconjunto no vaco de los nmeros reales, el cul es
acotado inferiormente, se dene el nmo de (nf ) como el mximo nmero real ` tal
que ` _ : \r . en caso de existir tal `.
Axioma 6.1 Sea ,= 0. _ R. Si es acotado superiormente, entonces existe :nj R.
Equivalentemente, si ,= 0. _ R. Si es acotado inferiormente, entonces existe i:,
R.
6.2. B Algoritmo de aprendizaje
6.2.1. Mnimos cuadrados
El algoritmo de mnimos cuadrados ( |cc:t :cc: :nc:c 1`o) est basado en el
valor instantneo de la funcin de costo denido por:
(n) =
1
2
c
2
(:)
donde c (:) es la seal del error medida en el tiempo :. Derivando (n) con respecto al
vector de pesos n se obtiene:
J (n)
Jn
= c (:)
Jc (:)
Jn
El algoritmo 1`o opera con una neurona lineal, por lo que se puede expresar la seal de
error como:
c (:) = d (:) :
T
(:) n(:)
6.2 B Algoritmo de aprendizaje 125
por lo tanto
Jc (:)
Jn(:)
= : (:)
y
J (n)
Jn
= c (:) :
T
(:)
= : (:) c (:)
( )
k
d n
( )
k
e n
( )
1
s k
( )
2
s k
( )
n
s k
( )
( )
1
w k
( )
n
w k
1
M
( )
n
v k ( )
n
y k
( )
k
d n
( )
k
e n
( )
1
s k
( )
2
s k
( )
n
s k
( )
( )
1
w k
( )
n
w k
1
M
( )
n
v k ( )
n
y k
Figura 6.1: Propagacin de la seal en una red neuronal
Utilizando ste ltimo resultado como un estimado del vector gradiente, se puede escribir:
^ q (:) = : (:) c (:) (6.1)
Por ltimo, utilizando la ecuacin 6.1 del vector gradiente para el algoritmo del paso de-
scendente descrito por n(: + 1) = n(:) jq (:) . se puede formular el algoritmo 1`o
como:
^ n(: + 1) = ^ n(:) + j: (:) c (:) (6.2)
donde j es la tasa de aprendizaje. El lazo de retroalimentacin en torno al vector de peso
^ n(:) . se emplea ^ n(:) en lugar de n(:) para enfatizar el hecho de que el algoritmo 1`o
produce un estimado del vector de pesos. La presencia de la retroalimentacin tiene un pro-
fundo impacto sobre el comportamiento de convergencia del algoritmo 1`o. Del algoritmo
126 Apndices
1`o 6.2 se puede observar que depende del trmino j. taza de aprendizaje y del vector
de entrada : (:) . de aqui se dedude que la convergencia del algoritmo 1`o depende del
vector de entrada : (:) y del valor asignado al parmetro de aprendizaje j. Un anlisis es-
tadistico del algoritmo LMS la cul est basada en la llamada teora de la independencia
(Widro et al. 1976), la cul asume que la taza de aprendizaje j es sucientemente pequea
tal que 1`o converge al valor promedio cuadrado, la taza de aprendizaje j satisface la
condicin:
0 < j <
2
`
n oa
Donde `
n oa
es el eigenvalor ms grande de una matriz de correlacin 1
a
, sin embargo en la
mayora de las aplicaciones `
n oa
no est disponible. Por lo que la traza de la matriz 1
a
se
puede tomar como un estimado de `
n oa
. por lo que la condicin anterior se puede reescribir
como:
0 < j <
2
1
v
[1
a
]
Por denicin la traza de una matriz cuadrada es igual a la suma de los elementos de su
diagonal. En trminos matemticos el algoritmo 1`o es ptimo de acuerdo a los criterios
de H
o
. Una de las principales limitaciones del algoritmo 1`o es que presenta una taza
de convergencia lenta y es muy sensible a las variaciones de los eigenvalores de la entrada.
El algoritmo 1`o requiere aproximadamente de un nmero de iteraciones 10 veces la
dimensin del espacio de entrada para alcanzar la condicin en estado estacionario. La taza de
convergencia lenta llega a ser un problema cuando la dimensionalidad del espacio de entrada
es grande. Hay que hacer notar que el algoritmo 1`o est diseado para una neurona lineal.
Las dicultades encontradas en el algoritmo 1`o se debe al hecho de que el parmetro de
aprendizaje se mantiene constante j (:) = j
0
\:. en cambio en una aproximacin estocstica
la taza de aprendizaje j es variante en el tiempo, descrita comnmente por:
j (:) =
c
:
donde c es una constante, lo cul es una eleccin suciente para garantizar la convergencia
en la aproximacin estocstica, como una alternativa a las ecuaciones anteriores se puede
6.2 B Algoritmo de aprendizaje 127
utilizar la expresin:
j (:) =
j
0
1 + (:,t)
Donde j
0
y t son constantes seleccionadas por el usuario. Con estas modicaciones el al-
goritmo opera como un aproximador estocstico tradicional y la convergencia de los pesos
llegan a ser ptimos.
6.2.2. Retropropagacin
La seal de error en la salida de la neurona , en la iteracin / est denido por:
c
)
(/) = d
)
(/)
)
(/)
Se dene el valor instantneo del error para la neurona , como
1
2
c
2
)
(/) . la suma de los errores
instantneos al cuadrado se formula como:
(:) =
1
2
|

)C
c
2
)
(/)
donde C es el conjunto de neuronas de salida, C = 1. . 2. .... | . El error promedio (c
o
)
se obtiene de promediar los errores instantneos correspondientes a los ` pares de entre-
namiento.

o
(:) =
1
`
.

I=1
(/)
El objetivo es minimizar
o
con respecto a los pesos. Se necesita calcular n
)i
(/) .
J (/)
Jn
)i
(/)
Por la regla de la cadena se tiene:
J (/)
Jn
)i
(/)
=
J (/)
Jc
)
(/)
Jc
)
(/)
J
)
(/)
J
)
(/)
J
)
(/)
J
)
(/)
Jn
)i
(/)
(6.3)
por lo que:

)
(/) =
j

i=0
n
)i
(/)
)
(/)
128 Apndices

)
(/) = ,(
)
(/))
Se denen los componentes de 6.3 como sigue:
J (/)
Jc
)
(/)
= c
)
(:) (6.4)
Jc
)
(/)
J
)
(/)
= 1
J
)
(/)
J
)
(/)
= ,
)
(
)
(/))
J
)
(/)
Jn
)i
(/)
=
)
(/)
Sustituyendo 6.4 en 6.3 se tiene:
J (/)
Jn
)i
(/)
= c
)
(/) ,
)
(
)
(/))
)
(/)
Perturbaciones e incertidumbres
Las consideraciones sobre sensibilidad son importantes en el diseo de sistemas de control,
ya que todos los elementos fsicos tienen la propiedad de cambiar con el ambiente y con el
tiempo, no se pueden considerar a los parmetros de un sistema de control completamente
estacionarios durante toda su vida de operacin, todos los sistemas fsicos estn sujetos a
seales externas ruido durante su funcionamiento. Una perturbacin es una seal que
tiende a afectar negativamente el valor de la salida de un sistema. Si la perturbacin se
genera dentro del sistema se denomina interna, en tanto que una perturbacin externa se
produce fuera del sistema es una entrada. En general, un buen sistema de control debe ser
insensible a la variacin de los parmetros pero sensible a los comandos datos de entrada.
El efecto de la realimentacin sobre el ruido y la perturbacin depende en mayor medida
en que parte del sistema se presentan las seales externas, en la mayoria de las ocasiones la
realimentacin puede reducir los efectos del ruido y las perturbaciones en el desempeo del
sistema.
6.2 B Algoritmo de aprendizaje 129
6.2.3. Consideraciones bsicas del algoritmo de aprendizaje
en esta seccin se analizan algunas mejoras del algoritmo de retropropagacin. Si se se-
lecciona un parmetro de aprendizaje j pequeo, entonces el ajuste a los pesos sinpticosque
se da de iteracin a iteracin ser pequeo, por lo tanto el aprendizaje es lento. De lo con-
tario si j se selecciona grande, entonces el aprendizaje ser rpido, pero existe la posibilidad
de que la red se vuelva inestable, se pueden presentar oscilaciones. Una forma sencilla de
incrementar el parmetro de la velocidad de apendizaje de modo que se evite la posibilidad
de inestabilidad consiste en modicar la regla delta, incluyendo un trmino de momento.
.
)i
(/) = c.
)i
(/ 1) +jo
)
(/)
i
(/)
Basndose en esta ecuacin, se pueden hacer los siguientes comentarios:
Para que la serie de tiempo converga es necesario que la constante de momento se
restringa a 0 _ c < 1 cuando c = 0 el algoritmo de retropropagacin opera sin
momento.
Es posible que el parmetro de velocidad de aprendizaje j sea dependiente de la conex-
in y de la iteracin j
)i
(/).
Para el caso de que se tengan algunos pesos jos se puede tomar j
)i
(/) = 0.
El algoritmo de retropropagacin se ha establecido como uno de los algoritmos ms pop-
ulares para el entrenamiento supervisado de redes neuronales tipo perceptrn multicapa.
Bsicamente es una tcnica de gradiente y no de optimizacin, tiene dos propiedades distin-
tivas:
Es fcil de calcular localmente.
Logra un gradiente descendiente estocstico.
Su complejidad computacional es lineal.
130 Apndices
Existen algunas heursticas que proveen una gua adecuada para acelerar la convergencia
del algoritmo de retropropagacin por medio de la tasa de aprendizaje:
Todos los parmetros ajustables de la red deben tener su propio parmetro de apren-
dizaje.
Todo parmetro de aprendizaje debe variar de una iteracin a otra.
Cuando la derivada de la funcin de costo con respecto a los pesos sinpticos tiene el
mismo signo algebraico para iteraciones consecutivas del algortimo, el parmetro de
aprendizaje se debe incrementar.
Cuando el signo algebraico de la derivada de la funcin de costo con respecto a los
pesos sinpticos tiene diferente signo para iteraciones consecutivas del algoritmo, el
parmetro de aprendizaje se debe de reducir.
Considerando estas heursticas, el algoritmo de retropropagacin ya no es ms un al-
goritmo de gradiente descendente, ahora los ajustes se basan en: derivadas parciales de la
supercie del error con respecto a los pesos; Estimados de la curvatura de la supercie del
error en el punto de operacin.
6.3. C. Esquemas de identicacin
En el estudio de los sistemas una de las primeras necesidades es la de obtener modelos.
Un modelo sintetiza el anlisis de las principales caracteristicas del sistema y de su precisin
depende la profundidad con la que se realiza. Para esto se deben detectar y determinar cules
son las variables del sistema ms relevantes y el tipo de interacciones causa-efecto que entre
ellas se producen.
Los modelos de identicacin son estructuras en las cules se ajustan sus parmetros con
el n de obtener una respuesta muy similar al del sistema en estudio, dentro de cierta zona de
operacin. En el desarrollo del presente captulo se busca interpretar la identicacin como la
6.3 C. Esquemas de identicacin 131
evolucin del concepto de aproximacin de funciones, y se describe como las redes neuronales
han proporcionado buenos resultados en este tipo de tareas, un comentario importante es
que la utilizacin de las redes neuronales estticas presenta las desventaja de crear modelos
secuenciales, entrenados en un esquema serie-paralelo, por lo que hace que el proceso de
ajuste de los pesos sea muy lento.
6.3.1. Aproximacin de funciones
Se puede considerar el problema de aproximacin de funciones como antecedente al de
identicacin de sistemas. El problema de aproximacin de funciones se divide en dos tipos:
En el primero, se supone que se conoce la expresin explcita de la funcin, y lo que
se busca es una estructura paramtrica que aproxime la funcin con algn grado de
precisin deseado.
En el segundo caso, el problema consiste en obtener una funcin que se ajuste a la
relacin entrada-salida existente en un conjunto nito de datos.
En el primer caso se busca representar cierta clase de funciones como una suma de
potencias a travs de manipular series geomtricas, como lo son las series de Mclaurin y de
Taylor. Este enfoque permite obtener versiones simplicadas de funciones, con el nico n
de ayudar al anlisis de los problemas y tambin para simplicar los clculos. En el segundo
caso est enfocado de manera experimental debido a que no se cuenta con una expresin
explcita de la funcin de la cul se desea obtener una aproximacin.
Se dene el problema de aproximacin de funciones de la siguiente manera [15]:
Denicin 6.2 Sea 1(:. o) una funcin de aproximacin no lineal ajustable. El vector
: = [:
1
. :
2
. .... :
a
]
T
es la entrada del aproximador y el vector o = [o
1
. o
2
. .... o
j
]
T
dene
sus parmetros, donde 1 es la funcin de aproximacin. Sea G(:. .) una funcin donde
: = [:
1
. :
2
. .... :
a
]
T
es la entrada y . = [.
1
. .
2
. .... .
a
]
T
es una entrada auxiliar para G. El
problema de la aproximacin de funciones se divide en dos etapas, en la primera parte se
132 Apndices
debe proponer una estructura para la funcin 1, y en la segunda parte se debe denir la
forma para ajustar el vector de parmetros o.
Para el caso de que no se conozca la funcin G de manera explcita, se dene el problema
de aproximacin de funciones de la siguiente manera:
Denicin 6.3 Supngase que en el i c:i:o experimento se tiene el vector de entrada:
: (i) = [:
1
(i) . :
2
(i) . .... :
a
(i)]
T
con el vector auxiliar:
. (i) = [.
1
(i) . .
2
(i) . .... .
a
(i)]
T
donde la salida est dada por:
(i) = G(: (i) . . (i))
debido a que no se conoce de manera explcita a G se puede conocer experimentando y
recolectando un conjunto de datos de entrada y salida. En la prctica se restringen estos
experimentos a un subconjunto o del espacio de entradas, : (i) o 1
a
y de forma similar
para la entrada auxiliar . (i) 2 1
a
.
El par (: (i) . (i)) es un dato de entrenamiento, al conjunto de datos de entrenamiento
de la forma:
. = [: (i) . (i) . .... : (`) . (`)]
en donde ` denota el nmero de pares de entrenamiento contenidos en .. El problema
de aproximacin de funciones consiste en hallar la forma de calcular el valor del vector de
parmetros o en 1(:. o) de tal forma que:
G(:. .) = 1(:. o) + c(:. .)
en donde c(:. .) es muy pequeo.
Un sistema dinmico puede ser descrito por dos tipos de modelos: modelos de entrada-
salida y modelos en el espacio de estados. A continuacin se describir cada uno de estos
modelos.
6.3 C. Esquemas de identicacin 133
6.3.2. Modelo de entrada-salida
El modelo de entrada-salida describe a un sistema basado nicamente en los datos de
entrada y salida que presenta. Para sistemas discretos, el modelo de entrada-salida puede ser
de tipo `1`A de tipo paramtrico Hammerstein [16]. En el modelo de entrada-salida
se asume que la salida del sistema puede ser calculada por sus entradas pasadas y por sus
salidas actuales. Para un sistema deterministico, invariante en el tiempo, con una entrada -
una salida, se tiene:

j
(/) = ,
_

j
(/ 1).
j
(/ 2). ....
j
(/ :).
n(/ 1). n(/ 2). .... n(/ :)
_
(6.5)
donde (n(/).
j
(/)) son los pares de entrada-salida del sistema discreto en /, : y : son enteros
positivos y denotan el nmero de entradas y salidas pasadas, : es el orden del sistema. En
la prctica, generalmente : es ms pequeo igual a :. , es una funcin no lineal. Si 6.5
es un sistema lineal, , es una funcin lineal y puede reescribirse como:

j
(/) = ,
_
c
1

j
(/ 1). c
2

j
(/ 2). .... c
a

j
(/ :).
/
1
n(/ 1). /
2
n(/ 2). .... /
n
n(/ :)
_
(6.6)
donde c
i
, i = 1. 2. .... : y /
)
, , = 1. 2. .... : son constantes con valores reales.
La ecuacin 6.5 puede ser representado por el diagrama a bloques de la gura 6.2. Se
puede observar en la gura que cuando los datos de entrada-salida son usados, el sistema
dinmico est denido por la funcin , () y los enteros : y :. Si : y : estn dados, la
tarea consiste en encontrar la funcin , (), para sistemas invariantes en el tiempo , () ser
constante. De acuerdo a la conguracin de identicacin de sistemas, se pueden presentar
dos estructuras de identicacin: estructura paralela y estructura serie-paralela.
En la estructura paralela, la red neuronal y el sistema reciben las mismas entradas ex-
ternas, las salidas del sistema no son usadas como entradas a la red. El sistema y la red
neuronal son dos procesos independientes los cules presentan las mismas entradas externas
y la salida de cada una de ellas no interere una con la otra, es decir, presentan salidas
independientes, como se observa en la gura 6.3.
134 Apndices
1
z

1
z

1
z

( ) f
M
1
z

M
1
z

( ) 1
p
y k +
( ) u k
( )
p
y k
1
z
1
z

1
z
1
z

1
z
1
z

( ) f
M
1
z
1
z

M
1
z
1
z

( ) 1
p
y k +
( ) u k
( )
p
y k
Figura 6.2: Modelo entrada-salida.
En la estructura serie-paralela la red y el sistema reciben las mismas entradas externas,
pero la salida del sistema forma parte de las entradas a la red, el sistema y la red no son
procesos independientes, el comportamiento dinmico de la red es afectado por las salidas
del sistema, esto se puede observar en la gura 6.4.
Cuando los modelos paralelo y serie-paralelo son utilizados para la identicacin, se asume
que los sistemas presentan entradas y salidas acotadas, sin embargo la estructura paralela no
garantiza que el proceso de aprendizaje de los pesos converga o que el error entre la salida
del sistema y de la red tiendan a cero.
6.4. D Estabilidad
Se considera una ecuacin diferencial ordinaria nolineal (C11) en tiempo contino:
_ r (t) = , (r (t)) (6.7)
con el estado r R
a
.
Para el estado inicial r R
a
en el tiempo inicial t = 0. se denota la solucion de (6.7) por
,(t. r) .i.e:
6.4 D Estabilidad 135
( ) f
M
M
( ) 1
p
y k +
( ) u k
( ) p
y k
1
z

1
z

1
z

1
z

RN
M
M
1
z

1
z

1
z

1
z

( ) u k
( ) 1 e k +
+
-
( ) e
1
r d
y k +
( ) red
y k
( ) f
M
M
( ) 1
p
y k +
( ) u k
( ) p
y k
1
z
1
z

1
z
1
z

1
z
1
z

1
z
1
z

RN
M
M
1
z
1
z

1
z
1
z

1
z
1
z

1
z
1
z

( ) u k
( ) 1 e k +
+
-
( ) e
1
r d
y k +
( ) red
y k
Figura 6.3: Identicacin con estructura paralela.
r (t) = ,(t. r) es la solucion de C11 (6.7).
,(0. r) = r
Se asume la unicidad de ,(t. r) sobre un intervalo y que 0 es un estado de equilibrio para
C11 (6.7), i.e. , (0) = 0.
La C11 es llamada estable asintticamente globalmente (Go) si para todos los
valores iniciales r R
a
se tiene:
Estabilidad: para todo c 0 existe o 0 con
|r| < o =|,(t. r)| < c
para todo t _ 0.
Globalmente atractivo: para todo c 0 y : 0 existe 1 0 con
|r| < : =|,(t. r)| < c
136 Apndices
( ) f
M
M
( ) 1
p
y k +
( ) u k
( )
p
y k
1
z

1
z

1
z

1
z

RN
M
M
1
z

1
z

1
z

1
z

( ) u k
( ) 1 e k +
+
-
( )
e
1
r d
y k +
( ) f
M
M
( ) 1
p
y k +
( ) u k
( )
p
y k
1
z
1
z

1
z
1
z

1
z
1
z

1
z
1
z

RN
M
M
1
z
1
z

1
z
1
z

1
z
1
z

1
z
1
z

( ) u k
( ) 1 e k +
+
-
( )
e
1
r d
y k +
Figura 6.4: Identicacin serie-paralela.
para todo t _ 1.
Ms convenientemente se pude denir la estabilidad asinttica globalmente mediante la
comparacin de funciones, para esto es necesario que denamos algunas clases de funciones
que nos sern de gran utilidad.
Denicin 6.4 Funcin clase /. Si una funcin continua () : [0. c) [0. ) es estric-
tamente creciente con (0) = 0. () es llamada una funcin clase /.
Denicin 6.5 Si (:) es una funcin clase /, y adems no est acotado, i.e. |i:
co
(:) =
se dice que (:) pertenece a la clase /
o
.
Denicin 6.6 Funcin clase //. Una funcin contina , (:. t) : [0. c) [0. ) [0. )
es llamada una funcin clase // si el primer argumento de la funcin , (:. ) es clase /, y
el segundo argumento de la funcin , (. t) es estrictamente decreciente y |i:
to
, (. t) = 0 .
6.4 D Estabilidad 137
0 10 20 30 40 50 60 70 80 90 100
0
1000
2000
3000
4000
5000
6000
7000
8000
9000
10000
Funcin clase K-infinito
0 5 10 15 20 25 30 35 40 45 50
0
0.05
0.1
0.15
0.2
0.25
0.3
0.35
0.4
Funcin clase KL
0 10 20 30 40 50 60 70 80 90 100
0
0.5
1
1.5
2
2.5
3
3.5
4
4.5
5
Funcin clase K
a) b)
c)
Figura 6.5: Tipos de funciones: a) clase k, b) clase k-innito, c) clase kl
La ODE (??) es asintticamente estable globalmente si existe una funcin , // tal
que:
|,(t. r)| _ , (|r| . t)
permanece para todo r R
a
. t _ 0.
La comparacin de funciones entre la solucin de (6.7) y la funcin , de clase // se
muestra en la gura 6.6, esto mantiene la estabilidad asinttica globalmente de (6.7).
Una vez que se conoce el segundo mtodo de Lyapunov, se introduce ahora las deniciones
y conceptos de la estabilidad entrada-estado (1oo), el cul es una extencin de la estabilidad
asinttica globalmente del sistema (6.7), sea el sistema no lineal:
_ r (t) = , (r (t) . n(t)) (6.8)
donde n(t) R
n
es la entrada perturbacin del sistema y la salida son los estados r R
a
.
138 Apndices
t
(0,0)
(),t x
(),x t
Figura 6.6: asintticamente estable globalmente mediante comparacin de funciones
Para los valores iniciales r
0
R
a
con el tiempo inicial t = 0, n(t) debe ser medible y acotada,
i.e. n(t) 1
o
. La solucin de (6.8) est dada por:
,(t. r. n) (6.9)
1oo requiere que el sistema con entrada permanezca Go sobre un trmino de error depen-
diendo del tamao de la perturbacin n(t) medida con:
|n|
o
:= c::
t0
sup |n(t)|
El sistema es llamado 1oo, si existe una funcin , // y una funcin /
o
tal que
para todos los valores iniciales de r, todas las perturbaciones n en todo el tiempo t _ 0 la
siguiente desigualdad permanece:
|,(t. r. n)| _ max [, (|r| . t) . (|n|
o
)] (6.10)
La gura 6.7, muestra gracamente la ecuacin (6.10).
Ya que la solucion de (6.8) est dada por ,(t. r. n) . esta depende de n(t) para t [0. t]
se puede deducir una desigualdad mas fuerte:
|,(t. r. n)| _ max
_
, (|r| . t) .
__
_
n[
[0,t]
_
_
o
_
6.4 D Estabilidad 139
t
(0,0)
(),t x
(),x t
t
(0,0)
(),t x
(),x t
()w
()w
Figura 6.7: Estabilidad ISS
donde n[
[0,t]
(t) :=
_
n(t) . t [0. t]
0. t , [0. t]
. Observando a , y separadamente, se identican
dos componentes:
Go: asintticamente estable globalmente para n = 0.
|,(t. r. 0)| _ , (|r| . t)
Ganancia asinttica: La solucin estn acotados en ltima instancia por (|n|
o
)
lm
to
sup |,(t. r. n)| _ (|n|
o
)
es un hecho que es 1oo ==Go y ganancia asinttica ("="no es tan trivial).
Si se considera un sistema lineal
_ r (t) = r (t) + 1n (t)
con matrices y 1 de dimensiones apropiadas.
Hecho 1: Go = es Hurwitz, i.e. :cr
A eigenvalor de
1c (`) < 0 =
_
_
c
t
_
_
_ Cc
ot
. con
o 0.
Hecho 2: ,(t. r. n) = c
t
r +
t
_
0
c
(tc)
1n (:) d: = |,(t. r. n)| _ , (|r| . t) + (|n|
o
)
para , (:. t) = Cc
ot
: y (:) = |1|
o
_
0
_
_
c
c
_
_
d:: 1oo.
140 Apndices
Para sistemas lineales Go =1oo.
Para sistemas no lineales esto no se cumple: considere la ecuacin:
_ r = n :ct (r)
donde :ct (r) =
_

_
1. r 1
r. r [1. 1]
1. < 1
. El sistema es Go con entrada 0, pero para n(t) = 2 y
r = 1 se obtiene la solucin:
,(t. r. n) = 1 +t
el cul no es acotado, y la 1oo no permanece. la 1oo es mas fuerte que Go.
6.4.1. Funcin de Lyapunov
La Go puede ser caracterizada mediante una funcin de Lyapunov. Una C11 es Go si
y solamente si existe una funcin suave de Lyapunov \ : R
a
R y las funciones c
1
. c
2
1
o
.
c
3
/ tal que:
c
1
(|r|) _ \ (r) _ c
2
(|r|)
y
1\ (r) , (r) _ c
3
(|r|)
permanece para todo r R
a
. Donde
o
oa
\ (,(t. r)) = 1\ (,(t. r)) , (,(t. r)) _ c
3
(|,(t. r)|)
implica que \ (,(t. r)) es estrictamente decreciente y que tiende a 0.
Un sistema es 1oo si y solo si existe una funcin 1oo de Lyapunov \ : R
a
R y las
funciones c
1
. c
2
. c
4
1
o
. c
3
/ tal que:
c
1
(|r|) _ \ (r) _ c
2
(|r|)
y |n| _ c
4
(|r|) =
1\ (r) , (r. n) _ c
3
(|r|)
permanece para todo r R
a
. n R
n
. De manera resumida podemos decir que:
6.4 D Estabilidad 141
1oo es una generalizacin de Go para sistemas lineales perturbados
1oo combina Go con entrada 0 y ganancia asinttica
Para sistemas lineales 1oo es equivalente a Go con entrada 0, pero no se cumple
para sistemas lineales
1oo puede ser caracterizado mediante las funciones 1oo de Lyapunov (si y solo si)
Todas estas caractersticas se extienden para sistemas discretos.

You might also like