Professional Documents
Culture Documents
Diomer D. Giraldo Ramrez, Esteban Lozada Giraldo, Juan Diego Jimnez Vargas
diomergiraldo@hotmail.com, lozadagiraldo.esteban111@gmail.com,
juandijim@outlook.com
Escuela de ingeniera de Antioquia (EIA). Medelln, Colombia
Abstract. this article attempts approaching two of the many existing models of Artificial Neural Networks (ANN), comparing different parameters of the ANN and showing
each equation, all applied to a binary decoder 9 bits. The 2 neural models tested were
multiadaptive lnear (Madaline) and radial basis neural network (RBN networks),
training these with 50% of the data, leaving the remaining 50% for validation, yielding
results in the ANN Madaline with sigmoidal activation function and learning time gave
the lowest mean square error (ERS) among tested with a value of 0.01.
Keywords -- Neural Network, Madaline, Radial Basis.
INTRODUCCIN
Las redes neuronales surgieron a partir del desarrollo de la inteligencia computacional con mtodos subsimbolicos e inductivos que extraen la informacin necesaria
para resolver un problema. 1 ste mtodo est inspirado en redes neuronales biolgicas
con el objetivo de entender el cerebro humano.
Las redes neuronales artificiales (RNA) son un mtodo donde sus principales caractersticas estn dadas por el aprendizaje, stas adquieren el conocimiento por medio del estudio y a su vez cambian su comportamiento en relacin al entorno. Por
medio de la generalizacin, ampla su conocimiento debido a su propia estructura y
por ltimo, caracteriza por separado las cualidades de un objeto2.
Las RNA funcionan de manera semejante a las redes biolgicas; comenzando con
el procesamiento de datos, es decir las conexiones de entradas (neuronas), se da una
propagacin por medio de seales transferidas entre neuronas, mediante enlaces sinpticos. Cada conexin tiene un peso asociado y el ncleo central del proceso es
donde se realiza la funcin de activacin, para luego determinar su salida.
El convertir un espacio de entrada en un espacio de salida deseado ha generado
grandes problemas en las RNA, por lo tanto se han desarrollado diversos modelos de
RNA en busca de nuevas aproximaciones para mltiples casos. A lo largo de la historia, mltiples autores se han pronunciado acerca de los sistemas conexionistas y la
persepctiva de las redes neuronales artificiales; algunos de ellos son: Warren McCulloch, Walter Pitts, Frank Rosenblat John Hopfield, entre otros.
McCulloch y Pitts presentaron, en la segunda mitad de los aos 50, la primera red
neuronal una unidad bajo la nueva perspectiva de construccin de mquinas inteligentes por medio de arquitectura computacional con cierta semejanza a las redes neuronales del cerebro. En oposicin a lo anterior, Frank Rosenblatt cre la red conocida
como Perceptrn en 1957, el cual es un sistema clasificador de patrones que puede
identificar patrones geomtricos y abstractos.3 Este modelo tuvo ciertas limitaciones
que fueron expuestas por Minsky y Papert, quienes resaltaron la incapacidad del Perceptrn para resolver tareas o problemas sencillos como la funcin lgica OR exclusivo. Luego, en 1959, Bernard Widrow desarroll un RNA llamado Adaline (Adaptive Linear Neuron)4 junto con una versin de dos capas conocida como Madaline, las
cuales fueron utilizadas diversas tareas como el control adaptativo, reconocimiento de
voz y filtros adaptativos para la eliminacin de ecos en las redes telefnicas. Por ltimo, es importante mencionar el algoritmo de Backpropagation tambin conocido
como regla delta generalizada o mtodo gradiente decreciente, el cual fue inventado
1
2
3
4
(in chaos)
(Olabe)
(MORENO, 2002)
(Universidad Tecnolgica de Pereira, 200)
METODOLOGA
Para desarrollo de la prctica descripta de un decodificador de 9 bits y se debe tener presente realizar los siguientes procedimientos
Construir la base de datos acorde al decodificador propuesto
Normalizar los datos entradas y de salida por algunos de los mtodos como normalizacin mxima, centedecimal o lineal
Disear los modelos neuronales basados en la construccin de RNA
Dividir los datos una para el aprendizaje de la red neuronal y la otra parte para el
pronstico.
Para realizar este proyecto, se construye una base de datos en Microsoft Excel que
nos permite realizar el proceso de aprendizaje por medios de los principios de inteli5
(MORENO, 2002)
4
4.1
ANLISIS DE RESULTADOS
A continuacin, se presentan las ecuaciones de actualizacin de los pesos que dieron cada uno de los modelos.
Modelo MADALINE
(1)
(2)
(3)
Funcin de activacin
(4)
Desarrollo
(5)
(6)
(7)
se procede
(8)
(9)
(10)
(11)
Para las RNBR se tienen tres grupos de parmetros (13), (14) y (15)
(12)
(
(13)
(14)
(15)
Derivando la ecuacin (3)
(16)
(17)
Reemplazando las ecuaciones (3), (16) y (17) en (13) se obtiene
(18)
(
)
)
(19)
4.2
)
)
Para cada uno de los modelos neuronales enunciados, y con base a los parmetros
para el aprendizaje, se seleccion el factor de aprendizaje y nmero de neuronas o
radio de la base ptimo para cada modelo de la funcin.
Esta seleccin fue realizada teniendo en cuenta el ltimo valor de la grfica ERS
luego de un nmero fijo de iteraciones.
En la siguiente tabla se muestra el ltimo valor de ERS obtenido para cada modelo, el factor de aprendizaje, nmero de neuronas y el nmero de iteraciones de la red.
Table 1. Seleccin del factor de aprendizaje y nmero de neuronas ocultas ptimo basado del
ERS del modelo MADALINE
Modelo
Red
neuronal
MADALINE
Neuronas
Ocultas
10
6
2
8
6
4
6
8
10
8
4
10
Nmero
de iteraciones
9
8
8
9
4
10
8
9
10
9
8
9
Factor de
aprendizaje
0,02
0,02
0,02
0,03
0,03
0,03
0,035
0,035
0,04
0,04
0,04
0,045
ERS
20,982
13,3307
29,571
13,4692
10,3376
21,7641
20,9256
22,3446
4,4152
16,8131
26,8549
9,8637
Table 2. Seleccin del factor de aprendizaje y nmero de neuronas ocultas ptimo basado del
ERS del modelo MADALINE con funcion de activacion tangente hiperbolica.
Modelo
Neuronas
Ocultas
10
8
6
4
10
8
6
10
8
6
Red
neuronal
MADALINE
con
funcin de
activacin
tangente
hiperblica
Nmero
Factor de
de
aprendizaje
iteraciones
9
0,09
8
0,09
7
0,09
7
0,09
7
0,095
6
0,095
9
0,095
10
0,08
10
0,08
7
0,08
ERS
13,8088
16,6458
14,6395
17,0695
17,3444
14,2961
25,7545
12,7104
11,4547
12,7881
Table 3. Seleccin del factor de aprendizaje y nmero de neuronas ocultas ptimo basado del
ERS del modelo MADALINE con momento de aprendizaje.
Modelo
Neuronas
Ocultas
Red
neuronal
MADALINE
con factor
de
momento
10
8
6
10
6
2
10
6
Momento
Nmero
Factor de
de
de
aprendizaje
aprendizaje iteraciones
0,1
0,1
0,1
0,1
0,1
0,1
0,1
0,1
10
10
8
7
6
9
10
10
0,04
0,04
0,04
0,03
0,03
0,03
0,02
0,02
ERS
0,0154
6,4847
7,2354
7,87
5,2294
33,4088
6,4845
14,7108
Table 3. Seleccin del factor de aprendizaje y el radio de la base radial ptimo basado del ERS
del modelo de la red de base radial con activacion gaussiana
Modelo
Red de
base radial
con
activacin
gaussiana
ERS
10
8
10
2
6
6
8
10
10
7
10
10
20
10
0,4
0,3
0,2
0,6
0,6
0,6
0,6
6,6680
8,4729
9,1908
14,3069
4,4706
1,4564
9,5559
10
10
0,6
4,8322
Table 5. Seleccin del factor de aprendizaje y el radio de la base radial con activacion
cuadratica inversa ptimo basado del ERS del modelo de la red de base radial con activacion
gaussiana.
Modelo
Red base
radial con
activacin
cuadrtica
inversa
10
10
10
10
10
10
10
10
10
10
0,09
0,2
0,3
0,6
0,7
0,9
0,7
0,7
0,7
0,7
ERS
49,9459
6,302
8,8804
6,9233
3,4946
4,3675
2,807
4,732
3,2467
3,1785
4.3
Fig. 1. Grfica red MADALINE del valor ERS respecto a las iteraciones.
Fig. 2. Grfica red MADALINE del valor ERS respecto a las neuronas ocultas
Con estas dos graficas se observa que a medida que se aumenta el nmero de neuronas ocultas el error en la red neuronal tiende a disminuir.
En este caso se observa que se encontr un valor ptimo de neuronas ocultas, pues
valores por encima o por debajo de este aumentan el error.
Fig. 7. Grfica red neuronal de base radial con activacin gaussiana del valor ERS respecto a
las iteraciones
Fig. 8. Grfica red neuronal de base radial con activacin gaussiana del valor ERS respecto a
las neuronas ocultas con igual de iteraciones para cada caso.
Fig. 10. Grfica del valor ERS respecto al radio con igual de iteraciones para cada caso.
CONCLUSIONES
-Al aplicar el momento de aprendizaje o razn de aprendizaje a la ecuacin de actualizacin de los pesos sinpticos en funcin del error, de la RNA Madaline. Se observ una mejora notable en la reduccin del error esto gracias a que actualiza la
ecuacin actual con la anterior, haciendo que su aprendizaje sea ms rpido y efectivo.
- Las redes neuronales Madaline, con funcin de activacin sigmoidal con valores
de 0 a 1 demostraron ser las ms funcionales para este tipo de aplicaciones de decodificador pues, como se observ en la grfica de la Madaline con funcin de activacin
tangente hiperblica, su error empieza en valores muy elevados, y lo que alcanza a
bajar el error no iguala la primera funcin de activacin probada, esto se puede explicar por los valores con los que trabajan cada una de ellas pues la inversa de Euler
trabaja con los valores normalizados, tal y como se tomaron la salida de la red neuronal
.
-En las RNBR aunque hacen el recorrido de entrenamiento ms rpido que las Madaline, pues su espacio de solucin est acotado, la red neuronal no se actualiza tan
bien como la Madaline y sus errores nunca llegan a ser tan bajos como los logrados
por la Madaline.
-En las RNBR al momento de graficar el error, sin importar los parmetros ingresados, la grfica se comportaba como una exponencial negativa, en cambio la Madaline
puede presentar algunos saltos en su grafica del error, esto puede verse como que el
control de los RNBR pueden ser ms estables en comparacin con las Madaline.
6. REFERENCIAS
in chaos. (s.f.). Redes Neuronales Artificiales. Recuperado el 30 de Agosto de 2014,
de http://magomar.webs.upv.es/rna/tutorial/RNA_marcos.html
MORENO, J. J. (2002). Redes Neuronales Artificiales aplicadas al Anlisis de Datos.
Recuperado
el
30
de
Agosto
de
2014,
de
http://www.tdx.cat/bitstream/handle/10803/9441/tjjmm1de1.pdf?sequence=1
Olabe, X. B. (s.f.). REDES NEURONALES ARTIFICIALES Y SUS APLICACIONES.
Recuperado
el
30
de
Agosto
de
2014,
de
http://cvb.ehu.es/open_course_ware/castellano/tecnicas/redes_neuro/conteni
dos/pdf/libro-del-curso.pdf
Universidad Tecnolgica de Pereira. (200). Recuperado el 30 de Agosto de 2014, de
http://medicinaycomplejidad.org/pdf/redes/Perceptron.pdf
Pedro Isasi Viuela, I. M. (2004). Redes de Neuronas Artificiales Un Enfoque
Prctico. Madrid: PEARSON.