Professional Documents
Culture Documents
Integrantes:
Amado Ramirez, Carlos Santiago
Cueto Villanueva, Carlos Ferdie
Curso:
Docente:
Ciclo:
Ao:
2014
Pucallpa - Per
Algoritmos neuronales
Adaline y madaline
Introduccin e Historia
Desde hace miles de aos se ha estudiado el cerebro humano con el fin de modelar su
funcionamiento, pero fue con el avance de la electrnica que esta idea tom fuerza.
El primer paso se dio en 1943 con el neurofisilogo Warren McCulloch y el matemtico
Walter Pitts quienes escribieron un documento en el cual explicaban el posible
funcionamiento de las neuronas e hicieron un modelo simple de una red neuronal con
circuitos elctricos.
En 1949, Donald Hebb apoya el concepto de neurona y su funcionamiento escribiendo
un libro titulado The Organization of Behavior en el cual comenta la actividad
existente en las neuronas cada vez que son usadas.
En la dcada de 1950, con el avance de las computadoras, se hizo posible simular una
red neuronal. Nathanial Rochester, de los laboratorios de investigacin de la IBM, dio el
primer paso en la simulacin de la red neuronal, pero desafortunadamente fracaso.
Posteriormente se hicieron otras simulaciones ya con xito.
En 1959, Bernard Widrow y Marcian Hoff de la universidad de Stanford desarrollaron
un modelo llamado ADALINE y MADALINE. ADALINE proviene de ADAptive
LINear Element y MADALINE de Multiple ADAptive LINear Element (Many
Adalines).
ADALINE fue desarrollado para el reconocimiento de patrones binarios, por ejemplo
predecir el siguiente bit en una lnea telefnica. En la figura 1 podemos observar la
representacin de una ADALINE y su analoga con una Neurona.
ADALINE funciona tomando la suma de los pesos de las entradas y produce una salida
con 0 o 1 dependiendo si pasa o no un umbral, esto haciendo analoga al
Algoritmo de Entrenamiento
El entrenamiento del ADALINE est basado en la regla LMS (Least Mean Square) que
busca minimizar el error cuadrtico medio por medio de la regla delta.
Dado un vector de entrada (x0, ..., xn) donde x0 =1, el correspondiente valor de pesos
(w0, ..., wn) y el valor deseado de salida d, el error cuadrtico es el siguiente:
n
E d (t ) Wi (t ) X i (t )
i 1
El objetivo del mtodo es minimizar dicho error mediante la modificacin del vector de
pesos (w0, ..., wn
w de tal forma que nos acerquemos al error mnimo
en la direccin del gradiente negativo, es decir, lo ms rpidamente posible.
El procedimiento de derivacin se presenta a continuacin:
E d (t ) 2d (t ) Wi (t )X i (t ) Wk (t )X k (t )
i 1
k 1
n
E
2d (t ) Wk (t )X k (t ) X i (t )
Wi
k 1
Por lo que el error local ser reducido ms rpidamente si se ajustan los pesos de
acuerdo a la regla delta:
n
W1 (t 1) d (t ) Wk (t ) X k (t ) X i (t )
k 1
= -1 s a<=0
4. Adaptar los pesos
n
wi (t 1) wi (t ) * d (t ) wk (t ) * xk (t ) * xi (t )
k 0
es la tasa de aprendizaje
5. Repetir los pasos 2 a 4 hasta que las salidas reales y las deseadas sean iguales para
todos los vectores del conjunto de entrenamiento
Consta de una capa de ADALINES y una funcin de mayora cuya respuesta binaria
depende de las respuestas de las ADALINES.
El algoritmo de entrenamiento es el siguiente.
1. Inicializar pesos (w1, ..., wn) y threshold (w0)
2. Presentar vector de entrada (x1,...,xn) y la salida deseada dk(t)
3. Calcular la salida
yk (t ) Fh wki (t ) * xi (t )
i 0
6. Repetir los pasos 2 a 5 hasta que las salidas reales y las deseadas sean iguales para
todos los vectores del conjunto de entrenamiento
Ntese que se utiliza la misma regla delta que en el entrenamiento de ADELINES, ya
que los pesos modificados corresponden a estas ltimas.
El inconveniente de la MADALINE es que el proceso de entrenamiento es muy lento
pues se modifican una sola ADALINE en cada iteracin
Cuando los datos llegan a la ltima de las capas , llamada " capa de salida " el valor
resultante es tomado como el resultado de la red. La red puede ser entrenada para
diversos usos, entre ellos como mecanismo de optimizacin. En este sentido, se puede
expresar que seran un modelo alternativo competitivo con los algoritmos genticos, si
se las programara para este fin. En rigor de verdades, la literatura sugiere que se podran
hacer modelos mixtos o hbridos en donde se combinen las ventajas de las redes
neuronales y los algoritmos genticos, aunque hay muy poco material disponible en este
campo. Tal vez esto se deba al hecho que los GA y el estudio de las redes forman dos
ramas o escuelas separadas dentro de la inteligencia artificial, por lo que existe una
preferencia en los investigadores en perfeccionar alguno de los dos modelos antes que
tratar de unirlos.
Codificacin
Se supone que los individuos (posibles soluciones del problema), pueden
representarse como un conjunto de parmetros (que denominaremos penes), los
cuales agrupados forman una ristra de valores (a menudo referida como cromosoma).
Si bien el alfabeto utilizado para representar los individuos no debe necesariamente
estar constituido por el (0, l), buena parte de la teora en la que se fundamentan los
Algoritmos Genticos utiliza dicho alfabeto. En trminos biolgicos, el conjunto de
parmetros representando un cromosoma particular se denomina fenotipo. El
fenotipo contiene la informacin requerida para construir un organismo, el cual se
refiere como genotipo. Los mismos trminos se utilizan en el campo de los Algoritmos
Genticos. La adaptacin al problema de un individuo depende de la evaluacin del
genotipo. Esta ltima puede inferirse a partir del fenotipo, es decir puede ser
computada a partir del cromosoma, usando la funcin de evaluacin. La funcin de
adaptacin debe ser diseada para cada problema de manera especfica. Dado un
cromosoma particular, la funcin de adaptacin le asigna un nmero real, que se
supone refleja el nivel de adaptacin al problema del individuo representado por el
cromosoma.
Durante la fase reproductiva se seleccionan los individuos de la poblacin para
cruzarse y producir descendientes, que constituirn, una vez. mutados, la siguiente
generacin de individuos.
Ambos descendientes heredan genes de cada uno de los padres. Este operador se
conoce como operador de cruce basado en un punto. Habitualmente el operador de
cruce no se aplica a todos los pares de individuos que han sido seleccionados para
emparejarse, sino que se aplica de manera aleatoria, normalmente con una
probabilidad comprendida entre 0.5 y 1.0. En el caso en que el operador de cruce no
se aplique, la descendencia se obtiene simplemente duplicando los padres.
El operador de mutacin se aplica a cada hijo de manera individual, y consiste en la
alteracin aleatoria (normalmente con probabilidad pequea) de cada gen
componente del cromosoma.
La Figura 3 muestra la mutacin del quinto gen del cromosoma. S bien puede en
principio pensarse que el operador de cruce es ms importante que el operador de
mutacin, ya que proporciona una exploracin rpida del espacio de bsqueda, ste
ltimo asegura que ningn punto del espacio de bsqueda tenga probabilidad cero de
ser examinado, y es de capital importancia para asegurar la convergencia de los
Algoritmos Genticos.