You are on page 1of 3

Introducción

La Inteligencia Artificial es la disciplina que estudia la forma de diseñar procesos


que exhiban características que comúnmente se asocian con el comportamiento
humano inteligente [García Martínez, 1997]. La Inteligencia Artificial sintetiza y
automatiza tareas intelectuales y es, por lo tanto, potencialmente relevante para
cualquier ámbito de la actividad intelectual humana [Russell y Norving, 2004].
Actualmente esta ciencia está comprendida por varios subcampos que van desde
áreas de propósito general, como el aprendizaje y la percepción, a otras más
específicas como la demostración de teoremas matemáticos, el diagnostico de
enfermedades, etc. Uno de los modelos que ha surgido para emular el proceso de
aprendizaje es la red neuronal artificial. Las redes neuronales son modelos que
intentan reproducir el comportamiento del cerebro humano [Hilera y Martínez,
1995]. Una red neuronal consiste en un conjunto de elementos de procesamiento,
llamados neuronas, los cuales se conectan entre sí [Koehn, 1994]. La
organización y disposición de las neuronas dentro de una red neuronal se
denomina topología, y viene dada por el número de capas, la cantidad de
neuronas por capa, el grado de conectividad, y el tipo de conexión entre neuronas.
Una vez determinada la topología de la red neuronal es necesario entrenarla. En
la etapa de entrenamiento la red es capaz de aprender relaciones complejas entre
entradas y salidas mediante el ajuste de los pesos de las conexiones entre
neuronas. Widrow y Lehr [Lehr y Widrow, 1990] identifican una cantidad
significativa de algoritmos de entrenamiento. La mayoría de éstos utilizan
información del gradiente de una función de error para ajustar los pesos de las
conexiones, y se los llaman algoritmos de gradiente descendente [Porto, 1998]
Las redes neuronales artificiales han sido aplicadas con éxito en gran cantidad de
problemas como por ejemplo reconocimiento de patrones, clasificación, visión,
control, predicción, etc. [Zilouchian, 2001]. Sin embargo, los algoritmos de
gradiente descendente poseen dos problemas. Primero, suelen quedar atrapados
en mínimos locales, generándose de esta manera estimaciones subóptimas de los
pesos. Segundo, suelen ser muy lentos por utilizar pasos infinitesimales para
alcanzar la solución. Los algoritmos evolutivos, dentro de los cuales los algoritmos
genéticos son los más conocidos, son una familia de modelos computacionales
inspirados en la evolución y la supervivencia del más apto [Bäch, et. al., 1991;
Ömer, 1995; Whitley, 2001]. Se utilizan fundamentalmente en la resolución de
problemas de búsqueda y de optimización [Holland, 1975]. El verdadero poder de
estos algoritmos radica en la búsqueda simultánea de la solución en un conjunto
de posibles soluciones (individuos). Buscan una solución del problema
reproduciendo genéticamente una población de individuos a lo largo de una serie
de generaciones [Koza, 1997].

1
El perceptrón (Perceptron en inglés) fue el primer modelo de Red Neuronal
Artificial supervisada. Es la más simple de las Redes neuronales.

Las principales limitaciones del perceptrón son que sirve únicamente para
problemas linealmente separables y que sean de dos clases. Hablando
vulgarmente, esto quiere decir que el perceptrón sólo lo podemos usar cuando el
problema sea distinguir entre una de dos posibles clases y, que trazando una
línea, plano o hiperplano en un plano o hiperplano, se puedan separar
perfectamente estas dos clases.

Por ejemplo, supongamos que tenemos un problema de dos dimensiones (o sea,


dos características) y con dos diferentes grupos que pertenecen a la clase A y a la
clase B.
El perceptrón es una neurona con una función de transferencia escalón y un
mecanismo de ajuste de pesos (aprendizaje) que compara la salida real, yd con la
respuesta de salida de la red, y, para cualquier entrada o estímulo dado.
 Los Perceptrones son bien definidos para reconocimiento/clasificación de
patrones.
 El mecanismo de ajuste de pesos se llama regla de aprendizaje del
perceptrón.
La única neurona de salida del Perceptrón realiza la suma ponderada de las
entradas, resta el umbral y pasa el resultado a una función de transferencia de tipo
escalón. La regla e decisión es responder +1 si el patrón presentado pertenece a
la
clase A, o –1 si el patrón pertenece a la clase B la salida depende de la entrada
neta (n = suma de las entradas xi ponderadas).

El algoritmo Backpropagation
El algoritmo backpropagation es el método de entrenamiento más utilizado en
redes con conexión hacia delante. Es un método de aprendizaje supervisado de
gradiente descendente, en el que se distinguen claramente dos fases: primero se
aplica un patrón de entrada, el cual se propaga por las distintas capas que
componen la red hasta producir la salida de la misma. Esta salida se compara con
la salida deseada y se calcula el error cometido por cada neurona de salida. Estos
errores se transmiten hacia atrás, partiendo de la capa de salida, hacia todas las
neuronas de las capas intermedias [Fritsch, 1996]. Cada neurona recibe un error
que es proporcional a su contribución sobre el error total de la red. Basándose en
el error recibido, se ajustan los errores de los pesos sinápticos de cada neurona.

2
3

You might also like