You are on page 1of 2

Perceptrón

Es un tipo de red neural artificial. También puede entenderse como perceptrón la


neurona artificial y unidad básica de inferencia en forma de discriminador lineal.
Éste consiste en una suma de las señales de entrada, multiplicadas por unos
valores de pesos escogidos inicialmente en forma aleatoria. En una fase en la que
éste aprende, la entrada se compara con un patrón preestablecido para
determinar la salida de la red. Si en la comparación la suma de las entradas
multiplicadas por los pesos es mayor o igual que el patrón preestablecido, la salida
de la red es uno (1); en caso contrario la salida es cero (0). El perceptrón es un
dispositivo que, en su configuración inicial, no está en capacidad de distinguir
patrones de entrada muy complejos, sin embargo, mediante un proceso de
aprendizaje es apto para adquirir esta capacidad.
En esencia, el entrenamiento implica un proceso de refuerzo a través del cual los
pesos que codifican las sinapsis se incrementan o se disminuyen.
En la figura 2 se representa una neurona “artificial”, la cual intenta modelar el
comportamiento de la neurona biológica. Aquí el cuerpo de la neurona se
representa como un sumador lineal de los estímulos externos zj, seguida de una
función no lineal yj 5 f (zj). La función f (zj) es llamada la función de activación y es
la función que utiliza la suma de estímulos para determinar la actividad de salida
de la neurona.
Este modelo es la base de la mayoría de las arquitecturas de las RNA que se
interconectan entre sí.
Las neuronas emplean funciones de activación diferentes según la aplicación.
Algunas veces son funciones lineales, otras son funciones sigmoidales (por
ejemplo, la tanh x) y otras son funciones de umbral de disparo. La eficiencia
sináptica se representa por factores de peso de interconexión wij , desde la
neurona i hasta la neurona j.
Los pesos pueden ser positivos (excitación) o negativos (inhibición). Los pesos
junto con las funciones f (z) dictan la operación de la red neural. Normalmente las
funciones no se modifican de tal manera que el estado de la red neural depende
del valor de los factores de peso (sinapsis) que se aplica a los estímulos de la
neurona. En un perceptrón, cada entrada se multiplica por el peso w
correspondiente y los resultados se suman, siendo evaluados contra el valor de
umbral; si el resultado es mayor al mismo, el perceptrón se activa.
El perceptrón sólo es capaz de resolver funciones defi nidas por dos dimensiones.
Un ejemplo de una función que no puede ser resuelta es el operador lógico. El
entrenamiento de un perceptrón es por medio de la regla de aprendizaje delta:
Para cada peso w se realiza un ajuste dw según la regla:
dw = η(x - Y)X
Donde η es la razón de aprendizaje, y el valor deseado, Y el valor obtenido y X la
entrada aplicada
al perceptrón.
Figura 2. Estructura del perceptrón, la más simple en las RNA. Es un discriminador
binario lineal y puede ser entrenado para mejorar su desempeño. Las entradas de
la neurona (5A), los pesos aleatorios (5B), la sumatoria de la multiplicación de los
pesos por sus respectivas entradas (5C) y la salida que es el cálculo de todos los
pesos y sus entradas (5D).

You might also like